注册
环信即时通讯云

环信即时通讯云

单聊、群聊、聊天室...
环信开发文档

环信开发文档

Demo体验

Demo体验

场景Demo,开箱即用
RTE开发者社区

RTE开发者社区

汇聚音视频领域技术干货,分享行业资讯
技术讨论区

技术讨论区

技术交流、答疑
资源下载

资源下载

收集了海量宝藏开发资源
iOS Library

iOS Library

不需要辛辛苦苦的去找轮子, 这里都有
Android Library

Android Library

不需要辛辛苦苦的去找轮子, 这里都有

为什么是14px?

web
字号与体验 肉眼到物体之间的距离,物体的高度以及这个三角形的角度,构成了一个三角函数的关系。 h=2d*tan(a/2) 而公式中的 h 的值和我们要解决的核心问题『主字号』有着很大的关系。 关于这个 a 的角度,有机构和团队做过研究,当大于 0.3 度时的...
继续阅读 »

字号与体验


1609983492683.png


肉眼到物体之间的距离,物体的高度以及这个三角形的角度,构成了一个三角函数的关系。


h=2d*tan(a/2)


而公式中的 h 的值和我们要解决的核心问题『主字号』有着很大的关系。


关于这个 a 的角度,有机构和团队做过研究,当大于 0.3 度时的阅读效率是最好的。


同时我们在操作电脑时,一般来说眼睛距离电脑屏幕的平均值大概会在 50 厘米左右。


然而,公式中的距离和高度的单位都是厘米,字体的单位是 pixel。


因此我们还需要将二者之间做一轮转换,完成转换所需的两个数值分别是 2.54(cm 到 inch)和 PPI(inch 到 pixel)。           


*PPI(Pixels Per Inch):像素密度,所表示的是每英寸所拥有的像素数量。


公式表达为_ppi_=√(x2+y2)/z(x:长度像素数;y:宽度像素数;z:屏幕大小)  


我们假定 PPI 为 120。通过计算便可以得出在显示器的 PPI 为 120 的情况下,理论上大于 12px 的字体能够满足用户的最佳阅读效率。基于这样的思路,确定主流 PPI 的范围,就很容易锁定主字体的大小了。


根据网络上的数据来源,我们发现只有大约 37.6% 的显示器 PPI 是小于 120 的,而 PPI 在 120-140 的显示器的占比大约为 40%。换句话说 12px 的字体只能满足 37.6% 用户的阅读体验,但如果我们将字体放大到 14px,就可以保证大约 77% 的显示器用户处于比较好的阅读体验。


作者:IDuxFE
来源:juejin.cn/post/7209967260899147834
收起阅读 »

从零开始构建用户模块:前端开发实践

web
场景 在大多数前端应用中都会有自己的用户模块,对于前端应用中的用户模块来说,需要从多个方面功能考虑,以掘金为例,可能需要下面这些功能: 多种登录方式,账号密码,手机验证码,第三方登录等 展示类信息,用户头像、用户名、个人介绍等 用户权限控制,可能需要附带角色...
继续阅读 »

场景


在大多数前端应用中都会有自己的用户模块,对于前端应用中的用户模块来说,需要从多个方面功能考虑,以掘金为例,可能需要下面这些功能:



  1. 多种登录方式,账号密码,手机验证码,第三方登录等

  2. 展示类信息,用户头像、用户名、个人介绍等

  3. 用户权限控制,可能需要附带角色信息等

  4. 发起请求可能还需要带上token等


接下来我们来一步步实现一个简单的用户模块


需求分析


用户模型


针对这些需求我们可以列出一个用户模型,包括下面这些参数


展示信息:



  • username 用户名

  • avatar 头像

  • introduction 个人介绍


角色信息:



  • role


鉴权:




  • token




这个user模型对于前端应用来说应该是全局唯一的,我们这里可以用singleton,标注为全局单例


import { singleton } from '@clean-js/presenter';

@singleton()
export class User {
username = '';
avatar = '';
introduction = '';

role = 'member';
token = '';

init(data: Partial<Omit<User, 'init'>>) {
Object.assign(this, data);
}
}

用户服务


接着可以针对我们的用户场景来构建用户服务类。


如下面这个UserService:



  • 注入了全局单例的User

  • loginWithMobile 提供了手机号验证码登录方法,这里我们用一个mock代码来模拟请求登录

  • updateUserInfo 用来获取用户信息,如头像,用户名之类的。从后端拉取信息之后我们会更新单例User


import { injectable } from '@clean-js/presenter';
import { User } from '../entity/user';


@injectable()
export class UserService {
constructor(private user: User) {}


/**
* 手机号验证码登录
*/

loginWithMobile(mobile: string, code: string) {
// mock 请求接口登录
return new Promise((resolve) => {
setTimeout(() => {
this.user.init({
token: 'abcdefg',
});


resolve(true);
}, 1000);
});
}


updateUserInfo() {
// mock 请求接口登录
return new Promise<User>((resolve) => {
setTimeout(() => {
this.user.init({
avatar:
'https://p3-passport.byteimg.com/img/user-avatar/2245576e2112372252f4fbd62c7c9014~180x180.awebp',
introduction: '欢乐堡什么都有,唯独没有欢乐',
username: '鱼露',
role: 'member',
});


resolve(this.user);
}, 1000);
});
}
}

界面状态


我们以登录界面和个人中心页面为例


登录界面


在登录界面需要这些页面状态和方法


View State:



  • loading: boolean; 页面loading

  • mobile: string; 输入手机号

  • code: string; 输入验证码


methods:



  • showLoading

  • hideLoading

  • login


import { history } from 'umi';
import { UserService } from '@/module/user/service/user';
import { LockOutlined, UserOutlined } from '@ant-design/icons';
import { injectable, Presenter } from '@clean-js/presenter';
import { usePresenter } from '@clean-js/react-presenter';
import { Button, Form, Input, message, Space } from 'antd';

interface IViewState {
loading: boolean;
mobile: string;
code: string;
}
@injectable()
class PagePresenter extends Presenter<IViewState> {
constructor(private userService: UserService) {
super();
this.state = {
loading: false,
mobile: '',
code: '',
};
}

_loadingCount = 0;

showLoading() {
if (this._loadingCount === 0) {
this.setState((s) => {
s.loading = true;
});
}
this._loadingCount += 1;
}

hideLoading() {
this._loadingCount -= 1;
if (this._loadingCount === 0) {
this.setState((s) => {
s.loading = false;
});
}
}

login = () => {
const { mobile, code } = this.state;
this.showLoading();
return this.userService
.loginWithMobile(mobile, code)
.then((res) => {
if (res) {
message.success('登录成功');
}
})
.finally(() => {
this.hideLoading();
});
};
}

export default function LoginPage() {
const { p } = usePresenter(PagePresenter);

return (
<div>
<Form
name="normal_login"
initialValues={{ email: 'admin@admin.com', password: 'admin' }}
onFinish={() => {
console.log(p, '==p');
p.login().then(() => {
setTimeout(() => {
history.push('/profile');
}, 1000);
});
}}
>
<Form.Item
name="email"
rules={[{ required: true, message: 'Please input your email!' }]}
>
<Input
prefix={<UserOutlined className="site-form-item-icon" />}
placeholder="email"
/>
</Form.Item>
<Form.Item
name="password"
rules={[{ required: true, message: 'Please input your Password!' }]}
>
<Input
prefix={<LockOutlined className="site-form-item-icon" />}
type="password"
placeholder="Password"
/>
</Form.Item>

<Form.Item>
<Space>
<Button
type="primary"
htmlType="submit"
className="login-form-button"
>
Log in
</Button>
</Space>
</Form.Item>
</Form>
</div>
);
}

如上代码所示,一个登录页面就完成了,接下来我们实现一下个人中心页面


个人中心


import { UserService } from '@/module/user/service/user';
import { injectable, Presenter } from '@clean-js/presenter';
import { usePresenter } from '@clean-js/react-presenter';
import { Image, Spin } from 'antd';
import { useEffect } from 'react';

interface IViewState {
loading: boolean;
username: string;
avatar: string;
introduction: string;
}

@injectable()
class PagePresenter extends Presenter<IViewState> {
constructor(private userS: UserService) {
super();
this.state = {
loading: false,
username: '',
avatar: '',
introduction: '',
};
}

_loadingCount = 0;

showLoading() {
if (this._loadingCount === 0) {
this.setState((s) => {
s.loading = true;
});
}
this._loadingCount += 1;
}

hideLoading() {
this._loadingCount -= 1;
if (this._loadingCount === 0) {
this.setState((s) => {
s.loading = false;
});
}
}

/**
* 拉取用户信息
*/

getUserInfo() {
this.showLoading();
this.userS
.updateUserInfo()
.then((u) => {
this.setState((s) => {
s.avatar = u.avatar;
s.username = u.username;
s.introduction = u.introduction;
});
})
.finally(() => {
this.hideLoading();
});
}
}
const ProfilePage = () => {
const { p } = usePresenter(PagePresenter);

useEffect(() => {
p.getUserInfo();
}, []);

return (
<Spin spinning={p.state.loading}>
<p>
avatar: <Image src={p.state.avatar} width={100} alt="avatar"></Image>
</p>
<p>username: {p.state.username}</p>
<p>introduction: {p.state.introduction}</p>
</Spin>

);
};

export default ProfilePage;

在这个ProfilePage中,我们初始化时会执行p.getUserInfo();


期间会切换loading的状态,并映射到页面的Spin组件中,执行完成后,更新页面的用户信息,用于展示


总结


至此,一个简单的用户模块就实现啦,整个用户模块以及页面的依赖关系可以查看下面这个UML图,



状态库仓库

仓库


各位大佬,记得一键三连,给个star,谢谢



作者:鱼露
来源:juejin.cn/post/7208818303673679933
收起阅读 »

Android必知必会-Stetho调试工具

一、背景 Stetho是 Facebook 出品的一个强大的 Android 调试工具,使用该工具你可以在 Chrome Developer Tools查看APP的布局, 网络请求(仅限使用Volle, okhttp的网络请求库), Sqlite, Pref...
继续阅读 »

一、背景



Stetho是 Facebook 出品的一个强大的 Android 调试工具,使用该工具你可以在 Chrome Developer Tools查看APP的布局, 网络请求(仅限使用Volle, okhttp的网络请求库), Sqlite, Preference, 一切都是可视化的操作,无须自己在去使用adb, 也不需要root你的设备



本人使用自己的Nubia Z9 Mini作为调试机,由于牵涉到Sqlite数据库,所以尝试了很多办法把它Root了,然而Root之后就无法正常升级系统。
今天得知一调试神器Stetho,无需Root就能查看数据库以及APP的布局(这一点没有Android Device Monitor使用方便,但是Android Device Monitor在Mac上总是莫名其妙出问题),使用起来很方便,大家可以尝试一下。


二、配置流程


1.引入主库


使用Gradle方式:


// Gradle dependency on Stetho 
dependencies {
compile 'com.facebook.stetho:stetho:1.3.1'
}

此外还支持Maven方式,这里不做介绍。


2.引入网络请求库


如果需要调试网络且你使用的网络请求库是Volle或者Okhttp,那么你才需要配置,否则跳过此步。
以下根据自己使用的网络请求库情况来导入相应的库:
1.使用okhttp 2.X


 dependencies { 
compile 'com.facebook.stetho:stetho-okhttp:1.3.1'
}

2.使用okhttp 3.X


dependencies { 
compile 'com.facebook.stetho:stetho-okhttp3:1.3.1'
}

3.使用HttpURLConnection


dependencies { 
compile 'com.facebook.stetho:stetho-urlconnection:1.3.1'
}

3.配置代码


配置Application


public class XXX extends Application {
public void onCreate() {
super.onCreate();
Stetho.initializeWithDefaults(this);
}
}

配置网络请求库:
OkHttp 2.2.x+ 或 3.x


//方案一
OkHttpClient client = new OkHttpClient();
client.networkInterceptors().add(new StethoInterceptor());

//方案二
new OkHttpClient.Builder()
.addNetworkInterceptor(new StethoInterceptor())
.build();

如果使用的是HttpURLConnection,请查阅相关文档。


4.使用


运行重新编译后的APP程序,保持手机与电脑的连接,然后打开Chrome浏览器,在地址栏里输入:chrome://inspect然后选择自己的设备下运行的APP进程名下的Inspect链接 即可进行调试。


三、遇到的问题


1.okhttp版本问题:


可能你还在使用okhttp 2.x的版本,在引入网络库的时候,你需要去查看一下Stetho当前版本使用的okhttp版本,避免在项目中使用多个不同版本的okhttp


PSokhttp2.x和3.x的引入方式略有不同,不可以直接修改版本号来导入:


//2.x
compile 'com.squareup.okhttp:okhttp:2.x.x'
//3.x
compile 'com.squareup.okhttp3:okhttp:3.x.x'

2.配置okhttp代码方案一报错:


//方案一
OkHttpClient client = new OkHttpClient();
client.networkInterceptors().add(new StethoInterceptor());

//方案二
OkHttpClient client = new OkHttpClient.Builder()
.addNetworkInterceptor(new StethoInterceptor())
.build();

我在使用方案一进行配置okhttp的时候,会报错:


 Caused by: java.lang.UnsupportedOperationException

不知道是不是兼容的问题,大家在使用的时候请注意。



Stetho官网


作者:cafeting
链接:https://juejin.cn/post/7202164243612860472
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

一个app到底会创建多少个Application对象

问题背景 最近跟群友讨论一个技术问题: 一个应用开启了多进程,最终到底会创建几个application对象,执行几次onCreate()方法? 有的群友根据自己的想法给出了猜想 甚至有的群友直接咨询起了ChatGPT 但至始至终都没有一个最终的结论。于是...
继续阅读 »

问题背景


最近跟群友讨论一个技术问题:


交流1


一个应用开启了多进程,最终到底会创建几个application对象,执行几次onCreate()方法?


有的群友根据自己的想法给出了猜想


交流2


甚至有的群友直接咨询起了ChatGPT


chatgpt1.jpg


但至始至终都没有一个最终的结论。于是乎,为了弄清这个问题,我决定先写个demo测试得出结论,然后从源码着手分析原因


Demo验证


首先创建了一个app项目,开启多进程


<?xml version="1.0" encoding="utf-8"?>
<manifest
xmlns:android="http://schemas.android.com/apk/res/android"
xmlns:tools="http://schemas.android.com/tools">


<application
android:name=".DemoApplication"
android:allowBackup="true"
android:dataExtractionRules="@xml/data_extraction_rules"
android:fullBackupContent="@xml/backup_rules"
android:icon="@mipmap/ic_launcher"
android:label="@string/app_name"
android:roundIcon="@mipmap/ic_launcher_round"
android:supportsRtl="true"
android:theme="@style/Theme.Demo0307"
tools:targetApi="31">

<!--android:process 开启多进程并设置进程名-->
<activity
android:name=".MainActivity"
android:exported="true"
android:process=":remote">

<intent-filter>
<action android:name="android.intent.action.MAIN" />

<category android:name="android.intent.category.LAUNCHER" />
</intent-filter>

</activity>
</application>

</manifest>

然后在DemoApplication的onCreate()方法打印application对象的地址,当前进程名称


public class DemoApplication extends Application {
private static final String TAG = "jasonwan";

@Override
public void onCreate() {
super.onCreate();
Log.d(TAG, "Demo application onCreate: " + this + ", processName=" + getProcessName(this));
}

private String getProcessName(Application app) {
int myPid = Process.myPid();
ActivityManager am = (ActivityManager) app.getApplicationContext().getSystemService(Context.ACTIVITY_SERVICE);
List<ActivityManager.RunningAppProcessInfo> runningAppProcesses = am.getRunningAppProcesses();
for (ActivityManager.RunningAppProcessInfo runningAppProcess : runningAppProcesses) {
if (runningAppProcess.pid == myPid) {
return runningAppProcess.processName;
}
}
return "null";
}
}

运行,得到的日志如下


2023-03-07 11:15:27.785 19563-19563/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote

查看当前应用所有进程


查看进程1


说明此时app只有一个进程,且只有一个application对象,对象地址为@fb06c2d


现在我们将进程增加到多个,看看情况如何


<?xml version="1.0" encoding="utf-8"?>
<manifest
xmlns:android="http://schemas.android.com/apk/res/android"
xmlns:tools="http://schemas.android.com/tools">


<application
android:name=".DemoApplication"
android:allowBackup="true"
android:dataExtractionRules="@xml/data_extraction_rules"
android:fullBackupContent="@xml/backup_rules"
android:icon="@mipmap/ic_launcher"
android:label="@string/app_name"
android:roundIcon="@mipmap/ic_launcher_round"
android:supportsRtl="true"
android:theme="@style/Theme.Demo0307"
tools:targetApi="31">

<!--android:process 开启多进程并设置进程名-->
<activity
android:name=".MainActivity"
android:exported="true"
android:process=":remote">

<intent-filter>
<action android:name="android.intent.action.MAIN" />

<category android:name="android.intent.category.LAUNCHER" />
</intent-filter>

</activity>
<activity
android:name=".TwoActivity"
android:process=":remote2" />

<activity
android:name=".ThreeActivity"
android:process=":remote3" />

<activity
android:name=".FourActivity"
android:process=":remote4" />

<activity
android:name=".FiveActivity"
android:process=":remote5" />

</application>

</manifest>

逻辑是点击MainActivity启动TwoActivity,点击TwoActivity启动ThreeActivity,以此类推。最后我们运行,启动所有Activity得到的日志如下


2023-03-07 11:25:35.433 19955-19955/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote
2023-03-07 11:25:43.795 20001-20001/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote2
2023-03-07 11:25:45.136 20046-20046/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote3
2023-03-07 11:25:45.993 20107-20107/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote4
2023-03-07 11:25:46.541 20148-20148/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote5

查看当前应用所有进程


查看进程2


此时app有5个进程,但application对象地址均为@fb06c2d,地址相同意味着它们是同一个对象。


那是不是就可以得出结论,无论启动多少个进程都只会创建一个application对象呢?并不能妄下此定论,我们将MainActivityprocess属性去掉再运行,得到的日志如下


2023-03-07 11:32:10.156 20318-20318/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@5d49e29, processName=com.jason.demo0307
2023-03-07 11:32:15.143 20375-20375/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote2
2023-03-07 11:32:16.477 20417-20417/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote3
2023-03-07 11:32:17.582 20463-20463/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote4
2023-03-07 11:32:18.882 20506-20506/com.jason.demo0307 D/jasonwan: Demo application onCreate: com.jason.demo0307.DemoApplication@fb06c2d, processName=com.jason.demo0307:remote5

查看当前应用所有进程


查看进程3


此时app有5个进程,但有2个application对象,对象地址为@5d49e29和@fb06c2d,且子进程的application对象都相同。


上述所有进程的父进程ID为678,而此进程正是zygote进程


zygote进程


根据上面的测试结果我们目前能得出的结论:



  • 结论1:单进程只创建一个Application对象,执行一次onCreate()方法;

  • 结论2:多进程至少创建2个Application对象,执行多次onCreate()方法,几个进程就执行几次;


结论2为什么说至少创建2个,因为我在集成了JPush的商业项目中测试发现,JPush创建的进程跟我自己创建的进程,Application地址是不同的。


jpush进程


这里三个进程,分别创建了三个Application对象,对象地址分别是@f31ba9d,@2c586f3,@fb06c2d


源码分析


这里需要先了解App的启动流程,具体可以参考《App启动流程》


Application的创建位于frameworks/base/core/java/android/app/ActivityThread.javahandleBindApplication()方法中


	@UnsupportedAppUsage
private void handleBindApplication(AppBindData data) {
long st_bindApp = SystemClock.uptimeMillis();
//省略部分代码

// Note when this process has started.
//设置进程启动时间
Process.setStartTimes(SystemClock.elapsedRealtime(), SystemClock.uptimeMillis());

//省略部分代码

// send up app name; do this *before* waiting for debugger
//设置进程名称
Process.setArgV0(data.processName);
//省略部分代码

// Allow disk access during application and provider setup. This could
// block processing ordered broadcasts, but later processing would
// probably end up doing the same disk access.
Application app;
final StrictMode.ThreadPolicy savedPolicy = StrictMode.allowThreadDiskWrites();
final StrictMode.ThreadPolicy writesAllowedPolicy = StrictMode.getThreadPolicy();
try {
// If the app is being launched for full backup or restore, bring it up in
// a restricted environment with the base application class.
//此处开始创建application对象,注意参数2为null
app = data.info.makeApplication(data.restrictedBackupMode, null);

//省略部分代码
try {
if ("com.jason.demo0307".equals(app.getPackageName())){
Log.d("jasonwan", "execute app onCreate(), app=:"+app+", processName="+getProcessName(app)+", pid="+Process.myPid());
}
//执行application的onCreate方法()
mInstrumentation.callApplicationOnCreate(app);
} catch (Exception e) {
if (!mInstrumentation.onException(app, e)) {
throw new RuntimeException(
"Unable to create application " + app.getClass().getName()
+ ": " + e.toString(), e);
}
}
} finally {
// If the app targets < O-MR1, or doesn't change the thread policy
// during startup, clobber the policy to maintain behavior of b/36951662
if (data.appInfo.targetSdkVersion < Build.VERSION_CODES.O_MR1
|| StrictMode.getThreadPolicy().equals(writesAllowedPolicy)) {
StrictMode.setThreadPolicy(savedPolicy);
}
}
//省略部分代码
}

实际创建过程在frameworks/base/core/java/android/app/LoadedApk.java中的makeApplication()方法中,LoadedApk顾名思义就是加载好的Apk文件,里面包含Apk所有信息,像包名、Application对象,app所在的目录等,这里直接看application的创建过程


	@UnsupportedAppUsage
public Application makeApplication(boolean forceDefaultAppClass,
Instrumentation instrumentation)
{
if ("com.jason.demo0307".equals(mApplicationInfo.packageName)) {
Log.d("jasonwan", "makeApplication: mApplication="+mApplication+", pid="+Process.myPid());
}
//如果已经创建过了就不再创建
if (mApplication != null) {
return mApplication;
}

Trace.traceBegin(Trace.TRACE_TAG_ACTIVITY_MANAGER, "makeApplication");

Application app = null;

String appClass = mApplicationInfo.className;
if (forceDefaultAppClass || (appClass == null)) {
appClass = "android.app.Application";
}

try {
java.lang.ClassLoader cl = getClassLoader();
if (!mPackageName.equals("android")) {
Trace.traceBegin(Trace.TRACE_TAG_ACTIVITY_MANAGER,
"initializeJavaContextClassLoader");
initializeJavaContextClassLoader();
Trace.traceEnd(Trace.TRACE_TAG_ACTIVITY_MANAGER);
}
ContextImpl appContext = ContextImpl.createAppContext(mActivityThread, this);
//反射创建application对象
app = mActivityThread.mInstrumentation.newApplication(
cl, appClass, appContext);
if ("com.jason.demo0307.DemoApplication".equals(appClass)){
Log.d("jasonwan", "create application, app="+app+", processName="+mActivityThread.getProcessName()+", pid="+Process.myPid());
}
appContext.setOuterContext(app);
} catch (Exception e) {
Log.d("jasonwan", "fail to create application, "+e.getMessage());
if (!mActivityThread.mInstrumentation.onException(app, e)) {
Trace.traceEnd(Trace.TRACE_TAG_ACTIVITY_MANAGER);
throw new RuntimeException(
"Unable to instantiate application " + appClass
+ ": " + e.toString(), e);
}
}
mActivityThread.mAllApplications.add(app);
mApplication = app;

if (instrumentation != null) {
try {
//第一次启动创建时,instrumentation为null,不会执行onCreate()方法
instrumentation.callApplicationOnCreate(app);
} catch (Exception e) {
if (!instrumentation.onException(app, e)) {
Trace.traceEnd(Trace.TRACE_TAG_ACTIVITY_MANAGER);
throw new RuntimeException(
"Unable to create application " + app.getClass().getName()
+ ": " + e.toString(), e);
}
}
}

// 省略部分代码
return app;
}

为了看清application到底被创建了几次,我在关键地方埋下了log,TAG为jasonwan的log是我自己加的,编译验证,得到如下log


启动app,进入MainActivity
03-08 17:20:29.965 4069 4069 D jasonwan: makeApplication: mApplication=null, pid=4069
//创建application对象,地址为@c2f8311,当前进程id为4069
03-08 17:20:29.967 4069 4069 D jasonwan: create application, app=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307, pid=4069
03-08 17:20:29.988 4069 4069 D jasonwan: execute app onCreate(), app=:com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307, pid=4069
03-08 17:20:29.989 4069 4069 D jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307, pid=4069
03-08 17:20:36.614 4069 4069 D jasonwan: makeApplication: mApplication=com.jason.demo0307.DemoApplication@c2f8311, pid=4069

点击MainActivity,跳转到TwoActivity
03-08 17:20:39.686 4116 4116 D jasonwan: makeApplication: mApplication=null, pid=4116
//创建application对象,地址为@c2f8311,当前进程id为4116
03-08 17:20:39.687 4116 4116 D jasonwan: create application, app=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote2, pid=4116
03-08 17:20:39.688 4116 4116 D jasonwan: execute app onCreate(), app=:com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote2, pid=4116
03-08 17:20:39.688 4116 4116 D jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote2, pid=4116
03-08 17:20:39.733 4116 4116 D jasonwan: makeApplication: mApplication=com.jason.demo0307.DemoApplication@c2f8311, pid=4116

点击TwoActivity,跳转到ThreeActivity
03-08 17:20:41.473 4147 4147 D jasonwan: makeApplication: mApplication=null, pid=4147
//创建application对象,地址为@c2f8311,当前进程id为4147
03-08 17:20:41.475 4147 4147 D jasonwan: create application, app=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote3, pid=4147
03-08 17:20:41.475 4147 4147 D jasonwan: execute app onCreate(), app=:com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote3, pid=4147
03-08 17:20:41.476 4147 4147 D jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote3, pid=4147
03-08 17:20:41.519 4147 4147 D jasonwan: makeApplication: mApplication=com.jason.demo0307.DemoApplication@c2f8311, pid=4147

点击ThreeActivity,跳转到FourActivity
03-08 17:20:42.966 4174 4174 D jasonwan: makeApplication: mApplication=null, pid=4174
//创建application对象,地址为@c2f8311,当前进程id为4174
03-08 17:20:42.968 4174 4174 D jasonwan: create application, app=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote4, pid=4174
03-08 17:20:42.969 4174 4174 D jasonwan: execute app onCreate(), app=:com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote4, pid=4174
03-08 17:20:42.969 4174 4174 D jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote4, pid=4174
03-08 17:20:43.015 4174 4174 D jasonwan: makeApplication: mApplication=com.jason.demo0307.DemoApplication@c2f8311, pid=4174

点击FourActivity,跳转到FiveActivity
03-08 17:20:44.426 4202 4202 D jasonwan: makeApplication: mApplication=null, pid=4202
//创建application对象,地址为@c2f8311,当前进程id为4202
03-08 17:20:44.428 4202 4202 D jasonwan: create application, app=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote5, pid=4202
03-08 17:20:44.429 4202 4202 D jasonwan: execute app onCreate(), app=:com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote5, pid=4202
03-08 17:20:44.430 4202 4202 D jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@c2f8311, processName=com.jason.demo0307:remote5, pid=4202
03-08 17:20:44.473 4202 4202 D jasonwan: makeApplication: mApplication=com.jason.demo0307.DemoApplication@c2f8311, pid=4202

结果很震惊,我们在5个进程中创建的application对象,地址均为@c2f8311,也就是至始至终创建的都是同一个Application对象,那么上面的结论2显然并不成立,只是测试的偶然性导致的。


可真的是这样子的吗,这也太颠覆我的三观了,为此我跟群友讨论了这个问题:


不同进程中的多个对象,内存地址相同,是否代表这些对象都是同一个对象?


群友的想法是,java中获取的都是虚拟内存地址,虚拟内存地址相同,不代表是同一个对象,必须物理内存地址相同,才表示是同一块内存空间,也就意味着是同一个对象,物理内存地址和虚拟内存地址存在一个映射关系,同时给出了java中获取物理内存地址的方法Android获取对象地址,主要是利用Unsafe这个类来操作,这个类有一个作用就是直接访问系统内存资源,具体描述见Java中的魔法类-Unsafe,因为这种操作是不安全的,所以被标为了私有,但我们可以通过反射去调用此API, 然后我又去请教了部门搞寄存器的大佬,大佬肯定了群友的想法,于是我添加代码,尝试获取对象的物理内存地址,看看是否相同


public class DemoApplication extends Application {
public static final String TAG = "jasonwan";

@Override
public void onCreate() {
super.onCreate();
Log.d(TAG, "DemoApplication=" + this + ", address=" + addressOf(this) + ", pid=" + Process.myPid());
}

//获取对象的真实物理地址
public static long addressOf(Object o) {
Object[] array = new Object[]{o};
long objectAddress = -1;
try {
Class cls = Class.forName("sun.misc.Unsafe");
Field field = cls.getDeclaredField("theUnsafe");
field.setAccessible(true);
Object unsafe = field.get(null);
Class unsafeCls = unsafe.getClass();
Method arrayBaseOffset = unsafeCls.getMethod("arrayBaseOffset", Object.class.getClass());
int baseOffset = (int) arrayBaseOffset.invoke(unsafe, Object[].class);
Method size = unsafeCls.getMethod("addressSize");
int addressSize = (int) size.invoke(unsafe);
switch (addressSize) {
case 4:
Method getInt = unsafeCls.getMethod("getInt", Object.class, long.class);
objectAddress = (int) getInt.invoke(unsafe, array, baseOffset);
break;
case 8:
Method getLong = unsafeCls.getMethod("getLong", Object.class, long.class);
objectAddress = (long) getLong.invoke(unsafe, array, baseOffset);
break;
default:
throw new Error("unsupported address size: " + addressSize);
}
} catch (Exception e) {
e.printStackTrace();
}
return objectAddress;
}
}

运行后得到如下日志


2023-03-10 11:01:54.043 6535-6535/com.jason.demo0307 D/jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@930d275, address=8050489105119022792, pid=6535
2023-03-10 11:02:22.610 6579-6579/com.jason.demo0307 D/jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@331b3b9, address=8050489105119027136, pid=6579
2023-03-10 11:02:36.369 6617-6617/com.jason.demo0307 D/jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@331b3b9, address=8050489105119029912, pid=6617
2023-03-10 11:02:39.244 6654-6654/com.jason.demo0307 D/jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@331b3b9, address=8050489105119032760, pid=6654
2023-03-10 11:02:40.841 6692-6692/com.jason.demo0307 D/jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@331b3b9, address=8050489105119036016, pid=6692
2023-03-10 11:02:52.429 6729-6729/com.jason.demo0307 D/jasonwan: DemoApplication=com.jason.demo0307.DemoApplication@331b3b9, address=8050489105119038720, pid=6729

可以看到,虽然Application的虚拟内存地址相同,都是331b3b9,但它们的真实物理地址却不同,至此,我们可以得出最终结论



  • 单进程,创建1个application对象,执行一次onCreate()方法

  • 多进程(N),创建N个application对象,执行N次onCreate()方法


作者:小迪vs同学
来源:juejin.cn/post/7208345469658415159
收起阅读 »

回顾下小城市十年的经历:努力过,躺平过。

【回顾】 十年,目睹了时代的改变,也见证了技术的迭代。 【2011】大学毕业前的实习 这一年,大学即将毕业毕业,寒假回到了家乡的小县城,歪打正着的找了一份家乡县级市ZF的实习工作(合同工)。 技术:Ps Html Css 内容:内网新闻专题 薪资:150...
继续阅读 »

【回顾】



十年,目睹了时代的改变,也见证了技术的迭代。



【2011】大学毕业前的实习


这一年,大学即将毕业毕业,寒假回到了家乡的小县城,歪打正着的找了一份家乡县级市ZF的实习工作(合同工)。



  • 技术:Ps Html Css

  • 内容:内网新闻专题

  • 薪资:1500

  • 房价:3000/平


【2012】大学毕业了


这一年,大学毕业了,毕业那天喝了很多,并豪情壮志的和室友预定了四个五年计划。(一五:年薪10万。二五,年薪20万,三五,年薪30万,四五,财富自由。)


于是我放弃了ZF的安稳,只身来到了当地的十八线小城市,为了安身立命,于是随便找了一家只有2人的公司做网站~



  • 职位:美工

  • 技术:Ps Html Css Asp

  • 内容:企业网站

  • 薪资:1000

  • 房租:600

  • 房价:3500/平


这段时间,由于工资过低,每天只吃1-2顿饭,而且每天熬夜学习,体重从大学期间的100Kg降到了65Kg。


终于,在2012年的下半年找到了自己的第一份正式工作--所在城市日报集团。



  • 职位:美工

  • 技术:Ps Html Css JQ PHP

  • 门户网站、专题、企业网站

  • 薪资:3500

  • 房租:0(包吃住)

  • 房价:3500/平


【2014】开始学H5+C3


由于不知道多少线的小城市,技术需求极低,大部分工作内容还要考虑IE6的兼容性。技术部老大跟我说H5和C3咱们一时半会是用不到的。但我还是学了,我觉得早晚会用到。



  • 职位:美工

  • 技术:Ps Html Css JQ PHP

  • 门户网站、专题、企业网站

  • 薪资:3800

  • 房租:0(包吃住)

  • 房价:3500/平


【2015】辞职-新工作-公司解散-新工作


公司来了新领导,开始大刀阔斧的改革,并要求技术部承担经营任务,技术部老大一气之下带着我和另外一个程序W 离职了,大家决定自己干!


老大带我们组个个外包团队,包了一个公司的H5封装APP的活,签了3年的外包合同。我负责H5页面,W负责程序,老大负责服务器。我们仨找了个孵化器开始干了起来。



  • 职位:美工?前端?

  • 技术:Ps Html5 Css3 JQ

  • H5封装APP

  • 薪资:7000

  • 房租:500

  • 房价:5500/平


三个月后甲方撤资了~~ 突如其来的大家没了收入。老大还在努力的找新单子,我们也发现这不是长久之计,于是边接小单子边找新的出路。


新工作来的很意外,之前报社的老领导去了临市的大众网记者站当副站长,又被调回我们城市成立新的记者站。于是老领导找到了我,他们需要一个全栈员工。老领导于我也算是有知遇之恩,所以我决定去帮帮她。虽然给了我主任级别的待遇,但是工资依然不高。



  • 职位:全栈

  • 技术:Ps Html5 Css3 JQ 内部cms

  • 门户网站、专题、企业网站 微信H5

  • 薪资:4000

  • 房租:500

  • 房价:5500/平


【2016】 微信小程序来了


这一年,微信小程序的风吹进了我们这座小城市,开始有人问我会不会做。于是开始学习,并成功为一个经典做了一个卖票小程序,赚了3000.



  • 职位:全栈

  • 技术:Ps Html5 Css3 JQ 内部cms

  • 门户网站、专题、企业网站 微信H5

  • 薪资:4500

  • 房租:500

  • 房价:6500/平


【2018】结婚-辞职-新工作


这一年,和相恋5年的女朋友结婚了。忽然之间有了责任的压力,看看工资卡的工资,现在的工作显然是不行了,于是我决定辞职。


当我决定辞职之后我收到了两个橄榄枝,分别是老东家报社,和老同事W的。


老东家的一个同事已经升为主任,邀请我回去,工资开到了7500,在一个报社这样的单位我知道这是她的极限了。


W则是在我们三人组解散之后去了一家小公司,老板是个富二代,人也很好。现在业务增多想要叫我过去。


最终我选择了W的公司



  • 职位:美工?前端?

  • 技术:Ps Html5 Css3 JQ PHP

  • 商城类网站

  • 薪资:13000

  • 房租:0(买房了,朋友的顶账房,没贷款欠朋友的,慢慢还。)

  • 房价:8000/平


【2019】vue来了我却躺平了


这一年,老婆的公司开始使用VUE2了,老婆让我跟她一起学,我却沉迷游戏躺平了。


现在公司的环境很好,老板有钱人也很好。技术部的电脑都是i9-11代的处理器+2060的显卡,这哪里是公司简直是网吧。


公司也是经常几周甚至一个月没有新的业务,只要保证手里的几个网站正常运行就可以了,于是大家开始沉沦,每天上班也几乎都是在看电影和打游戏,还有免费的零食和饮料。


大家每天也都是在讨论哪个3A大作发售了,哪个电影上映了,很少能听到关于技术的讨论了。



  • 职位:美工?前端?

  • 技术:Ps Html5 Css3 JQ PHP

  • 商城类网站

  • 薪资:15000

  • 房价:9000/平


【2020】疫情来了,小天使来了,危机也在慢慢靠近。


这一年,疫情开始蔓延,小宝宝也降生了。


公司还是一如既往,虽然我们知道业务在下滑,但是老板有钱,工资不降反升。


老婆打算辞掉工作专心把孩子带到3岁再工作。我考量了一下我的收入,觉得在这个不知道多少线的小城也算可以,就同意了。



  • 职位:美工?前端?

  • 技术:Ps Html5 Css3 JQ PHP

  • 商城类网站

  • 薪资:17000

  • 房价:10000/平


【2021】终于开始学VUE和React


这一年,终于开始学习VUE和React,虽然公司依然没有使用新框架的打算,主要是因为后端不想写接口。想继续使用现在的程序。好像大家都躺平了,也可能是小城市的惬意。



  • 职位:美工?前端?

  • 技术:Ps Html5 Css3 JQ PHP

  • 商城类网站

  • 薪资:18000

  • 房价:9000/平


【2022-上】听说大厂裁员,我们老板“毕业”了。


这一年,听说大厂都在裁员,小城市却依然风平浪静。大家日复一日的摸鱼。


某一天,噩耗传来,老板进去了,公司解散。WTF。


晴天霹雳,没想到我们还没毕业,老板却“毕业”了



  • 职位:无

  • 薪资:0

  • 房价:9000/平


【2022-中】现实的社会和迟到的技术


2022精彩的一年,被狠狠的从舒适圈里踢了出来。一脸懵逼。


开始重新找工作却发现,自己的技术早已落伍,不得已又要从头学起。


无奈重新学了Vue2和Vue3,学了node.js,学了webpack,又学了ES6和TypeScript。


终于补完了前两年欠下的学习,却发现这个城市的前端工资普遍在6K-9K


落差感又一次让我一脸懵逼


【2022-下】焦虑和心虚


最终我进入了一家实体企业,HR看着我的简历对我十年的工作经验还算满意,我却很心虚。


总觉得自己这十年的工作经验水分很大。


看着比我年轻的同事熟练的使用着各种框架,而我却还在查着各种API。


我陷入了深深的自我怀疑,我是不是蹉跎了我的青春。



  • 职位:前端

  • 技术:Html5 Css3 Vue2

  • 内部平台系统、微信小程序

  • 薪资:9000

  • 房价:9000/平


【总结】



小城市没有那么多的技术需求,也没有那么多的996,大家朝九晚五,周末双休过得很惬意。



刚毕业那会用着Table切图用着Asp做后台,大家只知道你是做网站的,公司招人也是招美工,要求设计、切图、程序都会一些。小城市就是要求你什么都会一点,但不用很精通,够用就行。


慢慢的随着技术的发展前端才被定义出来,但是很多公司招聘的时候写着需要使用Vue或者React,但事实上还是干这设计切图的活,前后端不分家。


小城市技术渗透的慢,但是依然在渗透,四年的惬意生活,让我慢慢的忘记自己最初的梦想,惊醒的时候却发现我已经掉队了。


【未来可期】



被踢出舒适圈,也被踢醒了



想想大学时期的四个五年计划一个也没实现,还剩最后一个,或许还能抢救一下,虽然很不切实际,但是总有个盼头。


重新规划自己的未来,躺也躺过了,现在想想躺平的日子也就那样。虽然自己已经30+但是还是可以继续搏一搏的。


重新定制一个三年计划吧



  • 继续学习、阅读源码,做1-2个长期维护的项目。

  • 研究下混合基金,适量投入。

  • 看一些游戏开发相关的书,研究下Unreal引擎,争取做出一个游戏Demo。(游戏剧本已经写好了2个)。


作者:不知君
来源:juejin.cn/post/7143404185738805262
收起阅读 »

想退更多税?看完这篇就够了

前言 最近又到了一年一度的退税了,最近发了一个沸点,发现大家都是和我之前一样不知道如何能退更多税,我也是无意中和小伙伴聊的时候才发现这个,如何能退更多税取决于 专项附加扣除,这个合计值越多,退的也会更多,下面咱们来详细说说这个专项附加扣除,怎么能够让这个合计值...
继续阅读 »

前言


最近又到了一年一度的退税了,最近发了一个沸点,发现大家都是和我之前一样不知道如何能退更多税,我也是无意中和小伙伴聊的时候才发现这个,如何能退更多税取决于 专项附加扣除,这个合计值越多,退的也会更多,下面咱们来详细说说这个专项附加扣除,怎么能够让这个合计值变多。


image.png


专项附加扣除填报


首先打开个人所得税APP,点击下面的tabbar办税,然后点击专项附加扣除填报,就会出现如下图,通过填报上面的这些去进行增加专项附加扣除合计值。


0b957f5ecc7afa419053f890511d9aa.jpg


租房租金(和房贷只能二选一)



  • 要求:工作租房子了 (不需要合同也能填哦)

  • 扣除标准:省会或者直辖市 1500 / 月,二线城市 1100 /月,小城市 800 /月

  • 年总计:省会或者直辖市 18000,二线城市 13200,小城市 9600

  • 划重点: 多段租房经历可以多填几个租房,一定要填满!!!,一定要填,没租房子也可以填,随便填一个地址也行,这个不需要租房合同,也无法追查到的,但是和贷款只能二选一,具体选哪个请继续看。


image.png


住房贷款利息(和租房只能二选一)



  • 要求:首套房贷款

  • 扣除标准:1000/月

  • 年总计:12000

  • 划重点: 和租房二选一哦,具体选哪个看你所在的城市,哪个钱多选哪个~


image.png


子女教育



  • 要求:子女处于全日制学历教育阶段(幼儿园+小学+中学+大学),年龄>3岁。

  • 扣除标准:每人每月 1000 元 (两个孩子是一个月2000哦)

  • 年总计:12000(一个孩子的情况下)


image.png


继续教育



  • 要求:考证或者学历提升

  • 扣除标准:考证拿到证的当年一次性扣除:3600,学历提升 400/月

  • 年总计:考证:3600,学历提升:4800

  • 划重点: 这里的证必须是收录在 国家资格目录 的证书哦~


image.png


大病医疗


如果可以,我希望这个没有人申请,身体健康比什么都重要。



  • 要求:医保报销后个人花费15k+

  • 扣除标准:8w内根据你个人花费,花多少这个就是多少。

  • 年总计:根据实际。


image.png


赡养老人



  • 要求:父母 60 岁以上

  • 扣除标准:独生子女2000/月,非独生子女:和兄弟姐妹分摊 2000

  • 年总计:独生子女:24000,非独生子女: 0 ~ 12000


image.png


3岁以下婴幼儿照护



  • 要求:孩子 3 岁以下

  • 扣除标准:每月每人 1000 (两个孩子就是2000/月哦)

  • 年总计:12000(一个孩子的情况下)


如何能退更多的税


打开个人所得税APP → 我要查询 → 申报查询 → 已完成→ 选择当年的综合年度汇算→ 点击专项附加扣除合计,查看自己当年的专项附加扣除合计,可以简单计算下自己填报的专项附加扣除是否都已经填写。



PS:画重点!!!注意检查时间,我开始就是租房没填满,只写了一段租房经历,所以差点错过好几个亿,如果是2023年的填报,一定要注意你专项附加扣除是否涵盖整个2022年的日期。



113b48e415b80b8861261f3b3d961ab.jpg


有年终奖的情况


可能有些小伙伴公司会发年终奖 (如果和我一样没发年终奖,那这里可以跳过了,发年终奖的公司给我来一打),最好选择单独计税,不过都可以试一下,综合并入和单独合计,哪个退的多用哪个。


历史申报


以前的申报如果有没补充的,现在还是可以填哦,快去看看之前的申报,说不定会有惊喜哦。


最后


如果是需要补税的情况,如果少于400是不需要补的哦,当然如果大于400,一定要快点去缴纳哦,国家都留有档案,防止影响以后征信,哈哈哈,祝大家都能退几个亿~



作者:我亚索贼六丶
来源:juejin.cn/post/7208793045479522364
收起阅读 »

从技术到管理:我是如何教导技术总监做事的?

很多朋友都知道我技术很强,但实际上除了技术之外我的管理能力同样很出众。 虽然我年纪不大,但做了很多年实际的技术管理相关的工作。 前段时间李哥向我付费取经,他已经 30 多岁了,工作了很多年,技术也很强。但今年却刚当上公司的技术总监。原来他是技术部三把手,升职的...
继续阅读 »

很多朋友都知道我技术很强,但实际上除了技术之外我的管理能力同样很出众。


虽然我年纪不大,但做了很多年实际的技术管理相关的工作。


前段时间李哥向我付费取经,他已经 30 多岁了,工作了很多年,技术也很强。但今年却刚当上公司的技术总监。原来他是技术部三把手,升职的原因是前任技术总监带着副总监一起创业去了。


因为吸收了教训,老板就找到李哥,允诺给李哥一段时间的考察期,让李哥管理整个技术团队。通过考察期后会给李哥一些股份,让李哥成为技术合伙人。李哥在这家公司干了好几年了,技术能力有目共睹,确实不错,但管理经验确实比较缺乏。老板选择他,一个是出于信任,另一个也是想培养李哥。


现在李哥虽然管着几十号人,可他并没有多少实际管理经验。很多事情总觉得做得很吃力,力不从心。


所以我就和他分享了一些自己从过去的实际操作中获得的经验。


授权


第一点就是,怎么授权?


很多刚做技术管理者的人并不喜欢放权,李哥就是这类人。


这么做有几个原因。


第一个原因是怕下属能力强,功高盖主抢风头。


第二是原因是贪权,掌控欲强,什么事都要过问。


第三个原因是怕下属能力差,怕下属做砸了。


这样就会导致一个现象,很多人拿着很高的工资,担任很高的职位,却担负不了多少责任。


李哥公司每周二、周四是发布日。发布会由李哥主持,每次发布完都要等两三个小时的线上人工验证。发布完后,李哥还要担惊受怕,生怕线上出问题。


这种事不应该让李哥具体负责,因为即使哪个服务出现故障,李哥又不懂具体的业务,也做不了什么。


李哥手底下副总监、研发经理、组长十几号人,这事应该分派下去。


所有的事情都集中到了企业主要的几个负责人身上,很容易出事。


而底下的人很容易习惯这种作风,事事找领导,没有主见和主动性。


甚至于有一次李哥不在,负责的研发经理取消了发布日当天的发布计划,因为他怕发布出问题但责任。


权利高度集中,人人不作为的公司,一定会逐渐走向衰败。


所以,权利收得太紧,就会死。


那该怎么放权?


其实很简单。


员工职责内的事情要放,员工职责外的事情不要放。


就像一个员工请半天假去医院做核酸,先汇报组长,组长通过后汇报到研发经理,再汇报到技术副总监,再报备到人事专员,同时抄送人力总监和技术总监。


这么长的流程有什么用呢?


可以我直接让李哥把流程改成员工汇报给组长,组长同步给人事专员。


出事了,直接找组长,因为人是组长带的,组长要负责。


流成越复杂,就越容易扯皮甩锅撇清责任。最后背锅的估计就是李哥这个大领导。


发布的事情也是这样,谁负责的项目,什么时候发,发布过程可能出现的问题,发布失败的后果。都应该由他承担。


这样就能做到责任清晰、效率高、权利透明。


但这样不是没有隐患,组长可能不负责任,乱批假、乱报销等等。


所以权利放得太松,就容易乱。


那如何找到合适的、对工作负责的人担任组长呢?这又是一个新的问题。我后面再讲。


激励


第二点是,怎么激励?


很多新晋管理人很容易忽略激励这一点,其实它非常重要。


团队人气的高低会直接影响工作效率和工作质量。


给大家激励,让大家朝着一个方向努力,实现共同的目标很有意义和价值。虽然它不是很明显的投入,但隐形利益真的非常巨大。


那该如何激励呢?很简单,给员工争取自己能力范围内最大的福利。


简单粗暴的说,就是奖钱。


项目提前结束,给公司节省资源。


客户满意,按时付款,没有拖欠款项。


客户非常满意,计划签订下一个合作项目的合同。


这些都是给公司赚钱。


而这些赚到的钱再拿出一部分奖励给员工,本来就合情合理。


同时还可以形成良性循环。


但也不是每个老板都愿意付出这一部分钱。


有些情况下,团队加班加点、辛苦付出完成了项目。但老板就是不愿意给大家一些奖励怎么办?


精神奖励,虽然画饼差不多,但有效。


就像学生的奖状、小红花、三好学生、优秀标兵。


这是一种荣誉。


组织部门举行一场表彰会,定制个优秀员工奖牌、奖状。也花不了多少钱。


被表扬的人当真就当真,不当真也没什么。


这也谈不上忽悠人。做得好,被表扬,被夸奖,本来就是正常的事。


但是这种激励有时也能有意想不到的效果。


奖罚分明


第三点是,怎么奖罚分明?


激励对应的就是惩罚。


哪些事该奖?哪些事不该奖?


哪些事该罚?哪些事不该罚?


分不清楚这些事就很容易出事。


很多年前刚做管理不太懂事,因为迟到处罚问题失去了一个非常优秀的下属。


技术部门的工作职责其实很明确,他是生产型的岗位,按时保质保量完成任务就可以,很多事情都没必要管理的那么死。


比如李哥公司的制度是九七五,但前技术总监给大家培养了一个潜规则。就是九九五,即使很多人早就完成了工作也不能回家,不然第二个月指定被扣绩效。


按照公司规定,加班超过三个小时才有加班费。但这多出来的两个小时就等于白干了。


而且很多人这两个小时并不是真的在干活,而是在摸鱼、刷短视频,或者楼下抽烟。


所以我让李哥和老板商量,公司改成弹性制度。


按工作产出计算绩效,而不是工时。


李哥公司有个运行多年的老系统,负责处理订单和支付的。但由于年久失修,没人愿意去改。因为稍有不慎就可能导致公司金钱受损。


所以我就告诉李哥,这事必须得有人干。而且只奖不罚。


搞砸了也不能罚,甚至还得发些安慰奖。


为什么这么做?


因为这是个烂摊子,出力不讨好的事。安排人去做,不奖就等于罚了。


干好了没奖励,干不好还得被罚。谁愿意干呢?


难用就难用些,出了问题用脚本修复下数据。


这也是这个系统这么些年一直勉勉强强运行,而无人敢修改的原因。


难的事,没人敢做的事,一定不能拖着。付出大代价也得完成。


另外,李哥公司里面工时最长的几个员工会得到劳模奖和全勤奖。


但这里面有人比较混,仗着家里公司近,下班不打卡,回家吃个饭,溜个弯,到十一点多再来公司打个下班卡。而且这货不经常这么干,按照公司 OA 系统的工时,正好把自己工时卡在前三名。


影响很不好,但又不好说他。


我让李哥直接让技术部门改变奖励方式,还是按照绩效和产出发奖,同时对 Bug 最多、产出最低的员工进行处罚,即使他工时最长。


因为正常上下班只是员工的分内之事。


这种事情不该奖励。


总结来说,就是分内的事、简单的事,不能奖、只能罚。分外的事、难的事,只能奖、不能罚。


篇幅有限,先记录以上三点。


希望对你有所帮助。


作者:代码与野兽
来源:juejin.cn/post/7209914417641996343

未完待续。


收起阅读 »

Android 获取IP和UA

最近接入了一个新的SDK,初始化接口需要传入当前设备的IP和UA作为参数。本文介绍如何获取设备的IP和UA。 获取IP 使用WIFI联网与不使用WIFI,获取到的IP地址不同。因此,需要先判断当前设备通过哪种方式联网,然后再获取对应的IP地址。 判断网络连接...
继续阅读 »

最近接入了一个新的SDK,初始化接口需要传入当前设备的IP和UA作为参数。本文介绍如何获取设备的IP和UA。


获取IP


使用WIFI联网与不使用WIFI,获取到的IP地址不同。因此,需要先判断当前设备通过哪种方式联网,然后再获取对应的IP地址。



  • 判断网络连接类型


通过ConnectivityManager判断网络连接类型,代码如下:


private fun checkCurrentNetworkType() {
val connectivityManager = getSystemService(Context.CONNECTIVITY_SERVICE) as ConnectivityManager
connectivityManager.run {
if (Build.VERSION.SDK_INT < Build.VERSION_CODES.M) {
when (activeNetworkInfo?.type) {
ConnectivityManager.TYPE_MOBILE -> {
// 通过手机流量
}
ConnectivityManager.TYPE_WIFI -> {
// 通过WIFI
}
else -> {}
}
} else {
// Android M 以上建议使用getNetworkCapabilities API
activeNetwork?.let { network ->
getNetworkCapabilities(network)?.let { networkCapabilities ->
if (networkCapabilities.hasCapability(NetworkCapabilities.NET_CAPABILITY_VALIDATED)) {
when {
networkCapabilities.hasTransport(NetworkCapabilities.TRANSPORT_CELLULAR) -> {
// 通过手机流量
}
networkCapabilities.hasTransport(NetworkCapabilities.TRANSPORT_WIFI) -> {
// 通过WIFI
}
}
}
}
}
}
}
}


  • 获取手机卡联网 IP


通过NetworkInterface获取IPV4地址,代码如下:


NetworkInterface.getNetworkInterfaces().let {
loo@ for (networkInterface in Collections.list(it)) {
for (inetAddresses in Collections.list(networkInterface.inetAddresses)) {
if (!inetAddresses.isLoopbackAddress && !inetAddresses.isLinkLocalAddress) {
// IP地址
val mobileIp = inetAddresses.hostAddress
break@loo
}
}
}
}


  • 获取WIFI联网 IP


通过ConnectivityManagerWifiManager来获取IP地址,代码如下:


private fun getWIFIIp() {
if (Build.VERSION.SDK_INT < Build.VERSION_CODES.Q) {
val wifiManager = applicationContext.getSystemService(Context.WIFI_SERVICE) as WifiManager
// IP 地址
val wifiIp = Formatter.formatIpAddress(wifiManager.connectionInfo.ipAddress)
} else {
// Android Q 以上建议使用getNetworkCapabilities API
val connectivityManager = getSystemService(Context.CONNECTIVITY_SERVICE) as ConnectivityManager
connectivityManager.run {
activeNetwork?.let { network ->
(getNetworkCapabilities(network)?.transportInfo as? WifiInfo)?.let { wifiInfo ->
// IP 地址
val wifiIp = Formatter.formatIpAddress(wifiInfo.ipAddress)
}
}
}
}
}

获取UA


获取设备的UserAgent比较简单,代码如下:


// 系统 UA
System.getProperty("http.agent")

// WebView UA
WebSettings.getDefaultUserAgent(context)

示例


在示例Demo中添加了相关的演示代码。


ExampleDemo github


ExampleDemo gitee


效果如图:


device-2023-03-12-09 -original-original.gif
作者:ChenYhong
来源:juejin.cn/post/7209272192852148282
收起阅读 »

玩转Canvas——给坤坤变个颜色

web
Canvas可以绘制出强大的效果,让我们给坤坤换个色。 先看看效果图: 要怎么实现这样一个可以点击换色的效果呢? 话不多说,入正题。 第一步,创建基本元素,无须多言: <body> <canvas></canvas&...
继续阅读 »

Canvas可以绘制出强大的效果,让我们给坤坤换个色。


先看看效果图:





要怎么实现这样一个可以点击换色的效果呢?
话不多说,入正题。


第一步,创建基本元素,无须多言:


<body>
<canvas></canvas>
</body>

我们先加载坤坤的图片,然后给canvas添加基础事件:


const cvs = document.querySelector('canvas');
const ctx = cvs.getContext('2d', {
willReadFrequently: true
});
//加载图片并绘制
const img = new Image();
img.src = './img/cxk.png';
img.onload = () => {
cvs.width = img.width;
cvs.height = img.height;
ctx.drawImage(img, 0, 0);
};

再给canvas注册一个点击事件:


//监听canvas点击
cvs.addEventListener('click', clickCb);

function clickCb(e) {
const x = e.offsetX;
const y = e.offsetY;
}

这样就拿到了点击的坐标,接下来的问题是,我们要如何拿到点击坐标的颜色值呢?


其实,canvas早就给我们提供了一个强大的api:getImageData


我们可以通过它获取整个canvas上每个像素点的颜色信息,一个像素点对应四个值,分别为rgba


ctx.getImageData返回数据结构如下:





所以我们便可以利用它拿到点击坐标的颜色值:


function clickCb(e) {
//省略之前代码
//...

const imgData = ctx.getImageData(0, 0, cvs.width, cvs.height);
//获取点击坐标的rgba信息
const clickRgba = getColor(x, y, imgData.data);
}

//通过坐标获取rgba数组
function getColor(x, y, data) {
const i = getIndex(x, y);
return [data[i], data[i + 1], data[i + 2], data[i + 3]];
}

//通过坐标x,y获取对应imgData数组的索引
function getIndex(x, y) {
return (y * cvs.width + x) * 4;
}

接下来便是在点击处绘制我们的颜色值:


//为了方便,这里将变色值写死为原谅绿
const colorRgba = [0, 255, 0, 255];

function clickCb(e) {
//省略之前代码
//...

//坐标变色
function changeColor(x, y, imgData) {
imgData.data.set(colorRgba, getIndex(x, y));
ctx.putImageData(imgData, 0, 0);
}
changeColor(x, y, imgData);
}

此时如果点击坤坤的头发,会发现头发上仅仅带一点绿。要如何才能绿得彻底呢?


我们新增一个判断rgba值变化幅度的方法getDeff,当两者颜色相差过大,则视为不同区域。


//简单地根据绝对值之和判断是否为同颜色区域
function getDiff(rgba1, rgba2) {
return (
Math.abs(rgba2[0] - rgba1[0]) +
Math.abs(rgba2[1] - rgba1[1]) +
Math.abs(rgba2[2] - rgba1[2]) +
Math.abs(rgba2[3] - rgba1[3])
);
}

再新增一个判断坐标是否需要变色的方法:


function clickCb(e) {
//省略之前代码
//...

//判断该坐标是否无需变色
function stopChange(x, y, imgData) {
if (x < 0 || y < 0 || x > cvs.width || y > cvs.height) {
//超出canvas边界
return true
}
const rgba = getColor(x, y, imgData.data);
if (getDiff(rgba, clickRgba) >= 100) {
//色值差距过大
return true;
}
if (getDiff(rgba, colorRgba) === 0) {
//同颜色,不用改
return true;
}
}
}

我们更改changeColor方法,接下来便可以绿得彻底了:


function clickCb(e) {
//省略之前代码
//...

//坐标变色
function changeColor(x, y, imgData) {
if (stopChange(x, y, imgData)) {
return
}
imgData.data.set(colorRgba, getIndex(x, y));
ctx.putImageData(imgData, 0, 0);
//递归变色
changeColor(x - 1, y, imgData);
changeColor(x + 1, y, imgData);
changeColor(x, y + 1, imgData);
changeColor(x, y - 1, imgData);
}

//省略之前代码
//...
}

效果已然实现。但是上面通过递归调用函数去变色,如果变色区域过大,可能会导致栈溢出报错。


为了解决这个问题,我们得改用循环实现了。


这一步的实现需要一定的想象力。读者可以自己试试,看看能不能改用循环方式实现出来。


鉴于循环实现的代码略多,这里不再解释,直接上最终代码:


<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="UTF-8" />
<meta http-equiv="X-UA-Compatible" content="IE=edge" />
<meta name="viewport" content="width=device-width, initial-scale=1.0" />
<style>
.color-box {
margin-bottom: 20px;
}
.canvas-box {
text-align: center;
}
</style>
</head>
<body>
<div class="color-box">设置色值: <input type="color" /></div>
<div class="canvas-box">
<canvas></canvas>
</div>
<script>
let color = '#00ff00';
let colorRgba = getRGBAColor();
//hex转rgba数组
function getRGBAColor() {
const rgb = [color.slice(1, 3), color.slice(3, 5), color.slice(5)].map((item) =>
parseInt(item, 16)
);
return [...rgb, 255];
}

const input = document.querySelector('input[type=color]');
input.value = color;
input.addEventListener('change', function (e) {
color = e.target.value;
colorRgba = getRGBAColor();
});

const cvs = document.querySelector('canvas');
const ctx = cvs.getContext('2d', {
willReadFrequently: true,
});
cvs.addEventListener('click', clickCb);

const img = new Image();
img.src = './img/cxk.png';
img.onload = () => {
cvs.width = 240;
cvs.height = (cvs.width * img.height) / img.width;
//图片缩放
ctx.drawImage(img, 0, 0, img.width, img.height, 0, 0, cvs.width, cvs.height);
};

function clickCb(e) {
let x = e.offsetX;
let y = e.offsetY;
const pointMark = {};

const imgData = ctx.getImageData(0, 0, cvs.width, cvs.height);
const clickRgba = getColor(x, y, imgData.data);
//坐标变色
function changeColor(x, y, imgData) {
imgData.data.set(colorRgba, getIndex(x, y));
ctx.putImageData(imgData, 0, 0);
markChange(x, y);
}

//判断该坐标是否无需变色
function stopChange(x, y, imgData) {
const rgba = getColor(x, y, imgData.data);
if (getDiff(rgba, clickRgba) >= 150) {
//色值差距过大
return true;
}
if (getDiff(rgba, colorRgba) === 0) {
//同颜色,不用改
return true;
}
if (hasChange(x, y)) {
//已变色
return true;
}
}
function hasChange(x, y) {
const pointKey = `${x}-${y}`;
return pointMark[pointKey];
}
function markChange(x, y) {
const pointKey = `${x}-${y}`;
pointMark[pointKey] = true;
}
//添加上下左右方向的点到等待变色的点数组
function addSurroundingPoint(x, y) {
if (y > 0) {
addWaitPoint(`${x}-${y - 1}`);
}
if (y < cvs.height - 1) {
addWaitPoint(`${x}-${y + 1}`);
}
if (x > 0) {
addWaitPoint(`${x - 1}-${y}`);
}
if (x < cvs.width - 1) {
addWaitPoint(`${x + 1}-${y}`);
}
}
function addWaitPoint(key) {
waitPoint[key] = true;
}
function deleteWaitPoint(key) {
delete waitPoint[key];
}
//本轮等待变色的点
const waitPoint = {
[`${x}-${y}`]: true,
};
while (Object.keys(waitPoint).length) {
const pointList = Object.keys(waitPoint);
for (let i = 0; i < pointList.length; i++) {
const key = pointList[i];
const list = key.split('-');
const x1 = +list[0];
const y1 = +list[1];

if (stopChange(x1, y1, imgData)) {
deleteWaitPoint(key);
continue;
}
changeColor(x1, y1, imgData);
deleteWaitPoint(key);
addSurroundingPoint(x1, y1);
}
}
}

//通过坐标x,y获取对应imgData数组的索引
function getIndex(x, y) {
return (y * cvs.width + x) * 4;
}

//通过坐标获取rgba数组
function getColor(x, y, data) {
const i = getIndex(x, y);
return [data[i], data[i + 1], data[i + 2], data[i + 3]];
}

////简单地根据绝对值之和判断是否为同颜色区域
function getDiff(rgba1, rgba2) {
return (
Math.abs(rgba2[0] - rgba1[0]) +
Math.abs(rgba2[1] - rgba1[1]) +
Math.abs(rgba2[2] - rgba1[2]) +
Math.abs(rgba2[3] - rgba1[3])
);
}
</script>
</body>
</html>

若有疑问,欢迎评论区讨论。


完整demo地址:canvas-change-color


作者:TRIS
来源:juejin.cn/post/7209226686372937789
收起阅读 »

自从学会这几个写代码的技巧后,摸鱼时间又长了!!!

web
嘿!👋 今天,我们将介绍 5 个 JavaScript 自定义的实用函数,它们可以在您的大多数项目中派上用场。 目录 01.console.log() 02.querySelector() 03.addEventListener() 04.random() ...
继续阅读 »

嘿!👋


今天,我们将介绍 5 个 JavaScript 自定义的实用函数,它们可以在您的大多数项目中派上用场。


目录



  • 01.console.log()

  • 02.querySelector()

  • 03.addEventListener()

  • 04.random()

  • 05.times()




01.console.log()


在项目的调试阶段,我们都很喜欢用console.log()来打印我们的值、来进行调试。那么,我们可不可以缩短它,以减少我们的拼写方式,并且节省一些时间呢?


//把`log`从`console.log`中解构出来
const { log } = console;

//log等同于console.log

log("Hello world!");
// 输出: Hello world!

// 等同于 //

console.log("Hello world!");
// 输出: Hello world!

说明:


我们使用解构赋值logconsole.log中解构出来




02.querySelector()


在使用 JavaScript 时,当我们对DOM进行操作时经常会使用querySelector()来获取DOM元素,原生的获取DOM的操作过程写起来又长阅读性又差,那我们能不能让他使用起来更加简单,代码看起来更加简洁呢?


//把获取DOM元素的操作封装成一个函数
const select = (selector, scope = document) => {
return scope.querySelector(selector);
};

//使用
const title = select("h1");
const className = select(".class");
const message = select("#message", formElem);

// 等同于 //

const title = document.querySelector("h1");
const className = document.querySelector(".class");
const message = formElem.querySelector("#message");

说明:


我们在select()函数需要接收 2 个参数:



  • 第一个:您要选择的DOM元素

  • 第二:您访问该元素的范围(默认 = document);




03.addEventListener()


对click、mousemove等事件的处理大多是通过addEventListener()方法实现的。原生实现的方法写起来又长阅读性又差,那我们能不能让他使用起来更加简单,代码看起来更加简洁呢?


const listen = (target, event, callback, ...options) => {
return target.addEventListener(event, callback, ...options);
};

//监听buttonElem元素点击事件,点击按钮打印Clicked!
listen(buttonElem, "click", () => console.log("Clicked!"));

//监听document的鼠标移上事件,当鼠标移动到document上时打印Mouse over!
listen(document, "mouseover", () => console.log("Mouse over!"));

//监听formElem上的submit事件,当提交时打印Form submitted!
listen(formElem, "submit", () => {
console.log("Form submitted!");
}, { once: true }
);

说明:


我们在listen()函数需要接收 4 个参数:



  • 第一个:你要定位的元素(例如“窗口”、“文档”或特定的 DOM 元素)

  • 第二:事件类型(例如“点击”、“提交”、“DOMContentLoaded”等)

  • 第三:回调函数

  • 第 4 个:剩余的可选选项(例如“捕获”、“一次”等)。此外,如有必要,我们使用传播语法来允许其他选项。否则,它可以像在addEventListener方法中一样被省略。




04. random()


你可能知道Math.random()是可以随机生成从 0 到 1 的函数。例如Math.random() * 10,它可以生成从 0 到 10 的随机数。但是,问题是尽管我们知道生成数字的范围,我们还是无法控制随机数的具体范围的。那我们要怎么样才能控制我们生成随机数的具体范围呢?


const random = (min, max) => {
return Math.floor(Math.random() * (max - min + 1)) + min;
};

random(5, 10);
// 5/6/7/8/9/10

这个例子返回了一个在指定值之间的随机数。这个值大于于 min(有可能等于),并且小于(有可能等于)max




05. times()


有时,我们经常会有运行某个特定功能或者函数的需求。应对这种需求,我们可以使用setInterval()每间隔一段时间运行一次:


setInterval(() => {
randomFunction();
}, 5000); // runs every 5 seconds

但是问题是setInterval()是无限循环的,当我们有限定运行次数要求时,我们无法指定它要运行它的次数。所以,让我们来解决它!


const times = (func, n) => {
Array.from(Array(n)).forEach(() => {
func();
});
};

times(() => {
randomFunction();
}, 3); // runs 3 times

解释:



  • Array(n)- 创建一个长度为n的数组.


Array(5); // => [,,]


  • Array.from()- 从创建一个浅拷贝的Array(n)数组。它可以帮助对数组进行操作,并用“undefined”填充数组里面的值。您也可以使用Array.prototype.fill()方法获得相同的结果。


Array.from(Array(3)); // => [undefined,undefined,undefined]


注意: 在封装这个函数时,我发现到有些程序员更喜欢先传参数n,再传函数times(n, func)。但是,我觉得有点奇怪,所以我决定交换它们的位置,从而使语法更类似于函数setInterval()



setInterval(func, delay);

times(func, n);

此外,您还可以可以使用setTimes()来代替times()。来代替setInterval()``setTimeout()的功能




写在最后


伙伴们,如果你觉得我写的文章对你有帮助就给zayyo点一个赞👍或者关注➕都是对我最大的支持。当然你也可以加我微信:IsZhangjianhao,邀你进我的前端学习交流群,一起学习前端,成为更优秀的工程

作者:zayyo
来源:juejin.cn/post/7209861267715817509
师~


收起阅读 »

vue为什么v-for的优先级比v-if的高?

web
前言 有时候有些面试中经常会问到v-for与v-if谁的优先级高,这里就通过分析源码去解答一下这个问题。 下面的内容是在 当我们谈及v-model,我们在讨论什么?的基础上分析的,所以阅读下面内容之前可先看这篇文章。 继续从编译出发 以下面的例子出发分析: n...
继续阅读 »

前言


有时候有些面试中经常会问到v-forv-if谁的优先级高,这里就通过分析源码去解答一下这个问题。


下面的内容是在 当我们谈及v-model,我们在讨论什么?的基础上分析的,所以阅读下面内容之前可先看这篇文章。


继续从编译出发


以下面的例子出发分析:


new Vue({
el:'#app',
template:`
<ul>
<li v-for="(item,index) in items" v-if="index!==0">
{{item}}
</li>
</ul>
`

})

从上篇文章可以知道,编译有三个步骤



  • parse : 解析模板字符串生成 AST语法树

  • optimize : 优化语法树,主要时标记静态节点,提高更新页面的性能

  • codegen : 生成js代码,主要是render函数和staticRenderFns函数


我们再次顺着这三个步骤对上述例子进行分析。


parse


parse过程中,会对模板使用大量的正则表达式去进行解析。开头的例子会被解析成以下AST节点:


// 其实ast有很多属性,我这里只展示涉及到分析的属性
ast = {
'type': 1,
'tag': 'ul',
'attrsList': [],
attrsMap: {},
'children': [{
'type': 1,
'tag': 'li',
'attrsList': [],
'attrsMap': {
'v-for': '(item,index) in data',
'v-if': 'index!==0'
},
// v-if解析出来的属性
'if': 'index!==0',
'ifConditions': [{
'exp': 'index!==0',
'block': // 指向el自身
}],
// v-for解析出来的属性
'for': 'items',
'alias': 'item',
'iterator1': 'index',

'parent': // 指向其父节点
'children': [
'type': 2,
'expression': '_s(item)'
'text': '{{item}}',
'tokens': [
{'@binding':'item'},
]
]
}]
}

对于v-for指令,除了记录在attrsMapattrsList,还会新增for(对应要遍历的对象或数组),aliasiterator1,iterator2对应v-for指令绑定内容中的第一,第二,第三个参数,开头的例子没有第三个参数,因此没有iterator2属性。


对于v-if指令,把v-if指令中绑定的内容取出放在if中,与此同时初始化ifConditions属性为数组,然后往里面存放对象:{exp,block},其中exp存放v-if指令中绑定的内容,block指向el


optimize 过程在此不做分析,因为本例子没有静态节点。


codegen


上一篇文章从const code = generate(ast, options)开始分析过其生成代码的过程,generate内部会调用genElement用来解析el,也就是AST语法树。我们来看一下genElement的源码:


export function genElement (el: ASTElement, state: CodegenState): string {
if (el.parent) {
el.pre = el.pre || el.parent.pre
}

if (el.staticRoot && !el.staticProcessed) {
return genStatic(el, state)
} else if (el.once && !el.onceProcessed) {
return genOnce(el, state)
// 其实从此处可以初步知道为什么v-for优先级比v-if高,
// 因为解析ast树生成渲染函数代码时,会先解析ast树中涉及到v-for的属性
// 然后再解析ast树中涉及到v-if的属性
// 而且genFor在会把el.forProcessed置为true,防止重复解析v-for相关属性
} else if (el.for && !el.forProcessed) {
return genFor(el, state)
} else if (el.if && !el.ifProcessed) {
return genIf(el, state)

} else if (el.tag === 'template' && !el.slotTarget && !state.pre) {
return genChildren(el, state) || 'void 0'
} else if (el.tag === 'slot') {
return genSlot(el, state)
} else {
// component or element
let code
if (el.component) {
code = genComponent(el.component, el, state)
} else {
let data
if (!el.plain || (el.pre && state.maybeComponent(el))) {
data = genData(el, state)
}

const children = el.inlineTemplate ? null : genChildren(el, state, true)
code = `_c('${el.tag}'${ data ? `,${data}` : '' // data }${ children ? `,${children}` : '' // children })`
}
// module transforms
for (let i = 0; i < state.transforms.length; i++) {
code = state.transforms[i](el, code)
}
return code
}
}

接下来依次看看genForgenIf的函数源码:


export function genFor (el, state , altGen, altHelper) {
const exp = el.for
const alias = el.alias
const iterator1 = el.iterator1 ? `,${el.iterator1}` : ''
const iterator2 = el.iterator2 ? `,${el.iterator2}` : ''

el.forProcessed = true // avoid recursion
return `${altHelper || '_l'}((${exp}),` +
`function(${alias}${iterator1}${iterator2}){` +
`return ${(altGen || genElement)(el, state)}` + //递归调用genElement
'})'
}

在我们的例子里,当他处理liast树时,会先调用genElement,处理到for属性时,此时forProcessed为虚值,此时调用genFor处理li树中的v-for相关的属性。然后再调用genElement处理li树,此时因为forProcessedgenFor中已被标记为true。因此genFor不会被执行,继而执行genIf处理与v-if相关的属性。


export function genIf (el,state,altGen,altEmpty) {
el.ifProcessed = true // avoid recursion
// 调用genIfConditions主要处理el.ifConditions属性
return genIfConditions(el.ifConditions.slice(), state, altGen, altEmpty)
}

function genIfConditions (conditions, state, altGen, altEmpty) {
if (!conditions.length) {
return altEmpty || '_e()' // _e用于生成空VNode
}

const condition = conditions.shift()
if (condition.exp) { //condition.exp即v-if绑定值,例子中则为'index!==0'
// 生成一段带三目运算符的js代码字符串
return `(${condition.exp})?${ genTernaryExp(condition.block) }:${ genIfConditions(conditions, state, altGen, altEmpty) }`
} else {
return `${genTernaryExp(condition.block)}`
}

// v-if with v-once should generate code like (a)?_m(0):_m(1)
function genTernaryExp (el) {
return altGen
? altGen(el, state)
: el.once
? genOnce(el, state)
: genElement(el, state)
}
}

参考 前端进阶面试题详细解答


最后,经过codegen生成的js代码如下:


function render() {
with(this) {
return _c('ul', _l((items), function (item, index) {
return (index !== 0) ? _c('li') : _e()
}), 0)
}
}

其中:



  1. _c: 调用 createElement 去创建 VNode

  2. _l: renderList函数,主要用来渲染列表

  3. _e: createEmptyVNode函数,主要用来创建空VNode


总结


为什么v-for的优先级比v-if的高?总结来说是编译有三个过程,parse->optimize->codegen。在codegen过程中,会先解析AST树中的与v-for相关的属性,再解析与v-if相关的属性。除此之外,也可以知道Vuev-forv-if

作者:bb_xiaxia1998
来源:juejin.cn/post/7209950095402582072
de>是怎么处理的。

收起阅读 »

你代码的异味是故意的还是不小心?是故意的!

一、代码竟会有“气味” 食物在腐烂之际,会散发出异味,提醒人食物已经坏掉了,需要处理。同样,如果代码中某处出现了问题,也会有一些症状。这些症状,被称之为“代码异味”(Code smell,也译作“代码味道”)。与食物腐败发出的味道不同的是,代码异味并非真正的气...
继续阅读 »

一、代码竟会有“气味”


食物在腐烂之际,会散发出异味,提醒人食物已经坏掉了,需要处理。同样,如果代码中某处出现了问题,也会有一些症状。这些症状,被称之为“代码异味”(Code smell,也译作“代码味道”)。与食物腐败发出的味道不同的是,代码异味并非真正的气味,而是一种“暗示”,暗示我们代码可能有问题,提示程序员需要对项目设计进行更进一步的查看。


代码异味一词最初是由Kent Beck在帮助Martin Fowler在编写《重构:改善既有代码的设计》一书时创造的。Martin Fowler对代码异味的定义是:代码异味是一种表象,它通常对应于系统中更深层次的问题。


代码异味的产生原因跟厨师的“清洗过程中故意保留”不一样,它更多地并非刻意为之,创造者也未必“品尝”过自己所写的代码,它更多地是由于设计缺陷或不良编码习惯而导致的不良代码症状。


这种异味也并非来自一种有据可查的标准,更多的是来自程序员的直觉。尤其是经验丰富和知识渊博的程序员,他们无需思考,只要通过查看代码或一段设计就可以立马对这个代码质量产生这种“感觉”,能对代码设计的优劣有一个大致的判断。这有点类似我们英语学到一定程度后,即便不能完全看懂文章,但凭借语感也能选出正确答案。


二、 代码异味的影响


对于代码异味的出现我们其实无需过度紧张,因为在整个程序中代码异味是无处不在的。


一般情况下,有“异味”的代码也依旧能运行得很好。只是倘若重视不够,没有适当地维护或改进代码,代码质量就会下降,系统也会开始变得难以维护和扩展,同时也会增加技术债务。这就像做出有异味的九转大肠的的小胖厨师,在前期准备中对评委的建议置若罔闻,一意孤行,做出来的菜连自己都难以下咽。


所以团队应尽可能地做有质量的代码,减少甚至避免这些问题,产生高效益的成果。


三、 如何辨别代码异味



代码是否存在代码异味,通常是靠程序员的主观判断,但由于语言、开发者、开发理论的不同,对代码异味的判断也会存在差异。


所以要想更精准地识别代码异味,获得更高的代码质量,程序员需要大量的实践和经验。不过,前辈们总结的经验也可以让我们少走一些弯路。Martin Fowler在《重构:改善既有代码的设计》一书中,列举了最常见的24种代码异味,可以帮助我们轻松识别,便于处理和改善它们:


1) 过大的类(Large Class)


一个类包含许多字段、方法或者代码行,并逐渐变得臃肿。


2) 数据泥团(Data Clumps)


代码的不同部分包含了相同的变量组,且这些数据总是绑在一起出现。


3) 过长参数列表(Long Parameter List)


指一个方法的参数超过了三个或四个。出现这种情况一般是将几种类型的算法合并到一个方法之后。


4) 基本类型偏执(Primitive Obsession)


创建一个原始字段比创建一个全新的类要容易得多,所以对于具有意义的业务概念如钱、坐标、范围等,很多程序员不愿意进行建模,而是使用基本数据类型进行表示,进而导致代码内聚性差、可读性差。


5) 神秘命名(Mysterious Name)


在编程中,命名是一件非常恼人的事情。一些可能只有自己看懂的命名,无疑加大了代码可读性的难度,有时甚至自己也会忘记这些命名的含义。


6) 重复代码(Duplicated Code)


这几乎是最常见的异味。当多个程序员同时处理同一程序的不同部分时,通常会发生这种情况。


7) 过长的函数(Long Function)


根据Martin Fowler的经验,通常活得最长、最好的程序,其中的函数都比较短。函数越长,就越难理解。


8) 全局数据(Global Data)


这是一个非常可怕且刺鼻的异味代码。因为从代码库的任何一个角落都可以修改它,而且没有任何机制可以探测出到底是哪段代码做出了修改。全局数据造成一次又一次的诡异Bug,让我们很难找出出错的代码。


9) 可变数据(Mutable Data)


如果可变数据的变量的作用域越大, 越容易出现问题。变量是可以更改的,但我们可能不知道是哪里改变了它。


10) 发散式变化(Divergent Change)


是指一个类受到多种变化的影响。


11) 霰弹式修改(Shotgun Surgery)


是指一种变化引发多个类相应修改。


12) 依恋情结(Feature Envy)


一个类使用另一个类的内部字段和方法的数据多于它自己的数据。


13) 重复的switch(Repeated Switch)


在不同的地方反复使用switch逻辑。这带来的问题就是当我们想要增加一个选择分支时,就必须找到所有的switch,并逐一更新。


14) 循环语句(Loops)


在编程语言中,循环一直是程序设计的核心要素。在《重构》中,Martin Fowler认为它是一种代码异味,因为他们觉得如今的循环已经有点过时了。他们提出“以管道取代循环”,这样可以帮助我们更快看清被处理的元素以及处理它们的动作。


15) 冗赘的元素(Lazy Element)


这是几乎无用的组件。我们在设计代码时有时为了未来的功能设计出“预备”代码,但实际上从未实现;又或者这个类本来有用但随着重构,越来越小,最后只剩下一个函数。无论哪种,它们都是冗赘无用的。


16) 推测的通用性(Speculative Generality)


是指为了“以防万一”,支持预期的未来功能,但这些功能并未被实现,这些类、方法、字段或参数也从未被使用,结果导致代码变得难以理解和支持。


17) 临时字段(Temporary Field)


创建临时字段以用于需要大量输入的算法。但这些字段仅在算法中使用,其余时间不使用。


18) 过长的消息链(Message Chains)


当客户端请求另一个对象,该对象又请求另一个对象,依此类推时,就会出现过长的消息链。这些链意味着客户端依赖于类结构的导航。一旦发生更改,客户端也要跟着修改。


19) 中间人(Middle Man)


指一个类只执行一个动作,但将工作委托给另一个类,这种委托属于过度委托。该类也可能只是一个空壳,只负责委托且只有一件事。


20) 内幕交易(Insider Trading)


指模块之间大量地交换数据,增加模块之间的耦合。


21) 异曲同工的类(Alternative Classes with Different Interface)


是指两个类执行了相同的功能但具有不同的方法名称。


22) 纯数据类(Data Class)


指包含字段和访问它们的粗略方法(getter 和 setter)的类。这些只是其他类使用的数据容器。这些类不包含任何附加功能,并且不能独立操作它们拥有的数据。


23) 被拒绝的遗赠(Refused Bequest)


指如果子类复用了超类的行为,但又不愿意支持超类的接口的情况。


24) 注释(Comments)


程序员将其作为一种“除臭剂”使用情况下的行为。比如:一段代码有着长长的注释,但这段长注释的存在是因为代码很糟糕。


四、 如何对代码“除臭”



1)重构


上述代码异味没有优先级一说,所以对于程序员而言,只能依靠直觉和经验去决定是否需要重构。


重构,一言以蔽之,就是在不改变外部行为的前提下,有条不紊地改善代码。是实现敏捷性的最重要的技术因素之一。是程序员根据已识别出的气味然后将代码分成更小的部分的过程,再决定要么删除它们,要么用更好的代码替换它们,如此循环重复这个过程,直到异味消失,这样可能会提高代码质量并让代码变得更具简单性、灵活性和可理解性。


2)使用代码检测工具



识别和消除代码异味是一个令人厌烦且不确定的过程,而且也不可能手动查找到和删除掉所有异味,尤其是面对一个有着上千行异味的代码的时候。所以使用一些代码检测工具可以辅助我们进行快速大量地审查,帮助我们节约时间来做更为重要的工作,比如能专注于代码高层面的设计原则问题。


好了,关于代码异味的知识,算是讲了个清楚,那么让我们相约下一次代码评审吧!



作者:禅道程序猿
链接:https://juejin.cn/post/7207617774633123896
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

码农如何提高自己的品味

前言 软件研发工程师俗称程序员经常对业界外的人自谦作码农,一来给自己不菲的收入找个不错的说辞(像农民伯伯那样辛勤耕耘挣来的血汗钱),二来也是自嘲这个行业确实辛苦,辛苦得没时间捯饬,甚至没有驼背、脱发加持都说不过去。不过时间久了,行外人还真就相信了程序员就是一帮...
继续阅读 »

前言


软件研发工程师俗称程序员经常对业界外的人自谦作码农,一来给自己不菲的收入找个不错的说辞(像农民伯伯那样辛勤耕耘挣来的血汗钱),二来也是自嘲这个行业确实辛苦,辛苦得没时间捯饬,甚至没有驼背、脱发加持都说不过去。不过时间久了,行外人还真就相信了程序员就是一帮没品味,木讷的low货,大部分的文艺作品中也都是这么表现程序员的。可是我今天要说一下我的感受,编程是个艺术活,程序员是最聪明的一群人,我们的品味也可以像艺术家一样。


言归正转,你是不是以为我今天要教你穿搭?不不不,这依然是一篇技术文章,想学穿搭女士学陈舒婷(《狂飙》中的大嫂),男士找陈舒婷那样的女朋友就好了。笔者今天教你怎样有“品味”的写代码。



以下几点可提升“品味”


说明:以下是笔者的经验之谈具有部分主观性,不赞同的欢迎拍砖,要想体系化提升编码功底建议读《XX公司Java编码规范》、《Effective Java》、《代码整洁之道》。以下几点部分具有通用性,部分仅限于java语言,其它语言的同学绕过即可。


优雅防重


关于成体系的防重讲解,笔者之后打算写一篇文章介绍,今天只讲一种优雅的方式:


如果你的业务场景满足以下两个条件:


1 业务接口重复调用的概率不是很高


2 入参有明确业务主键如:订单ID,商品ID,文章ID,运单ID等


在这种场景下,非常适合乐观防重,思路就是代码处理不主动做防重,只在监测到重复提交后做相应处理。


如何监测到重复提交呢?MySQL唯一索引 + org.springframework.dao.DuplicateKeyException


代码如下:


public int createContent(ContentOverviewEntity contentEntity) {
try{
return contentOverviewRepository.createContent(contentEntity);
}catch (DuplicateKeyException dke){
log.warn("repeat content:{}",contentEntity.toString());
}
return 0;
}

用好lambda表达式


lambda表达式已经是一个老生常谈的话题了,笔者认为,初级程序员向中级进阶的必经之路就是攻克lambda表达式,lambda表达式和面向对象编程是两个编程理念,《架构整洁之道》里曾提到有三种编程范式,结构化编程(面向过程编程)、面向对象编程、函数式编程。初次接触lambda表达式肯定特别不适应,但如果熟悉以后你将打开一个编程方式的新思路。本文不讲lambda,只讲如下例子:


比如你想把一个二维表数据进行分组,可采用以下一行代码实现


List<ActionAggregation> actAggs = ....
Map<String, List<ActionAggregation>> collect =
actAggs.stream()
.collect(Collectors.groupingBy(ActionAggregation :: containWoNosStr,LinkedHashMap::new,Collectors.toList()));

用好卫语句


各个大场的JAVA编程规范里基本都有这条建议,但我见过的代码里,把它用好的不多,卫语句对提升代码的可维护性有着很大的作用,想像一下,在一个10层if 缩进的接口里找代码逻辑是一件多么痛苦的事情,有人说,哪有10层的缩进啊,别说,笔者还真的在一个微服务里的一个核心接口看到了这种代码,该接口被过多的人接手导致了这样的局面。系统接手人过多以后,代码腐化的速度超出你的想像。


下面举例说明:


没有用卫语句的代码,很多层缩进


if (title.equals(newTitle)){
if (...) {
if (...) {
if (...) {

}
}else{

}
}else{

}
}

使用了卫语句的代码,缩进很少


if (!title.equals(newTitle)) {
return xxx;
}
if (...) {
return xxx;
}else{
return yyy;
}
if (...) {
return zzz;
}

避免双重循环


简单说双重循环会将代码逻辑的时间复杂度扩大至O(n^2)


如果有按key匹配两个列表的场景建议使用以下方式:


1 将列表1 进行map化


2 循环列表2,从map中获取值


代码示例如下:


List<WorkOrderChain> allPre = ...
List<WorkOrderChain> chains = ...
Map<String, WorkOrderChain> preMap = allPre.stream().collect(Collectors.toMap(WorkOrderChain::getWoNext, item -> item,(v1, v2)->v1));
chains.forEach(item->{
WorkOrderChain preWo = preMap.get(item.getWoNo());
if (preWo!=null){
item.setIsHead(1);
}else{
item.setIsHead(0);
}
});

@see @link来设计RPC的API


程序员们还经常自嘲的几个词有:API工程师,中间件装配工等,既然咱平时写API写的比较多,那种就把它写到极致**@see @link**的作用是让使用方可以方便的链接到枚举类型的对象上,方便阅读


示例如下:


@Data
@Builder
@NoArgsConstructor
@AllArgsConstructor
public class ContentProcessDto implements Serializable {
/**
* 内容ID
*/
private String contentId;
/**
* @see com.jd.jr.community.common.enums.ContentTypeEnum
*/
private Integer contentType;
/**
* @see com.jd.jr.community.common.enums.ContentQualityGradeEnum
*/
private Integer qualityGrade;
}

日志打印避免只打整个参数


研发经常为了省事,直接将入参这样打印


log.info("operateRelationParam:{}", JSONObject.toJSONString(request));

该日志进了日志系统后,研发在搜索日志的时候,很难根据业务主键排查问题


如果改进成以下方式,便可方便的进行日志搜索


log.info("operateRelationParam,id:{},req:{}", request.getId(),JSONObject.toJSONString(request));

如上:只需要全词匹配“operateRelationParam,id:111”,即可找到业务主键111的业务日志。


用异常捕获替代方法参数传递


我们经常面对的一种情况是:从子方法中获取返回的值来标识程序接下来的走向,这种方式笔者认为不够优雅。


举例:以下代码paramCheck和deleteContent方法,返回了这两个方法的执行结果,调用方通过返回结果判断程序走向


public RpcResult<String> deleteContent(ContentOptDto contentOptDto) {
log.info("deleteContentParam:{}", contentOptDto.toString());
try{
RpcResult<?> paramCheckRet = this.paramCheck(contentOptDto);
if (paramCheckRet.isSgmFail()){
return RpcResult.getSgmFail("非法参数:"+paramCheckRet.getMsg());
}
ContentOverviewEntity contentEntity = DozerMapperUtil.map(contentOptDto,ContentOverviewEntity.class);
RpcResult<?> delRet = contentEventHandleAbility.deleteContent(contentEntity);
if (delRet.isSgmFail()){
return RpcResult.getSgmFail("业务处理异常:"+delRet.getMsg());
}
}catch (Exception e){
log.error("deleteContent exception:",e);
return RpcResult.getSgmFail("内部处理错误");
}
return RpcResult.getSgmSuccess();
}



我们可以通过自定义异常的方式解决:子方法抛出不同的异常,调用方catch不同异常以便进行不同逻辑的处理,这样调用方特别清爽,不必做返回结果判断


代码示例如下:


public RpcResult<String> deleteContent(ContentOptDto contentOptDto) {
log.info("deleteContentParam:{}", contentOptDto.toString());
try{
this.paramCheck(contentOptDto);
ContentOverviewEntity contentEntity = DozerMapperUtil.map(contentOptDto,ContentOverviewEntity.class);
contentEventHandleAbility.deleteContent(contentEntity);
}catch(IllegalStateException pe){
log.error("deleteContentParam error:"+pe.getMessage(),pe);
return RpcResult.getSgmFail("非法参数:"+pe.getMessage());
}catch(BusinessException be){
log.error("deleteContentBusiness error:"+be.getMessage(),be);
return RpcResult.getSgmFail("业务处理异常:"+be.getMessage());
}catch (Exception e){
log.error("deleteContent exception:",e);
return RpcResult.getSgmFail("内部处理错误");
}
return RpcResult.getSgmSuccess();
}

自定义SpringBoot的Banner


别再让你的Spring Boot启动banner千篇一律,spring 支持自定义banner,该技能对业务功能实现没任何卵用,但会给枯燥的编程生活添加一点乐趣。


以下是官方文档的说明: docs.spring.io/spring-boot…


另外你还需要ASCII艺术字生成工具: tools.kalvinbg.cn/txt/ascii


效果如下:


   _ _                   _                     _                 _       
(_|_)_ __ __ _ __| | ___ _ __ __ _ | |__ ___ ___ | |_ ___
| | | '_ \ / _` | / _` |/ _ \| '_ \ / _` | | '_ \ / _ \ / _ \| __/ __|
| | | | | | (_| | | (_| | (_) | | | | (_| | | |_) | (_) | (_) | |_\__ \
_/ |_|_| |_|\__, | \__,_|\___/|_| |_|\__, | |_.__/ \___/ \___/ \__|___/
|__/ |___/ |___/

多用Java语法糖


编程语言中java的语法是相对繁琐的,用过golang的或scala的人感觉特别明显。java提供了10多种语法糖,写代码常使用语法糖,给人一种 “这哥们java用得通透” 的感觉。


举例:try-with-resource语法,当一个外部资源的句柄对象实现了AutoCloseable接口,JDK7中便可以利用try-with-resource语法更优雅的关闭资源,消除板式代码。


try (FileInputStream inputStream = new FileInputStream(new File("test"))) {
System.out.println(inputStream.read());
} catch (IOException e) {
throw new RuntimeException(e.getMessage(), e);
}

利用链式编程


链式编程,也叫级联式编程,调用对象的函数时返回一个this对象指向对象本身,达到链式效果,可以级联调用。链式编程的优点是:编程性强、可读性强、代码简洁。


举例:假如觉得官方提供的容器不够方便,可以自定义,代码如下,但更建议使用开源的经过验证的类库如guava包中的工具类


/**
链式map
*/
public class ChainMap<K,V> {
private Map<K,V> innerMap = new HashMap<>();
public V get(K key) {
return innerMap.get(key);
}

public ChainMap<K,V> chainPut(K key, V value) {
innerMap.put(key, value);
return this;
}

public static void main(String[] args) {
ChainMap<String,Object> chainMap = new ChainMap<>();
chainMap.chainPut("a","1")
.chainPut("b","2")
.chainPut("c","3");
}
}

作者:京东云开发者
链接:https://juejin.cn/post/7197604280705908793
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

ChatGPT组合拳-插件+自定义命令

前言 这几个月来ChatGPT已经融入了我的日常开发中,大大的提高了生产效率,比如写周报,可以提供一些关键字就能生成一段周报。在解决问题方面,除了一些疑难杂症,GPT大部分都很不错的解决,同时在没有思路的时候也能提供一点灵感。但是在使用过程中也会对有的答案的质...
继续阅读 »

前言


这几个月来ChatGPT已经融入了我的日常开发中,大大的提高了生产效率,比如写周报,可以提供一些关键字就能生成一段周报。在解决问题方面,除了一些疑难杂症,GPT大部分都很不错的解决,同时在没有思路的时候也能提供一点灵感。但是在使用过程中也会对有的答案的质量感到不满或者GPT并不能很好的理解我们意图的情况,这种情况就和Prompt有关系了,如何与GPT对话也是一门艺术,好的Prompt可以提高GPT的效率和准确性。


插件


开门见山,先介绍一个网站 prompts.chat


这个网站中提供了各式各样的Prompt参考,我们可以在其中查找需要的,或者自己根据需要改进。但仅仅如此还不够,因为我们每次重新开始对话都需要找Prompt再复制给GPT。


那有没有什么东西能使我们的体验再丝滑一点,这就不得不介绍一款插件了。


_}OD1$)DA$(K35ATYETLC_0.jpg


AIPRM for ChatGPT


这款插件大家在浏览器的插件商店可以直接搜索。安装好GPT界面会变成这样


image.png


上面的区域是其他人分享后社区精选的Prompt模板,下面的区域可以选择返回的语言、语调、文字风格。

image.png


当我们点击某个模板后,下面区域也会随之显示,接下来我们讲一下如何自己编写一个模板。

编写模板


我们点击Own Prompts


image.png


这里显示的就是我们自己编写的模板,简单添加一个。

image.png


选择模板后的样子


image.png


进行对话测试模板是否生效


image.png


接下来我们来看看这款插件的原理,其实就是把我们的输入嵌入到Prompt Template中,所以在编写Prompt Template时必须有[PROMPT],和字符串模板一样。


image.png


如此一来,我们每次打开对话只需要选择我们预先写好的模板就可以了,但仅仅如此还不够,因为我们每一次对话只能使用一个插件,如果我们场景比较多呢?


7$%H4%UN_7(FRGI0JOJ`$X1.gif


自定义命令


自定义命令,看着有点高级感,其实一点就通,与GPT的对话中我们有这么一种操作


image.png


image.png


image.png


再结合AIPRM for ChatGPT,you know?


image.png


作者:Defineee
链接:https://juejin.cn/post/7208847676405661753
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

从 GPU 到 ChatGPT

硬件 “没有硬件支持,你破解个屁” GPU 什么是 GPU? GPU 是 Graphics Processing Unit 的缩写,中文翻译为图形处理器。GPU 最初是为了提高电脑处理图形的速度而设计的,主要负责图像的计算和处理。GPU 通过并行计算的方式...
继续阅读 »

硬件


“没有硬件支持,你破解个屁”



GPU



什么是 GPU?


GPU 是 Graphics Processing Unit 的缩写,中文翻译为图形处理器。GPU 最初是为了提高电脑处理图形的速度而设计的,主要负责图像的计算和处理。GPU 通过并行计算的方式,可以同时执行多个任务,大大提高了图形和数据处理的速度和效率。


近年来,由于其并行计算的特性,GPU 也被应用于一些需要大量计算的领域,如机器学习、深度学习、数据挖掘、科学计算等。在这些领域中,GPU 可以加速训练模型、处理海量数据等计算密集型任务,显著提高了计算效率和速度。因此,GPU 已成为现代计算机的重要组成部分,被广泛应用于各种领域。


GPU 是如何工作的?


GPU 的工作原理和 CPU 类似,都是通过执行指令来完成计算任务的。不同的是,CPU 是通过串行执行指令的方式来完成计算任务的,而 GPU 是通过并行执行指令的方式来完成计算任务的。GPU 的并行计算方式可以同时执行多个任务,大大提高了计算效率和速度。


可以参考这个视频来了解 GPU 的工作原理:http://www.bilibili.com/video/BV1VW…


GPU 和 CPU 的区别


GPU 和 CPU 的区别主要体现在以下几个方面:




  1. 架构设计不同:CPU 的设计注重单线程处理能力,通常有少量的计算核心和更多的高速缓存。GPU 则是面向并行处理的设计,通常拥有大量的计算核心,但缓存较小。




  2. 计算方式不同:CPU 在处理任务时,主要通过执行指令流的方式进行计算。而 GPU 则是通过执行大量的线程,同时进行并行计算,以提高计算效率。GPU 的并行计算能力可以同时处理许多相似的任务,适用于大规模的计算密集型任务,例如图像处理、机器学习等。




  3. 用途不同:CPU 主要用于通用计算任务,例如文件处理、操作系统运行、编程等。GPU 则主要用于图形处理、游戏、计算密集型任务,例如机器学习、深度学习等。




总结来说,GPU 和 CPU 都有各自的优势和适用场景,它们通常是相互协作的。例如,在机器学习中,CPU 通常用于数据的预处理和模型的训练过程,而 GPU 则用于模型的计算推理过程。


我们常说的显卡就是 GPU 吗?


是的,我们通常所说的显卡(Graphics Card)就是安装了 GPU 的设备。显卡除了包含 GPU 之外,还包括显存、散热器、显卡 BIOS 等部件。显卡通过将 CPU 传输的数据转换为图像信号,控制显示器输出图像。


在一些需要大量图像处理或计算的应用场景中,GPU 可以比 CPU 更高效地完成任务。因此,现代的显卡也广泛应用于机器学习、深度学习等领域的加速计算,甚至被用于科学计算、天文学、地质学、气象学等领域。


关于显卡,你可能听说过“集成显卡”、“独立显卡”,其实,显卡的集成和独立通常是指显存的不同管理方式,它们有以下区别:




  1. 集成显卡:集成显卡通常是指将显存集成在主板芯片组或处理器内部的显卡。这种显卡通常性能较差,适用于一些简单的应用场景,例如日常办公、网页浏览等。




  2. 独立显卡:独立显卡通常是指显存独立于主板芯片组或处理器,有自己的显存和显存控制器。这种显卡性能更加强大,适用于游戏、图形处理、科学计算等需要大量显存和计算性能的应用场景。




  3. 共享显存:共享显存通常是指显存与系统内存共享使用,也就是一部分系统内存被划分为显存使用。这种方式适用于一些轻度图形处理的应用场景,例如电影播放、网页浏览等。




总的来说,集成显卡通常性能较差,适用于简单应用场景,独立显卡性能更加强大,适用于需要大量显存和计算性能的应用场景,而共享显存则是一种折中的方案,适用于一些轻度图形处理的应用场景。


GPU 厂商


海外头部 GPU 厂商:



  1. Nvidia:Nvidia 是目前全球最大的 GPU 制造商之一,Nvidia 主要生产针对游戏玩家、数据中心和专业用户等不同领域的 GPU 产品。

  2. AMD:全球知名的 GPU 制造商之一。AMD 主要生产用于个人电脑、工作站和服务器等不同领域的 GPU 产品。

  3. Intel:目前也开始进军 GPU 市场。Intel 主要生产用于个人电脑、工作站和服务器等不同领域的 GPU 产品。


国内 GPU 厂商:


海光信息、寒武纪、龙芯中科、景嘉微等。


芯片“卡脖子” 说的就是 GPU 吗?


是,但不全是。


"芯片卡脖子"是指全球半导体短缺现象,也称为"芯片荒"或"半导体荒",指的是 2020 年以来由新冠疫情和其他因素导致的全球半导体供应不足的局面。这种供应短缺已经影响了多个行业,包括汽车、电子产品、通信设备等。中国作为世界上最大的半导体市场之一,也受到了这种供应短缺的影响。


我国在半导体领域的自主研发和制造水平相对较低,依赖进口芯片来支撑其经济和工业发展。受全球芯片短缺影响,我国的一些关键行业,特别是汽车、电子和通信行业,出现了供应短缺和价格上涨等问题,对其经济造成了一定的影响。为了应对这种情况,政府加强了对半导体行业的支持,鼓励本土企业增加芯片研发和生产能力,以减轻对进口芯片的依赖。


具体与 GPU 相关的:2022 年 8 月 31 日,为符合美国政府要求,Nvidia 和 AMD 的高端 GPU 将在中国暂停销售,包括 Nvidia 的 A100、H100 以及 AMD 的 MI100 和 MI200 芯片


英伟达在 SEC 文件上官方确认此事,称是 8 月 26 日收到美国政府的通知。



SEC 文件是由上市公司、上市公司内部人士、券商提交给美国证券交易委员会(SEC) 的财务报表或者其他正式文件。




nvidia (英伟达)



根据 2021 年第四季度的市场研究报告,英伟达在全球离散显卡市场占有率为 51.2%,位列第一,超过了其竞争对手 AMD 的市场份额。而在全球 GPU 市场(包括离散显卡和集成显卡)中,英伟达的市场占有率为 18.8%,位列第二,仅次于 Intel 的市场份额。


nvidia 的产品矩阵



  1. GeForce 系列:主要面向消费者市场,包括桌面显卡和笔记本电脑显卡等,以高性能游戏和多媒体应用为主要应用场景。

  2. Quadro 系列:主要面向专业工作站市场,包括电影和电视制作、建筑设计、科学计算、医疗影像等领域,具有高性能、高稳定性和优秀的图形渲染能力。

  3. Tesla 系列:主要面向高性能计算市场,包括科学计算、深度学习、人工智能等领域,具有极高的计算性能和数据吞吐量,支持多 GPU 集群计算。

  4. Tegra 系列:主要面向移动和嵌入式市场,包括智能手机、平板电脑、汽车、无人机等领域,具有高性能、低功耗、小尺寸等特点。

  5. Jetson 系列:主要面向人工智能应用市场,包括机器人、自动驾驶、智能视频分析等领域,具有高性能、低功耗、小尺寸等特点。



可能你对上面这些产品系列、型号和名词不太了解,没有什么概念,那这样,咱们先建立个价格概念。我们以当下在人工智能领域广泛应用的 GPU A100 为例,看一下它的价格:



就是因为这个价格,所以 A100 也被称为“英伟达大金砖”.


为什么要单独说英伟达呢?因为算力是 人工智能的“力量源泉”,GPU 是算力的“主要供应商”。而英伟达是全球最大的 GPU 制造商,并且它的 GPU 算力是最强的,比如 A100 GPU 算力是 10.5 petaFLOPS,而 AMD 的 MI100 GPU 算力是 7.5 petaFLOPS。


不明白什么意思?Peta 是计量单位之一,它代表的是 10 的 15 次方。因此,1 petaFLOPS(PFLOPS)表示每秒可以完成 10 的 15 次浮点运算。所以,A100 GPU 算力为 10.5 petaFLOPS,意味着它可以每秒完成 10.5 万亿次浮点运算。


AI


什么是人工智能 (Artificial Intelligence-AI)?


人工智能是指一种计算机技术,它使得计算机系统可以通过学习、推理、自适应和自我修正等方法,模拟人类的智能行为,以实现类似于人类的智能水平的一系列任务。这些任务包括语音识别、自然语言处理、图像识别、机器翻译、自动驾驶、智能推荐和游戏等。
人工智能的核心是机器学习,它是通过使用大量数据和算法训练计算机系统,使其能够识别模式、做出预测和决策。人工智能还涉及到其他领域,如自然语言处理、计算机视觉、机器人技术、知识表示和推理等。
人工智能被广泛应用于各种领域,如医疗、金融、交通、制造业、媒体和游戏等,为这些领域带来了更高的效率和创新。


人工智能细分领域



人工智能领域有很多分支领域,以下列举一些比较常见的:



  1. 机器学习(Machine Learning):研究如何通过算法和模型让计算机从数据中学习和提取规律,以完成特定任务。

  2. 深度学习(Deep Learning):是机器学习的一种,使用多层神经网络来学习特征和模式,以实现对复杂任务的自动化处理。

  3. 自然语言处理(Natural Language Processing, NLP):研究如何让计算机理解、分析、处理人类语言的方法和技术。

  4. 计算机视觉(Computer Vision):研究如何让计算机“看懂”图像和视频,并从中提取有用的信息和特征。

  5. 机器人学(Robotics):研究如何设计、构建和控制机器人,让它们能够完成特定任务。

  6. 强化学习(Reinforcement Learning):是一种机器学习的方法,通过与环境的交互和反馈来学习最优行动策略。

  7. 知识图谱(Knowledge Graph):是一种将知识以图谱的形式进行组织、表示和推理的方法,用于实现智能搜索、推荐等应用。

  8. 语音识别(Speech Recognition):研究如何让计算机识别和理解人类语音,以实现语音输入、语音控制等功能。


当然以上这些分支领域互相也有交叉和相互影响,比如深度学习在计算机视觉、自然语言处理和语音识别等领域都有应用;计算机视觉和自然语言处理也经常结合在一起,比如在图像字幕生成和图像问答等任务中。此外,人工智能还与其他领域如控制工程、优化学、认知科学等存在交叉。


NLP


我们具体地来看一下自然语言处理(NLP)这个分支领域,它是人工智能的一个重要分支,也是人工智能技术在实际应用中最为广泛的应用之一。


NLP(Natural Language Processing,自然语言处理)旨在让计算机能够理解、解析、生成和操作人类语言。


NLP 技术可以用于文本分类、情感分析、机器翻译、问答系统、语音识别、自动摘要、信息抽取等多个方面。实现 NLP 技术通常需要使用一些基础的机器学习算法,例如文本预处理、词嵌入(word embedding)、分词、词性标注、命名实体识别等等。这些算法可以从大量的语料库中学习到语言的结构和规律,并通过统计分析和机器学习模型进行自然语言的处理和应用。


近年来,随着深度学习技术的发展,NLP 领域也出现了一些基于深度学习的新模型,例如 Transformer 模型和 BERT 模型等。这些模型通过使用大规模语料库进行预训练,可以在多个 NLP 任务中取得优秀的表现。同时,也涌现了一些新的应用领域,例如对话系统、智能客服、智能写作、智能问答等。


Transformer 是什么?


上文我们提到人工智能的分支领域之间会有交叉,Transformer 算是深度学习和 NLP 的交叉领域。



Transformer 模型是深度学习中的一种神经网络模型,该模型是由 Google 开源的。


Transformer 模型最初是在 2017 年发表的论文"Attention Is All You Need"中提出的,随后被加入到 TensorFlow 等深度学习框架中,方便了广大开发者使用和扩展。目前,Transformer 模型已经成为自然语言处理领域中最流行的模型之一。



TensorFlow 是一种用于实现神经网络模型的开源深度学习框架。因此,可以使用 TensorFlow 实现 Transformer 模型。实际上,TensorFlow 团队已经提供了一个名为“Tensor2Tensor”的库,其中包含了 Transformer 模型的实现。此外,许多研究人员和工程师也使用 TensorFlow 实现自己的 Transformer 模型,并将其用于各种 NLP 任务中。




Transformer 特别擅长处理序列数据,其中包括了 NLP 领域的自然语言文本数据。在 NLP 领域中,Transformer 模型被广泛应用于各种任务,例如机器翻译、文本摘要、文本分类、问答系统、语言模型等等。相比于传统的基于循环神经网络(RNN)的模型,Transformer 模型通过使用注意力机制(self-attention)和多头注意力机制(multi-head attention)来建模序列中的长程依赖性和关系,有效地缓解了 RNN 模型中梯度消失和梯度爆炸的问题,从而在 NLP 任务上取得了很好的表现。因此,可以说 Transformer 是 NLP 领域中的一种重要的深度学习模型,也是现代 NLP 技术的重要组成部分。


Transformer 模型的实现


Transformer 模型只是一个抽象的概念和算法框架,具体的实现还需要考虑许多细节和技巧。在实际应用中,需要根据具体的任务和数据集进行模型的设计、参数调整和训练等过程。此外,还需要使用特定的软件框架(如 TensorFlow、PyTorch 等)进行实现和优化,以提高模型的效率和准确性。


实现 Transformer 模型可以使用深度学习框架,如 TensorFlow、PyTorch 等。一般来说,实现 Transformer 模型的步骤如下:



  1. 数据准备:准备训练和测试数据,包括语料数据和标签数据等。
    模型架构设计:确定模型的结构,包括 Transformer 的编码器和解码器部分,以及注意力机制等。

  2. 模型训练:使用训练数据对模型进行训练,并对模型进行调优,以达到较好的预测效果。

  3. 模型评估:使用测试数据对模型进行评估,包括损失函数的计算、精度、召回率、F1 值等。

  4. 模型部署:将训练好的模型部署到生产环境中,进行实际的应用。


业界流行的实现方式是使用深度学习框架,如 TensorFlow 或 PyTorch,在现有的 Transformer 模型代码基础上进行二次开发,以满足自己的需求。同时,也有一些第三方的 Transformer 库,如 Hugging Face 的 Transformers 库,可供直接使用,方便快捷。


还有没有其他模型 ?


类似于 Transformer 的模型有许多,其中一些主要的模型包括:



  1. BERT(Bidirectional Encoder Representations from Transformers):BERT 是由 Google 在 2018 年推出的预训练语言模型,采用了 Transformer 模型的编码器部分,并使用双向的 Transformer 模型来对输入的文本进行建模。

  2. GPT(Generative Pre-trained Transformer):GPT 是由 OpenAI 在 2018 年推出的预训练语言模型,采用了 Transformer 模型的解码器部分,主要用于生成文本。

  3. XLNet:XLNet 是由 CMU、Google 和 Carnegie Mellon University 的研究人员在 2019 年提出的一种预训练语言模型,它使用了自回归 Transformer 模型和自回归 Transformer 模型的结合,具有更好的生成性能和语言理解能力。

  4. T5(Text-to-Text Transfer Transformer):T5 是由 Google 在 2019 年推出的一种基于 Transformer 的通用文本转换模型,可以处理各种 NLP 任务,如文本分类、问答、文本摘要等。

  5. RoBERTa(Robustly Optimized BERT Pretraining Approach):RoBERTa 是 Facebook 在 2019 年推出的预训练语言模型,它通过对 BERT 训练过程进行优化,提高了在多种 NLP 任务上的性能表现。


这些模型都基于 Transformer 架构,并通过不同的优化和改进来提高性能和应用范围。下面一张图是模型的家族树:



GPT 模型


2018 年 OpenAI 公司基于 Transformer 结构推出 GPT-1 (Generative Pre-training Transformers, 创造型预训练变换模型),参数量为 1.17 亿个,GPT-1 超越 Transformer 成为业内第一。2019 年至 2020 年,OpenAI 陆续发布 GPT-2、GPT-3,其参数量分别达 到 15 亿、1750 亿,其中,GPT-3 训练过程中直接以人类自然语言作为指令,显著提升了 LLM 在多种语言场景中的性能。


ChatGPT



ChatGPT 是美国 OpenAI 公司研发的对话 AI 模型,是由人工智能技术支持的自然语言处理(NLP,Natural Language Processing)工具,于 2022 年 11 月 30 日正式发布。它能够学习、理解人类语言,并结合对话上下文,与人类聊天互动,也可撰写稿件、翻译文字、编程、编写视频脚本等。截至 2023 年 1 月底,ChatGPT 月活用户已高达 1 亿,成为史上活跃用户规模增长最快的应用


与现存的其他同类产品相比,ChatGPT 的独特优势在于:



  1. 基于 GPT-3.5 架构,运用海量语料库训练模型,包括真实生活中的对话,使 ChatGPT 能做到接近与人类聊天

  2. 应用新技术 RLHF (Reinforcement Learning with Human Feedback,基于人类反馈的强化学习),从而能更准确地理解并遵循人类的思维、价值观与需求

  3. 可在同一阶段内完成模型训练

  4. 具有强大算力、自我学习能力和适应性,且预训练通用性较高

  5. 可进行连续多轮对话,提升用户体验

  6. 更具独立批判性思维,能质疑用户问题的合理性,也能承认自身知识的局限性,听取用户意见并改进答案。


GPT-3.5


ChatGPT 使用的 GPT-3.5 模型是在 GPT-3 的基础上加入 Reinforcement Learning from Human Feedback(RLHF,人类反馈强化学习)技术和近段策略优化算法,其目的是从真实性、无害性和有用性三个方面优化输出结果,降低预训练模型生成种族歧视、性别歧视等有害内容的风险。


ChatGPT 训练的过程主要有三个阶段。




  1. 第一步是训练监督策略,人类标注员对随机抽取的提示提供预期结果,用监督学习的形式微调 GPT-3.5,生成 Supervised Fine-Tuning(SFT)模型,使 GPT-3.5 初步理解指令,这一步与先前的 GPT-3 模型训练方式相同,类似于老师为学生提供标答的过程。

  2. 第二步是奖励模型,在 SFT 模型中随机抽取提示并生成数个结果,由人类标注员对结果的匹配程度进行排序,再将问题与结果配对成数据对输入奖励模型进行打分训练,这个步骤类似于学生模拟标答写出自己的答案,老师再对每个答案进行评分。

  3. 第三步是 Proximal Policy Optimization(PPO,近段策略优化),也是 ChatGPT 最突出的升级。模型通过第二步的打分机制,对 SFT 模型内数据进行训练,自动优化迭代,提高 ChatGPT 输出结果的质量,即是学生根据老师反馈的评分,对自己的作答进行修改,使答案更接近高分标准。


ChatGPT 的优势在于:



  1. 使用 1750 万亿参数的 GPT-3 为底层模型进行预训练,为全球最大的语言模型之一

  2. 算力上得到微软支持,使用上万片 NVIDIA A100 GPU 进行训练,模型的运行速度得到保障(从这里就看出硬件的重要性了,A100 “卡脖子”确实很难受,不过之前各厂都囤货了,短期应该能满足现状,而且作为 A00 的平替 A800 即将出货,训练效率快速提升,应该也能满足需求。)

  3. 算法上使用奖励模型和近端优化策略进行迭代优化, 将输出结果与人类预期答案对齐,减少有害性、歧视性答案,使 ChatGPT 更拟人化,让用户感觉沟通的过程更流畅。


GPT-4



据德国媒体 Heise 消息,当地时间 3 月 9 日一场人工智能相关活动上,四名微软德国员工在现场介绍了包括 GPT 系列在内的大语言模型(LLM),在活动中,微软德国首席技术官 Andreas Braun 表示 GPT-4 即将发布。


GPT-4 已经发展到基本上「适用于所有语言」:你可以用德语提问,然后用意大利语得到答案。借助多模态,微软和 OpenAI 将使「模型变得全面」。将提供完全不同的可能性,比如视频。


AIGC 模型


在人工智能内容生成领域,除了 OpenAI, 还有其他玩家,来看一下目前头部玩家的情况:



人工智能突破摩尔定律



摩尔定律是由英特尔公司创始人之一戈登·摩尔于 1965 年提出的一项预测。这项预测认为,在集成电路上可容纳的晶体管数量每隔 18 至 24 个月会翻一番,而成本不变或者成本减少。


简单来说,摩尔定律预测了随着时间的推移,计算机芯片上能集成的晶体管数量将以指数级别增长,而成本将持续降低。这意味着计算机性能将在同样的芯片面积上不断提高,同时计算机的成本也会不断降低。


摩尔定律在过去几十年的计算机工业中发挥了重要的作用,它是计算机发展的重要标志之一,但近年来随着摩尔定律趋于极限,一些人开始怀疑其可持续性。



摩尔定律的定义归纳起来,主要有以下三种版本:



  1. 集成电路上可容纳的晶体管数目,约每隔 18 个月便增加一倍。

  2. 微处理器的性能每隔 18 个月提高一倍,或价格下降一半。

  3. 相同价格所买的电脑,性能每隔 18 个月增加一倍。


随着模型的迭代,对算力的需求也越来越大了:


目前看人工智能对算力的需求已经突破了摩尔定律


未来


目前我已在编程、邮件书写、知识学习等多个场景开始使用 chatGPT,未来有计划开发 chatGPT的应用程序,让更多人能够体验到 chatGPT 的魅力。


未来已来,缺少的不是技术,而是想象力!


作者:xiaohezi
链接:https://juejin.cn/post/7209262585005785145
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

ChatGPT保姆级教程,一分钟学会使用ChatGPT!

最近ChatGPT大火!微软退出首款ChatGPT搜索引擎,阿里等国内巨头也纷纷爆出自家产品,一夜之间,全球最大的科技公司仿佛都回到了自己年轻时的样子! 然而,ChatGPT这么火,这么好玩的东西,国人都被卡在注册上了?! 今天老鱼给大家汇总了国内能使用Cha...
继续阅读 »

最近ChatGPT大火!微软退出首款ChatGPT搜索引擎,阿里等国内巨头也纷纷爆出自家产品,一夜之间,全球最大的科技公司仿佛都回到了自己年轻时的样子!


然而,ChatGPT这么火,这么好玩的东西,国人都被卡在注册上了?!


今天老鱼给大家汇总了国内能使用ChatGPT的方法,解锁更多ChatGPT玩法!


完整文档打开姿势: ChatGPT怎么玩)
在这里插入图片描述


一.准备工作


和注册美区 Apple ID 一样的流程:



  1. 挂个代理,伪装在日本、新加坡或者美国,建议新加坡;亲测香港是100%不可行的

  2. 准备一个国外手机号,GoogleVoice 虚拟号会被识别,亲测不行,使用接码平台

  3. Chrome 浏览器。


二. 注册接码平台


打开网站:sms-activate.org/ 使用邮箱注册
注意:邮件里链接点击后可能回404,多试几次就好了。
在这里插入图片描述
然后,选择充值 1 美元,支持使用支付宝。
在这里插入图片描述
充值完毕,在左侧搜索 OpenAI,从销量看印尼最高,亲测也可用。(印度也可以)
选择后系统会分配一个手机号,留着备用。
在这里插入图片描述


三. 注册 OpenAI


打开链接
beta.openai.com/signup
选择使用 Google 登录即可(建议)
在这里插入图片描述


在这里输入第二步中分配给你的手机号,然后点击【Send code via SMS】按钮。
在这里插入图片描述


回到刚刚的接码平台,就能看到收到的验证码了。
PS:注意购买后的短信有效期是20分钟,需要快速操作哦~
在这里插入图片描述


我们把验证码拷贝出来输入到OpenAI的注册界面即可
在这里插入图片描述


四. 体验ChatGPT


重新登录:chat.openai.com/auth/login


然后访问:chat.openai.com/chat


这时你就可以开始尽情和机器人聊天了
在这里插入图片描述
在这里插入图片描述
如果你没有上述条件去玩ChatGPT,那么看这里解锁更多简单玩法 ChatGPT怎么玩 )


作者:程序员老鱼
链接:https://juejin.cn/post/7198097078005841980
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

Android组件化 这可能是最完美的形态吧?

Android组件化的几种方式 一. 前言 Android开发为什么要组件化,有什么好处?可以看看之前的文章。 组件化的过程中其实都大同小异。结构与功能分为不同的层级: 各模块的跳转和业务通信通过路由转发: 这里讲一下常用的两种方案 二. 修改配置文件的...
继续阅读 »

Android组件化的几种方式


一. 前言


Android开发为什么要组件化,有什么好处?可以看看之前的文章


组件化的过程中其实都大同小异。结构与功能分为不同的层级:


各模块的跳转和业务通信通过路由转发:


这里讲一下常用的两种方案




二. 修改配置文件的方案


我们都知道组件Module是分为Application和library的:



  1. application属性,可以独立运行的Android程序,常见的App模块就是Application类型。

  2. library属性,不可以独立运行,一般是程序依赖的库文件。


那么我们就可以在跟gradle文件中配置,指定当前模块是否需要独立运行。


    isNewsFeedModule = true
isProfileModule = true
isPartTimeModule = true
isPromotionModule = true
isWalletModule = true
isYYPayModule = true
isYYFoodModule = true
isRewardsModule = true
isResumeModule = true
isFreelancerModule = true
复制代码

在指定的模块如NewsFeed模块中配置是否需要独立运行:


if (isNewsFeedModule.toBoolean()) {
apply plugin: 'com.android.application'
} else {
apply plugin: 'com.android.library'
}
复制代码

一个独立运行的application都是要有指定的appid的,那我们也得指定:


    defaultConfig {
(!isNewsFeedModule.toBoolean()){
applicationId "com.mygroup.newsfeed"
}
}
复制代码

还有可能独立运行和依赖库的方式,它们的清单文件有差异导致不同,那么还得指定清单文件的路径:


  sourceSets {
main {
if (isModule.toBoolean()) {
manifest.srcFile 'src/main/module/AndroidManifest.xml'
} else {
manifest.srcFile 'src/main/AndroidManifest.xml'
}
}
}
复制代码

最后,如果NesFeed模块是独立运行的,那么App模块不可能依赖一个Application吧。所以App的Build.gradle中也得修改:


   if (isNeedHomeModule.toBoolean ()){
implementation project (':newsfeed')
}
复制代码

这样每一次想修改对应的模块的时候,就去根目录配置文件修改,然后build之后就能生效。这应该是大多数开发者惯用的组件化方式了吧。




三. 使用框架来实现配置的升级


其实关于配置,关于ApplicationId,清单文件和application与library的判断,都是有迹可循,可以使用代码代替的,由此出现了不少组件化的框架来替我们完成重复的工作。


比较出名的如JIMU。再比如另一个比较火的组件化框架DDComponent,他们替你完成了很大一部分的工作。你只需要引用它的插件


apply plugin: 'com.dd.comgradle'
复制代码

指定他独立运行的applicationName就能实现组件化了


combuild {
applicationName = 'com.luojilab.reader.runalone.application.ReaderApplication'
isRegisterCompoAuto = true
}
复制代码

其中还自带路由,可谓是方便到家了。


但是一些痛点是,他们基于Gradle插件生成代码,由于AGP7的api有变动,有可能升级到AGP7之后出现问题。还有就是多模块的组合测试不方便,比如我想测试NewsFeed,这个模块中关联了很多Profile模块的东西,那我单独测试就要引入这2个组件,但是他们是平级的。也导致测试不方便,只能运行主app模块来测试。




四. 自定义单独的独立运行模块


我们不使用框架,直接把全部的模块都设置为library,由app模块依赖,我们单独的建立runalone的application类型模块,可以单独的调试ProFile模块 ,也可以添加NewsFeed和Profile模块一起测试。


由于app模块没有依赖runalone的模块,所以对应apk的大小和性能也没有影响,可以说单独用于调试是很方便的。


结构如下:


settings.gradle:


include ':app',
':cs_router',
':cs_baselib',
':cs_cptServices',

':cpt_auth',
':cpt_main',
':cpt_parttime',
':cpt_newsfeed',
':cpt_im',
':cpt_ewallet',
':cpt_profile',

':cs_ninegrid',

':lib_xpopup',

':standalone:parttimerunalone',
':standalone:authrunalone',
':standalone:ewalletrunalone',
':standalone:newsfeedrunalone',
':standalone:profilerunalone'
复制代码

优势:



  1. 同样实现了组件化隔离

  2. 不需要修改配置反复编译

  3. 不需要导入第三方库导致开发成本和容错率提高

  4. 方便不同平级的模块组合调试




内部路由功能的实现:


一些框架都是自带的路由,其实思想都是和ARouter差不多。其他单独的组件化框架也有很多,例如app-joint。另一种方案就是大家耳熟能详的ARouter


推荐大家使用Arouter,理由还是和上面一样,由gradle生成的代码有风险,AMS生成过程中依赖APG的api,一旦api有变动就无法使用。有可能升级到AGP7之后出现问题。


主要代码如下:


public class ARouterPath {

//App模块路由服务Path
public static final String PATH_SERVICE_APP = "/app/path/service";

//Auth模块路由服务Path
public static final String PATH_SERVICE_AUTH = "/auth/path/service";
//登录页面
public static final String PATH_AUTH_PAGE_LOGIN = "/auth/page/login";

//Main模块路由服务Path
public static final String PATH_SERVICE_MAIN = "/main/path/service";
//首页Main页面
public static final String PATH_MAIN_PAGE_MAIN = "/main/page/main";

//Wallet模块路由服务Path
public static final String PATH_SERVICE_WALLET = "/wallet/path/service";

//IM模块路由服务Path
public static final String PATH_SERVICE_IM = "/im/path/service";

//NewsFeed模块路由服务Path
public static final String PATH_SERVICE_NEWSFEED = "/newsfeed/path/service";

//PartTime模块路由服务Path
public static final String PATH_SERVICE_PARTTIME = "/parttime/path/service";

//Profile模块路由服务Path
public static final String PATH_SERVICE_PROFILE = "/profile/path/service";

//Service模块路由服务Path
public static final String PATH_SERVICE_SERVER = "/service/path/service";

}
复制代码

全局保管每个组件的Serivce对象


object YYRouterService {

var appComponentServer: IAppComponentServer? = ARouter.getInstance().navigation(IAppComponentServer::class.java)

var authComponentServer: IAuthComponentServer? = ARouter.getInstance().navigation(IAuthComponentServer::class.java)
...
}
复制代码

定义接口:


interface IAppComponentServer : IProvider {

fun initSMS(): IAppComponentServer

//Firebase短信服务-发送短信
fun sendSMSCode(
activity: Activity, phone: String,
sendAction: ((isSuccess: Boolean) -> Unit)?,
verifyAction: ((isSuccess: Boolean) -> Unit)?
)

//Firebase短信服务-验证短信
fun verifySMSCode(activity: Activity, code: String, verifyAction: ((isSuccess: Boolean) -> Unit)?)

fun gotoLoginPage()
}
复制代码

ARouter注解标注服务


@Route(path = ARouterPath.PATH_SERVICE_APP, name = "App模块路由服务")
class AppComponentServiceImpl : IAppComponentServer {

override fun initSMS(): IAppComponentServer {
return this
}

override fun sendSMSCode(
activity: Activity, phone: String, sendAction: ((isSuccess: Boolean) -> Unit)?, verifyAction: ((isSuccess: Boolean) -> Unit)?
) {

}

override fun verifySMSCode(activity: Activity, code: String, verifyAction: ((isSuccess: Boolean) -> Unit)?) {

}

override fun gotoLoginPage() {
LoginActivity.startInstance()
}

override fun init(context: Context?) {
}
}
复制代码

当然ARouter默认的页面导航也是能做的


@Route(path = ARouterPath.PATH_MAIN_PAGE_MAIN)
@AndroidEntryPoint
class MainActivity : YYBaseVDBActivity<MainViewModel, ActivityMainBinding>() {

companion object {
fun startInstance() {
val intent = Intent(commContext, MainActivity::class.java)
intent.addFlags(Intent.FLAG_ACTIVITY_NEW_TASK)
commContext.startActivity(intent)
}
}
...
}
复制代码

至于为什么使用的是IProvide的方式来定义,是因为便于管理,每一个组件自己需要提供的服务或跳转由组件自己定义。没有完全的通过Activity的跳转来搭建路由,有可能你的应用不是基于Activity构建的呢?


基于单Activity+Fragment的构架的话,使用IProvide的方式也不会有影响。比如我们的项目就是把UI也组件化了,每一个组件都是Activity+多Fragment,总共8个组件就只有8个主要的Activity。


感谢看到这里,如果有不同意见,欢迎评论区讨论。

如果觉得不错还请点赞关注。后面可能会讲单Activity+多Fragment的几种方式。

好了,到处完结!



作者:newki
链接:https://juejin.cn/post/7099636408045961224
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

听说Jetpack WorkManager很难用?快来看这篇~

1、什么是WorkManager 按照官方描述,WorkManager 是适合用于持久性工作的推荐解决方案。如果工作始终要通过应用重启和系统重新启动来调度,便是持久性的工作。由于大多数后台处理操作都是通过持久性工作完成的,因此 WorkManager 是适用于...
继续阅读 »

1、什么是WorkManager


按照官方描述,WorkManager 是适合用于持久性工作的推荐解决方案。如果工作始终要通过应用重启和系统重新启动来调度,便是持久性的工作。由于大多数后台处理操作都是通过持久性工作完成的,因此 WorkManager 是适用于后台处理操作的主要推荐 API。


2、任务类型


WorkManager任务类型分为立即运行、长期运行和延期执行,使用方式与周期关系如下所示:






















立即一次性OneTimeWorkRequest 和 Worker。如需处理加急工作,请对 OneTimeWorkRequest 调用 setExpedited()。
长期运行一次性或定期任意 WorkRequest 或 Worker。在工作器中调用 setForeground() 来处理通知。
可延期一次性或定期PeriodicWorkRequest 和 Worker。

接下来来看具体的使用方法。


3、入门使用


3.1 添加依赖库


本文代码使用Kotlin编写,所以这里仅引入Kotlin相关的库即可,在build.gradle中添加代码如下所示:


def work_version = "2.7.1"
implementation "androidx.work:work-runtime-ktx:$work_version"

如果使用的是Java语言该如何引用呢?听我的,放弃吧~


3.2 定义工作Worker


这里我们以上传日志文件任务为例,新建UploadLogWorker类,继承自Worker,代码如下所示:


class UploadLogWorker(context: Context, workerParams: WorkerParameters) :
Worker(context, workerParams) {

override fun doWork(): Result {
Log.d("打印线程", Thread.currentThread().name)
return Result.success()
}
}

继承自Worker的类需要重写doWork方法,我们可以在这个方法中执行具体的任务,这里为了有演示结果打印出线程的名称。


Result用于返回任务的执行结果Result.success表示执行成功;Result.failure、Result.retry则分别表示执行失败和失败后尝试重试。


3.3 创建任务请求WorkRequest


这里我们创建一个一次性的执行任务,代码如下所示:


val uploadLogWorkerRequset: WorkRequest = OneTimeWorkRequestBuilder<UploadLogWorker>()
.build()

3.4 将任务提交系统


创建好任务之后,就可以将任务提交系统,执行请求,代码如下所示:


WorkManager.getInstance(this).enqueue(uploadLogWorkerRequset)

运行App,运行结果如下图所示。



3.5 为任务传递参数


许多时候我们在执行任务的时候是需要参数的,比如上传日志文件我们要知道日志文件的路径或者其他参数,我们怎么样将参数传递给Worker呢?


我们可以通过WorkRequest的setInputData方法来设置参数,代码如下所示:


val uploadLogWorkerRequset: WorkRequest = OneTimeWorkRequestBuilder<UploadLogWorker>()
.setInputData(workDataOf( "filePath" to "file://***" , "fileName" to "log.txt" ))
.build()

这里我们传递了文件路径filePath和文件名fileName,在Worker通过getInputData方法接受,比如我们在doWork中接受参数并打印。代码如下所示:


override suspend fun doWork(): Result {
val filePath = inputData.getString( "filePath" )
val fileName = inputData.getString( "fileName" )
Log.d( "接受的参数" , " $fileName : $filePath " )
return Result.retry()
}

运行程序,打印如下图所示。



这样我们就完成了一个最简单的WorkManager使用案例。接着我们来进一步的探索。


4、执行加急工作你所需要知道的


从 WorkManager 2.7 开始,我们可以调用setExpedited方法来告诉系统,我这个任务是加急任务,请尽快执行。修改代码如下所示:


val uploadLogWorkerRequset: WorkRequest = OneTimeWorkRequestBuilder<UploadLogWorker>()
.setExpedited(OutOfQuotaPolicy. RUN_AS_NON_EXPEDITED_WORK_REQUEST )
.build()

setExpedited方法中的OutOfQuotaPolicy参数有两个枚举值,含义如下所示。



















枚举值含义
RUN_AS_NON_EXPEDITED_WORK_REQUEST当系统无法为任务加急处理时,任务变成常规任务
DROP_WORK_REQUEST当系统无法为任务加急处理时,删除改任务

所以我们这里声明为RUN_AS_NON_EXPEDITED_WORK_REQUEST即可。再次运行程序。


OK,完美运行???


不过我的手机是Android 12的,为了确保没问题,我们必须在Android 11 或低版本上执行一次。没崩溃,但是任务却没执行,我们看到了错误日志如下图所示。



Emm.. 一堆乱七八糟的,关键信息在这句话


Expedited WorkRequests require a ListenableWorker to provide an implementation for `getForegroundInfoAsync()`

从官方我们获取到了这些信息:在 Android 12 之前,工作器中的 getForegroundInfoAsync()getForegroundInfo() 方法可让 WorkManager 在您调用 setExpedited() 时显示通知。如果您想要请求任务作为加急作业运行,则所有的 ListenableWorker 都必须实现 getForegroundInfo 方法。


如果未能实现对应的 ****getForegroundInfo 方法,那么在旧版平台上调用 setExpedited 时,可能会导致运行时崩溃。


了解到了这些,那我们就来实现getForegroundInfo()方法,修改UploadLogWorker代码如下所示:


class UploadLogWorker(context: Context, workerParams: WorkerParameters) :
    Worker(context, workerParams) {

    override fun doWork(): Result {
        Log.d("打印线程", Thread.currentThread().name)
        setForegroundAsync(getForegroundInfo())
        return Result.success()
    }

    @SuppressLint("RestrictedApi")
    override fun getForegroundInfoAsync(): ListenableFuture<ForegroundInfo> {
        val future = SettableFuture.create<ForegroundInfo>()
        future.set(getForegroundInfo())
        return future
    }


    fun getForegroundInfo(): ForegroundInfo {
        val notificationManager =
            applicationContext.getSystemService(Context.NOTIFICATION_SERVICE) as NotificationManager

        if (Build.VERSION.SDK_INT >= Build.VERSION_CODES.O) {
            val channel = NotificationChannel(
                "1",
                "hh",
                NotificationManager.IMPORTANCE_HIGH
            )
            notificationManager.createNotificationChannel(channel)
        }

        val notification = NotificationCompat.Builder(applicationContext, "1")
            .setSmallIcon(R.drawable.ic_launcher_background)
            .setContentTitle(applicationContext.getString(R.string.app_name))
            .setContentText("我是一个上传日志的任务")
            .build()
        return ForegroundInfo(1337, notification)
    }


}

再次在Android11 上运行程序,发现打印出了日志,并显示了一个任务通知,如下图所示。



这一点是在执行加急工作时所必须要注意的。


5、协程工作CoroutineWorker


1、将继承类修改为CoroutineWorker


2、实现getForegroundInfo方法,内容与上getForegroundInfo一致


6、定时任务PeriodicWorkRequest


在3.2中我们定义了一次性任务OneTimeWorkRequestBuilder,现在我们将上传日志的这个任务修改为定时任务,代码如下所示:


val uploadLogWorkerRequset: WorkRequest = PeriodicWorkRequestBuilder<UploadLogWorker>(15,TimeUnit.MINUTES)
.build()

这里指定了,定时任务的周期是15分钟一次,可以定义的最短重复间隔就是 15 分钟,这一点开发者在测试的时候需要注意,不能傻傻的等着...,这里我就傻傻的等了15分钟,确保定时任务是可以执行的。


7、工作约束、延迟执行和重试策略


7.1 工作约束


很多情况下,我们需要为任务添加工作约束,比如上传日志的任务肯定是在有网络的条件下进行的,当前支持的约束条件如下所示。



























NetworkType约束运行工作所需的网络类型。例如 Wi-Fi (UNMETERED)。
BatteryNotLow如果设置为 true,那么当设备处于“电量不足模式”时,工作不会运行。
RequiresCharging如果设置为 true,那么工作只能在设备充电时运行。
DeviceIdle如果设置为 true,则要求用户的设备必须处于空闲状态,才能运行工作。在运行批量操作时,此约束会非常有用;若是不用此约束,批量操作可能会降低用户设备上正在积极运行的其他应用的性能。
StorageNotLow如果设置为 true,那么当用户设备上的存储空间不足时,工作不会运行。

比如我们现在为一次性任务添加约束为在链接wifi的情况下执行,首先用Constraints构建一个约束实例可以将多个约束条件放在一起。代码如下所示:


val constraints = Constraints.Builder()
.setRequiresCharging(true)
.build()

这里设置为仅在充电的时候执行。接着为任务构建器添加约束。


val uploadLogWorkerRequset: WorkRequest = OneTimeWorkRequestBuilder<UploadLogWorker>()
.setConstraints(constraints)
.build()

这样一来任务就会在仅充电的时候执行了。


7.2 延迟执行


延迟执行适用于一次性任务和定时任务,但应用在定时任务事仅对第一次执行有效,为啥呢?因为是定时任务呀~


我们为一次性任务设置延迟时间为5秒钟,代码如下所示:


val uploadLogWorkerRequset: WorkRequest = OneTimeWorkRequestBuilder<UploadLogWorker>()
.setConstraints(constraints)
.setInitialDelay( 5 ,TimeUnit.SECONDS)
.build()

运行程序,可以看到5秒钟后,程序才打印了日志,这里就不演示了。


7.3 重试策略


在3.2中定义Work中我们提到了Result.retry可以让任务重试,我们也可以自定义任务的重试策略和退避政策,我们通过具体的例子来解释。


val uploadLogWorkerRequset: WorkRequest = OneTimeWorkRequestBuilder<UploadLogWorker>()
.setBackoffCriteria(
BackoffPolicy.EXPONENTIAL, OneTimeWorkRequest.MIN_BACKOFF_MILLIS,
TimeUnit.MILLISECONDS
)
.build()

最短退避延迟时间设置为允许的最小值,即 10 秒。由于政策为 LINEAR,每次尝试重试时,重试间隔都会增加约 10 秒。例如,第一次运行以 Result.retry() 结束并在 10 秒后重试;然后,如果工作在后续尝试后继续返回 Result.retry(),那么接下来会在 20 秒、30 秒、40 秒后重试,以此类推。


打印日志如下图所示。



我们可以看到,第一次任务失败后延迟了10秒重新执行,第二次延迟了20秒,第三次延迟了40秒...


8、观察工作执行结果


在任务完成后,我可能需要进行更新UI或者业务逻辑操作。我们可以通过注册监听器来观察 WorkInfo 的变化,以根据ID查询WorkInfo状态为例,代码如下所示:


WorkManager.getInstance(this).getWorkInfoByIdLiveData(uploadLogWorkerRequset.id).observe(this){
if (it.state == WorkInfo.State.SUCCEEDED){
Toast.makeText(this,"任务执行成功,更新UI",Toast.LENGTH_LONG).show()
}else{
//任务失败或重试
}
}

除了getWorkInfoByIdLiveData之外还有根据tag、name等查询的转化方法,这里读者可自行查看API。


运行程序,结果如下图所示。



类似的我们还可以通过cancelWorkById等方法来取消任务的执行。这里不做演示了。


9.总结


9.1 特性



  • 在早于 Android 12 的 API 版本中,加急工作都是由前台服务执行的,而从 Android 12 开始,它们将由加急作业 (expedited job) 实现。所以在第4小节中,Android12上并不会显示通知栏

  • WorkManager 只是一个处理定时任务的工具

  • WorkManager 最早兼容到 API 14(Android 4.0)


9.2 注意事项



  • 使用WorkManager注册的周期性任务不能保证一定会准时执行,这并不是bug,而是系 统为了减少电量消耗,可能会将触发时间临近的几个任务放在一起执行,这样可以大幅度地减 少CPU被唤醒的次数,从而有效延长电池的使用时间。

  • WorkManager官方虽然称它可以保证即使在应用退出甚至手机重启的情况下,之前注册的任务仍然将会得到执行。但是在国产手机中是不可能的,因为系统自己做了改动。但是在国产机上测试退出后,再进来也会执行之前的任务。这个时候可能就会有重复的任务执行。

  • 如果任务已经开始执行调用取消任务的方法是无法终止任务的,但是调用取消方法之后,无法再观察到任务结果。

  • 执行一个后台任务,在任务结束前杀死APP,再次进来时之前未完成的任务会从头开始执行,且执行结束后无法收到回调。

  • 任务添加到队列后,未开始执行前,如果是在onDestory中调用取消任务的方法是不可行的,此种情况下下次进来时仍然会有重复任务开始执行。(原生系统、国产机一样)


9.3 在业务中使用需要关注的问题



  • 任务添加到队列后,未开始执行前,如果是在onDestory中调用取消任务的方法是不可行的,此种情况下下次进来时仍然会有重复任务开始执行。


产生原因:cancelWork操作是一个异步操作,调用此操作后取消操作还未执行结束进程便结束了


业务影响: 连续打开关闭多次,会有多个重复的任务执行,且之前的任务无法收到任务进度回调


解决方案: 暂无


作者:黄林晴
链接:https://juejin.cn/post/7207707775774097466
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

是时候弃用 buildSrc ,使用 Composing builds 加快编译速度了

为什么要使用复合构建 依赖管理一直是一个优化痛点,从硬编码到ext,再发展到buildSrc,尽管代码量在发展中增长了,但是对于追求更快更干净的构建来说确实进步了不少。但是buildSrc虽然给了我们相对干净的使用方式,但是依然没有解决最核心的速度问题。编译过...
继续阅读 »

为什么要使用复合构建


依赖管理一直是一个优化痛点,从硬编码到ext,再发展到buildSrc,尽管代码量在发展中增长了,但是对于追求更快更干净的构建来说确实进步了不少。但是buildSrc虽然给了我们相对干净的使用方式,但是依然没有解决最核心的速度问题。编译过程中 Gradle 最大的低效就是它的单线程配置阶段,这意味着每个额外的模块都会对构建产生持续的开销,因此我们依然经历着配置时间的线性增长,通常大型项目编译一次,就要去喝杯咖啡。


使用 Gradle 的复合构建工具就避免了在其他构建模式时很容易观察到的配置时间损失,依赖不再是全量编译了。复合构建将大型项目构建分解为更小、更独立的块,这些块可以根据需要独立或一起工作,包含的构建不与复合构建或其他包含的构建共享任何配置。每个包含的构建都是独立配置和执行的。


更详细的对比,请参考大佬的再见吧 buildSrc, 拥抱 Composing builds 提升 Android 编译速度,这里不再赘述。因为找到的相关使用文档均已过时,所以下面就记录下来最新的创建使用方法。


基本使用


创建版本依赖插件 Module


这个步骤可以手动创建,也可以借助 Android Studio 创建。




  • 手动创建




    1. 切换到 Project 视图,创建 version-plugin 文件夹,在 version-plugin 文件夹里创建 src -> main -> java 文件




    2. 在 java 文件夹里创建你的包名文件夹,例如 com -> example -> plugin (不想要包名文件夹的话,这一步可以省略),在 plugin 文件夹里创建两个文件Dependencies.ktVersionPlugin.kt




    3. 在 version-plugin 文件夹下创建build.gradle.kts文件,这里使用 kotlin DSL 更方便




    4. build.gradle.kts里添加所需的插件


      plugins {
      `kotlin-dsl`
      }



    5. 在version-plugin 根目录创建settings.gradle.kts,并添加依赖仓库


      dependencyResolutionManagement {
      repositories {
      google()
      mavenCentral()
      }
      }
      rootProject.name = "version-plugin"
      include (":version-plugin")



    6. 在项目根目录的settings.gradle里添加includeBuild("version-plugin")引入插件


      pluginManagement {
      includeBuild("version-plugin")
      repositories {
      google()
      mavenCentral()
      gradlePluginPortal()
      }
      }
      dependencyResolutionManagement {
      repositoriesMode.set(RepositoriesMode.FAIL_ON_PROJECT_REPOS)
      repositories {
      google()
      mavenCentral()
      }
      }
      rootProject.name = "ComposeBuild"
      include ':app'





  • AS创建




image.png




  1. File -> New -> New Module ,选择 Java or kotlin Library,创建一个 Module




  2. 创建Dependencies.kt文件




  3. 删除 version-plugin 文件夹下的 libs 文件夹




  4. build.gradle转化为build.gradle.kts文件


    plugins {
    `kotlin-dsl`
    }



  5. 在 version-plugin 根目录创建settings.gradle.kts,并添加依赖仓库


    dependencyResolutionManagement {
    repositories {
    google()
    mavenCentral()
    }
    }
    rootProject.name = "version-plugin"
    include (":version-plugin")



  6. 项目根目录settings.gradle里的include ':version-plugin'替换为includeBuild("version-plugin"),为了规范,把它注册在上面的pluginManagement


    pluginManagement {
    includeBuild("version-plugin")
    repositories {
    google()
    mavenCentral()
    gradlePluginPortal()
    }
    }
    dependencyResolutionManagement {
    repositoriesMode.set(RepositoriesMode.FAIL_ON_PROJECT_REPOS)
    repositories {
    google()
    mavenCentral()
    }
    }
    rootProject.name = "ComposeBuild"
    include ':app'
    //include ':version-plugin'

    完成后的项目目录:
    项目目录




编写插件


Gradle 是一个框架,作为框架,它负责定义流程和规则。而具体的编译工作则是通过插件的方式来完成的,我们要引入插件,而达到获取插件配置的目的。


实现插件类


VersionPlugin.kt中实现插件


package com.example.plugin

import org.gradle.api.Plugin
import org.gradle.api.Project

class VersionPlugin : Plugin<Project> {
override fun apply(target: Project) {
println("VersionPlugin")
}
}

配置依赖


Dependencies.kt中,我项目的依赖库拷贝在这里:


object Versions {
const val composeUi = "1.3.1"
const val composeVersion = "1.2.0"
const val kotlin = "1.8.0"
const val lifecycle = "2.5.1"
const val activityCompose = "1.5.1"
const val composeMaterial3 = "1.0.0-alpha11"
const val junit = "4.13.2"
const val androidxJunit = "1.1.3"
const val espresso = "3.4.0"
}

object Libraries {
// 依赖库
const val coreKtx = "androidx.core:core-ktx:${Versions.kotlin}"
const val lifecycle = "androidx.lifecycle:lifecycle-runtime-ktx:${Versions.lifecycle}"
const val activityCompose = "androidx.activity:activity-compose:${Versions.activityCompose}"
const val composeUi = "androidx.compose.ui:ui:${Versions.composeUi}"
const val composePreview = "androidx.compose.ui:ui-tooling-preview:${Versions.composeVersion}"
const val composeMaterial3 = "androidx.compose.material3:material3:${Versions.composeMaterial3}"
// 测试库
const val junit = "junit:junit:${Versions.junit}"
const val androidxJunit = "androidx.test.ext:junit:${Versions.androidxJunit}"
const val espresso = "androidx.test.espresso:espresso-core:${Versions.espresso}"
const val uiTestJunit4 = "androidx.compose.ui:ui-test-junit4:${Versions.composeVersion}"
const val uiTooling = "androidx.compose.ui:ui-tooling:${Versions.composeVersion}"
const val uiTestManifest = "androidx.compose.ui:ui-test-manifest:${Versions.composeVersion}"

}

注册插件


插件要能被别的 Module 引入,需要注册在插件 Module 的build.gradle.kts


plugins {
`kotlin-dsl`
}
gradlePlugin {
plugins.register("versionPlugin") {
id = "version-plugin"
implementationClass = "com.example.plugin.VersionPlugin"
}
}

使用


在用到的 Module 里添加插件,app 目录下的build.gradle


plugins {
id 'com.android.application'
id 'org.jetbrains.kotlin.android'
// 依赖插件
id 'version-plugin'
}

这时候就可以引用插件 Module 里定义的依赖了:


implementation Libraries.coreKtx

扩展


依赖优化


上面一通操作,在使用的时候,并没有方便多少。为了不再一个一个的引入依赖,我们需要写个扩展优化。为了方便操作和提示,建议使用 Kotlin 的 DSL ,首先把build.gradle转为build.gradle.kts


转化前:


import com.example.plugin.Libraries

plugins {
id 'com.android.application'
id 'org.jetbrains.kotlin.android'
id 'version-plugin'
}

android {
namespace 'com.example.composingbuilds'
compileSdk 33

defaultConfig {
applicationId "com.example.composingbuilds"
minSdk 24
targetSdk 33
versionCode 1
versionName "1.0"

testInstrumentationRunner "androidx.test.runner.AndroidJUnitRunner"
vectorDrawables {
useSupportLibrary true
}
}

buildTypes {
release {
minifyEnabled false
proguardFiles getDefaultProguardFile('proguard-android-optimize.txt'), 'proguard-rules.pro'
}
}
compileOptions {
sourceCompatibility JavaVersion.VERSION_1_8
targetCompatibility JavaVersion.VERSION_1_8
}
kotlinOptions {
jvmTarget = '1.8'
}
buildFeatures {
compose true
}
composeOptions {
kotlinCompilerExtensionVersion '1.1.1'
}
packagingOptions {
resources {
excludes += '/META-INF/{AL2.0,LGPL2.1}'
}
}
}

dependencies {
implementation Libraries.coreKtx
// implementation 'androidx.core:core-ktx:1.7.0'
implementation 'androidx.lifecycle:lifecycle-runtime-ktx:2.3.1'
implementation 'androidx.activity:activity-compose:1.3.1'
implementation "androidx.compose.ui:ui:$compose_version"
implementation "androidx.compose.ui:ui-tooling-preview:$compose_version"
implementation 'androidx.compose.material3:material3:1.0.0-alpha11'
testImplementation 'junit:junit:4.13.2'
androidTestImplementation 'androidx.test.ext:junit:1.1.3'
androidTestImplementation 'androidx.test.espresso:espresso-core:3.4.0'
androidTestImplementation "androidx.compose.ui:ui-test-junit4:$compose_version"
debugImplementation "androidx.compose.ui:ui-tooling:$compose_version"
debugImplementation "androidx.compose.ui:ui-test-manifest:$compose_version"
}

转化后:


import com.example.plugin.Libraries

plugins {
id("com.android.application")
id("kotlin-android")
id("version-plugin")
}

android {
namespace = "com.example.composingbuilds"
compileSdk = 33

defaultConfig {
applicationId = "com.example.composingbuilds"
minSdk = 23
targetSdk = 33
versionCode = 1
versionName = "1.0"

testInstrumentationRunner = "androidx.test.runner.AndroidJUnitRunner"
vectorDrawables {
useSupportLibrary = true
}
}

buildTypes {
getByName("release") {
isMinifyEnabled = false
proguardFiles(
getDefaultProguardFile("proguard-android-optimize.txt"),
"proguard-rules.pro"
)
}
}
compileOptions {
sourceCompatibility = JavaVersion.VERSION_1_8
targetCompatibility = JavaVersion.VERSION_1_8
}
kotlinOptions {
jvmTarget = JavaVersion.VERSION_1_8.toString()
}
buildFeatures {
compose = true
}
composeOptions {
kotlinCompilerExtensionVersion = "1.1.1"
}
packagingOptions {
resources {
excludes += "/META-INF/{AL2.0,LGPL2.1}"
}
}
}

dependencies {
implementation(Libraries.coreKtx)
implementation(Libraries.lifecycle)
implementation(Libraries.activityCompose)
implementation(Libraries.composeUi)
implementation(Libraries.composePreview)
implementation(Libraries.composeMaterial3)

testImplementation(Libraries.junit)
androidTestImplementation(Libraries.androidxJunit)
androidTestImplementation(Libraries.espresso)
androidTestImplementation(Libraries.uiTestJunit4)
debugImplementation(Libraries.uiTooling)
debugImplementation(Libraries.uiTestManifest)

}

dependencies里面还是需要一个一个的依赖,有时候项目并不是一个 Module 而是多 Module 的状态,每个build.gradle都要写依赖,要简化这个繁琐的过程,就需要把依赖分类集中处理。


在插件 Module 里新建Extension.kt,可以把依赖库分为kotlin、android、compose、test四部分。扩展DependencyHandlerScope


fun DependencyHandlerScope.kotlinProject() {
"implementation"(Libraries.coreKtx)
}


fun DependencyHandlerScope.androidProject() {
"implementation"(Libraries.lifecycle)
}

fun DependencyHandlerScope.composeProject() {
"implementation"(Libraries.activityCompose)
"implementation"(Libraries.composeUi)
"implementation"(Libraries.composePreview)
"implementation"(Libraries.composeMaterial3)
}

fun DependencyHandlerScope.androidTest() {
"testImplementation"(Libraries.junit)
"androidTestImplementation"(Libraries.androidxJunit)
"androidTestImplementation"(Libraries.espresso)
"androidTestImplementation"(Libraries.uiTestJunit4)
"debugImplementation"(Libraries.uiTooling)
"debugImplementation"(Libraries.uiTestManifest)
}

然后修改项目依赖,调用上面的扩展,短短几行就可实现:


dependencies {
kotlinProject()
androidProject()
composeProject()
androidTest()

// implementation(Libraries.coreKtx)
// implementation(Libraries.lifecycle)
// implementation(Libraries.activityCompose)
// implementation(Libraries.composeUi)
// implementation(Libraries.composePreview)
// implementation(Libraries.composeMaterial3)
//
// testImplementation(Libraries.junit)
// androidTestImplementation(Libraries.androidxJunit)
// androidTestImplementation(Libraries.espresso)
// androidTestImplementation(Libraries.uiTestJunit4)
// debugImplementation(Libraries.uiTooling)
// debugImplementation(Libraries.uiTestManifest)

}

插件依赖


上面只优化了dependencies这个闭包,build.gradle.kts依旧很多东西,既然写了一个插件,我们就用插件实现整个配置。


app的build.gradle.kts一共有三个闭包:pluginandroiddependencies,对应插件其实也是现实这三个配置,回到最开始的VersionPlugin中:


class VersionPlugin : Plugin<Project> {
override fun apply(target: Project) {
with(target){
//配置plugin
//配置android
//配置dependencies
}
}
}

1. 首先实现配置plugin


这个闭包就是引入插件,把原 Module 用到的插件搬过来即可,这里要去掉原先加入的自身插件


//配置plugin
plugins.run {
apply("com.android.application")
apply("kotlin-android")
}

2. 然后实现配置android


这里用到相关依赖,先添加到插件 Module 的build.gradle.kts里:


plugins {
`kotlin-dsl`
}
dependencies {
implementation("com.android.tools.build:gradle:7.3.1")
implementation("org.jetbrains.kotlin:kotlin-gradle-plugin:1.8.0")
}

然后配置android,把 Module 的build.gradle.kts里的android部分搬过来,唯一需要注意的是,插件里没有kotlinOptions,需要自己写一个扩展:


//配置android
extensions.configure<ApplicationExtension> {
applicationId = "com.asi.composingbuild"
compileSdk=33
defaultConfig {
applicationId="com.asi.composingbuild"
minSdk = 23
targetSdk=33
versionCode=1
versionName="1.0"
testInstrumentationRunner= "androidx.test.runner.AndroidJUnitRunner"
vectorDrawables {
useSupportLibrary =true
}
}
buildTypes {
getByName("release") {
isMinifyEnabled = false
proguardFiles(
getDefaultProguardFile("proguard-android-optimize.txt"),
"proguard-rules.pro"
)
}
}
compileOptions {
sourceCompatibility = JavaVersion.VERSION_1_8
targetCompatibility = JavaVersion.VERSION_1_8
}

kotlinOptions{
jvmTarget = JavaVersion.VERSION_1_8.toString()
}
buildFeatures {
compose = true
}
composeOptions {
kotlinCompilerExtensionVersion = "1.1.1"
}
packagingOptions {
resources {
excludes += "/META-INF/{AL2.0,LGPL2.1}"
}
}
}

kotlinOptions扩展:


fun CommonExtension<*, *, *, *>.kotlinOptions(block: KotlinJvmOptions.() -> Unit) {
(this as ExtensionAware).extensions.configure("kotlinOptions", block)
}



  1. 首先实现配置dependencies


    //配置dependencies
    dependencies {
    kotlinProject()
    androidProject()
    composeProject()
    androidTest()
    }



    1. 依赖插件


      把 app Module 的build.gradle.kts里的内容都删了,只依赖下刚完成的插件:


      plugins {
      id("version-plugin")
      }

      是不是很清爽的感觉?






多个插件


如果是多 Module 的项目,每个 Module 的依赖会不一样,所以可以在 version-plugin 中编写多个plugin,然后注册id,在不同的 Module 里使用,修改某个依赖,只构建这个 Module 的依赖,达到隔离构建的目的。


复合构建


上面单一 Module 中单独的插件,依赖的库并没有达到隔离构建的目的,如果我们只是更改了composeUi版本,整个依赖都要重新编译。要实现隔离,需要更精细化的拆分,比如把compose部分单独出来。


新建一个ComposePlugin.kt,把原来插件中的关于compose的配置拷贝过来:


class ComposePlugin : Plugin<Project> {
override fun apply(target: Project) {
with(target) {
//配置compose
extensions.configure<ApplicationExtension> {
buildFeatures {
compose = true
}
composeOptions {
kotlinCompilerExtensionVersion = Versions.kotlinCompilerExtensionVersion
}
}
dependencies {
composeProject()
}
}
}
}

插件写完需要注册:


gradlePlugin {
plugins.register("versionPlugin") {
id = "version-plugin"
implementationClass = "com.example.plugin.VersionPlugin"
}
plugins.register("ComposePlugin") {
id = "compose-plugin"
implementationClass = "com.example.plugin.ComposePlugin"
}
}

这里可以优化下写法:


gradlePlugin {
plugins{
register("versionPlugin") {
id = "version-plugin"
implementationClass = "com.example.plugin.VersionPlugin"
}
register("ComposePlugin") {
id = "compose-plugin"
implementationClass = "com.example.plugin.ComposePlugin"
}
}
}

在 app 模块里引入:


plugins {
id("version-plugin")
id("compose-plugin")
}

这样如果修改compose版本,并不会构建别的依赖。


国际惯例上源码


作者:北海道浪子
链接:https://juejin.cn/post/7208015274079387707
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

来自 2022 的总结,拖延症害死人

停下来,看一看 之前写影评就不喜欢矫揉造作,这篇也就当成自述吧,可能,矫情了点? 高中时候看过一个小短片《二十七八岁》,和现在生活真有些许重合,发现生活中开始计算收支,喜欢健康的生活方式 偶尔感慨着房价、物价的涨的有多快,然后摸了摸自己口袋,发现烟没怎么涨价,...
继续阅读 »

停下来,看一看


之前写影评就不喜欢矫揉造作,这篇也就当成自述吧,可能,矫情了点?


高中时候看过一个小短片《二十七八岁》,和现在生活真有些许重合,发现生活中开始计算收支,喜欢健康的生活方式


偶尔感慨着房价、物价的涨的有多快,然后摸了摸自己口袋,发现烟没怎么涨价,挺好的。


我是一名 Android 开发工程师,但大多数时间做的都是偏前端项目,可能 23 年的 flag 一不小心就定位转行了呢!!!


2022 年,给自己备份存个档,按时间节点的流水账


主题词 一:结婚


作为 Android 打工人,名正言顺经常去设计部门逛逛,和妹子讨论 UI设计问题。


我说:“你不能这样设计,会增加开发复杂度,以及运行性能……”

“真的吗?这样设计真的不行吗”

“对的啊,你看把这些…功能都去掉可不可以”

她看着我说:“可是我觉得这样更好看唉”

对视了会,也不是不能做,内卷就这么开始了。。。


可能我个人魅力(内卷的教养)吸引了妹子,在我的疯狂追势下,成为了我老婆。

你看,谈恋爱容易吗?结婚容易吗?


相信我,你只要兢兢业业的打工,也会拥有的。当然有一丢丢取决于个人魅力(幽默、吃饭、旅游、礼物、关心、头发、骚!!!


如果没能成功,还是记得好好爱自己(🐶)。


主题词 二:买房


做了很多攻略,我觉得22年并不是买房的好时机,但房东说你不买就得给我打工,被逼的我就买了房。


看了西安,看了武汉,最后还是选择了上海,不亏为我的底线


定居后,感觉人生清单里,又划掉一项,想了想剩下的 Todo 事项,又被沉默施法。

说明这真的只是人生中一件事,拉长生活轨迹,还有很多等待着去体验,去感受。


但是,我成了大家眼中,有钱人?

我说你误会太多,他说早该叫老总

我说贷款成房奴,那是资产会升值

我说还贷压力大,老总你还有头发


其实有没有钱呢,心里跟明镜一样儿,不需要华丽的奢侈品、昂贵的汽车、进口的杂七杂八。


从日出到黄昏,三餐四季,柴米油盐酱醋;会一会小伙伴,饮茶小酌,吃喝玩乐大保健(也就只敢写写)。


你说这样的生活需要太大成本吗,不舒服?那就是这样平凡


主题词 三:研究下班精力流转效率


天将降大任于斯人也,我报之以兼职创业。我想过做炸鸡店、临期食品,还想着要不要盘家店,做拉面生意(虽然我不会)。


甚至某鱼上门教写代码也是可以的,三楼贵宾一位?这思想来源于职场焦虑,也是对于以后的职业生涯,思考多一个选择。


来源于朋友的邀请,一起做外包公司,线下线上接活,再招兼职人员开发,我负责进行项目管理,人员外派。


代码能力不行?没行业经验?不重要

只要你张得开嘴,迈得开腿,吃喝陪睡(没有,写飘了),能拿到 10w+ 预算的项目,人还不好找吗?


当然也会遇到很多问题,计算项目成本没经验,没有人力资源池,以及项目中有人跑路,风险管控,本职工作忙,项目涉及技术复杂等等。


诸如此类,很多问题都要想办法去解决,而且行业也是内卷的,转包严重,留给你的也许就是个骨头。


忙了一段时间,再加上生活中一些变动,还是先休息沉淀沉淀,转战幕后,去梳理下后期规划。


主题词 四:宝宝出生


感概今年的生活很充实,小虎妞出生啦,我看了些楚辞、诗经,给小孩选了几个名字觉得一般。


又搬出了 github,找个程序帮我测算名字(周易五行),95 得分我很满意,不是为了迷信,是不像她爹考试只踩及格线。


宝宝很乖,有时半夜 2:00 还和我打招呼,让我陪她说说话


我说你快睡,她说:“爸爸你最好,爸爸你最帅,爸爸我是你的小棉袄……”,你能想象一个新生儿这么能说吗,我也没想到。


我心想:“等你长大了,我拉着你晚上一起,坐着摇椅慢慢聊 Vue、React、Android,谁都别想睡。”


结语


面对了自己22年,和27岁的人生,白给了吗?好像也并没有,也升职加了薪、项目赚了钱、基金亏成狗(累计还是赚)。


23年就不列什么 flag 了,想到什么就立马去做吧,行动力往往比嘴上功夫更重要。


借用之前看过的一本书:“跳舞吧,趁年轻的时候。不要去想为什么要跳舞,尽管跳舞就对了。脚步一旦停了下来,就

作者:抠键盘养你
来源:juejin.cn/post/7208050893055787063
会往另一个世界走。”

收起阅读 »

4个工具,让 ChatGPT 如虎添翼!

让 ChatGPT 如虎添翼! ChatGPT 很好用,其核心是prompt的运用,其回答质量很大程度取决于你的提问质量。 我算是 ChatGPT 的高频用户了,几乎日活。半个月前我在星球写道: 冲了Plus之后,使用更加频繁,说几点ChatGPT近期感受: ...
继续阅读 »

让 ChatGPT 如虎添翼!


ChatGPT 很好用,其核心是prompt的运用,其回答质量很大程度取决于你的提问质量。


我算是 ChatGPT 的高频用户了,几乎日活。半个月前我在星球写道:


冲了Plus之后,使用更加频繁,说几点ChatGPT近期感受:
1、它发挥多大效能取决于你的知识储备,它只能锦上添花,无法雪中送炭
2、提问是门技术,无论是向他人求助,还是之前用搜索引擎,大部分人连提问都搞不定
3、未来ChatGPT必然更加强大,会更好用,但依然无法解决上面俩个问题
4、未来N年他会持续进化,国内做模型大概率邯郸学步
5、真正的机会在应用侧,大面积复制国外各种现有应用,但是肯定也会高出更多玩法
6、这个赛道很长,无论你对它什么态度,可能最终都会影响你,就像之前的搜索引擎和推荐算法


最近我尝试了很多辅助工具,简直如虎添翼,效率大幅提升,这里就推荐几个最好用的吧。


ChatGPT-Shortcut


让生产力加倍的 ChatGPT 快捷指令,按照领域和功能分区,可对提示词进行标签筛选、关键词搜索和一键复制。


newzone.top/chatgpt/


ChatGPT Shortcut 是根据领域和功能划分的 ChatGPT 快捷指令表,可通过标签筛选、关键词搜索和一键复制来使用提示词,旨在简化你的工作流程并提高生产力。即使是初学者,你只需复制提示词,稍加修改后发送给 ChatGPT,就能获得指定输出,让你的生产力加倍!


ChatGPT Shortcut 页面默认显示全部的提示词,页面分为标签区、搜索区和提示词展示区。


AIPRM for ChatGPT


这是一个插件,单击一下,就可以访问精选的 ChatGPT 提示,这些提示是专门为 SEO、SaaS、营销和更多 ChatGPT 的精选提示模板列表而设计的。


插件安装:
chrome.google.com/webstore/de…


官网:http://www.aiprm.com/


AIPRM for ChatGPT 最方便的地方在于能够设定输出语言、文字用语、文字风格,想它风趣一点或是严肃一点,现在可以轻松做到。


ChatPDF



基于 ChatGPT API 的读取 PDF 工具 ChatPDF:可以直接把需要阅读的 pitch deck、白皮书、文档、论文、图书喂给它,让它做总结和提问。



ChatPDF 简直是学习神器,上传 PDF 文件后,可以对它提问任何关于这份 PDF 的问题,非常适合快速提取各种 paper 论文的摘要,也支持中文输出。


http://www.chatpdf.com/


上传pdf即可,然后你就可以基于pdf的内容去提问了



bob-plugin-openai-translator



基于 ChatGPT API 的文本翻译、文本润色、语法纠错 Bob 插件,让我们一起迎接不需要巴别塔的新时代!


github.com/yetone/bob-…


此插件已支持使用 ChatGPT API 对句子进行润色和语法修改,只需要把目标语言选成跟源语言一样即可,全面替代 Grammarly!而且理论上任何语言都可以润色,不只是英语。



目前仅支持macOS用户,非 macOS 用户可以使用我开发的基于 ChatGPT API 的划词翻译浏览器插件 openai-translator 以解燃眉之急。


github.com/yetone/open…



LightGBM中文文档


机器学习统计学,476页


机器学习圣经PRML中文版


经典著作《机器学习:概率视角


作者:机器学习与统计学
来源:juejin.cn/post/7208413354905223227
收起阅读 »

保姆级JAVA对接ChatGPT教程,实现自己的AI对话助手

1.前言 大家好,我是王老狮,近期OpenAI开放了chatGPT的最新gpt-3.5-turbo模型,据介绍该模型是和当前官网使用的相同的模型,如果你还没体验过ChatGPT,那么今天就教大家如何打破网络壁垒,打造一个属于自己的智能助手把。本文包括API K...
继续阅读 »

1.前言


大家好,我是王老狮,近期OpenAI开放了chatGPT的最新gpt-3.5-turbo模型,据介绍该模型是和当前官网使用的相同的模型,如果你还没体验过ChatGPT,那么今天就教大家如何打破网络壁垒,打造一个属于自己的智能助手把。本文包括API Key的申请以及网络代理的搭建,那么事不宜迟,我们现在开始。


2.对接流程


2.1.API-Key的获取


首先第一步要获取OpenAI接口的API Key,该Key是你用来调用接口的token,主要用于接口鉴权。获取该key首先要注册OpenAi的账号,具体可以见我的另外一篇文章,ChatGPT保姆级注册教程



  1. 打开platform.openai.com/网站,点击view API Key,


image.png



  1. 点击创建key


image.png



  1. 弹窗显示生成的key,记得把key复制,不然等会就找不到这个key了,只能重新创建。


image.png


将API Key保存好以备用


2.2.API用量的查看


这里可以查看API的使用情况,新账号注册默认有5美元的试用额度,之前都是18美元,API成本降了之后试用额度也狠狠地砍了一刀啊,哈哈。


image.png


2.3.核心代码实现


2.3.1.pom依赖


<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">

<modelVersion>4.0.0modelVersion>
<groupId>com.webtapgroupId>
<artifactId>webtapartifactId>
<version>0.0.1version>
<packaging>jarpackaging>

<parent>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-parentartifactId>
<version>2.1.2.RELEASEversion>
parent>

<dependencies>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-webartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-thymeleafartifactId>
dependency>
<dependency>
<groupId>nz.net.ultraq.thymeleafgroupId>
<artifactId>thymeleaf-layout-dialectartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-data-jpaartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-devtoolsartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-testartifactId>
dependency>
<dependency>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-starter-mailartifactId>
dependency>

<dependency>
<groupId>mysqlgroupId>
<artifactId>mysql-connector-javaartifactId>
dependency>
<dependency>
<groupId>org.apache.commonsgroupId>
<artifactId>commons-lang3artifactId>
<version>3.4version>
dependency>
<dependency>
<groupId>commons-codecgroupId>
<artifactId>commons-codecartifactId>
dependency>
<dependency>
<groupId>org.jsoupgroupId>
<artifactId>jsoupartifactId>
<version>1.9.2version>
dependency>

<dependency>
<groupId>com.alibabagroupId>
<artifactId>fastjsonartifactId>
<version>1.2.56version>
dependency>
<dependency>
<groupId>net.sourceforge.nekohtmlgroupId>
<artifactId>nekohtmlartifactId>
<version>1.9.22version>
dependency>
<dependency>
<groupId>com.github.pagehelpergroupId>
<artifactId>pagehelper-spring-boot-starterartifactId>
<version>1.4.1version>
dependency>
<dependency>
<groupId>org.projectlombokgroupId>
<artifactId>lombokartifactId>
dependency>
<dependency>
<groupId>org.apache.httpcomponentsgroupId>
<artifactId>httpasyncclientartifactId>
<version>4.0.2version>
dependency>
<dependency>
<groupId>org.apache.httpcomponentsgroupId>
<artifactId>httpcore-nioartifactId>
<version>4.3.2version>
dependency>

<dependency>
<groupId>org.apache.httpcomponentsgroupId>
<artifactId>httpclientartifactId>
<version>4.3.5version>
<exclusions>
<exclusion>
<artifactId>commons-codecartifactId>
<groupId>commons-codecgroupId>
exclusion>
exclusions>
dependency>
<dependency>
<groupId>commons-httpclientgroupId>
<artifactId>commons-httpclientartifactId>
<version>3.1version>
<exclusions>
<exclusion>
<artifactId>commons-codecartifactId>
<groupId>commons-codecgroupId>
exclusion>
exclusions>
dependency>
<dependency>
<groupId>org.mybatis.spring.bootgroupId>
<artifactId>mybatis-spring-boot-starterartifactId>
<version>1.3.1version>
dependency>
<dependency>
<groupId>com.github.ulisesbocchiogroupId>
<artifactId>jasypt-spring-boot-starterartifactId>
<version>2.0.0version>
dependency>

dependencies>

<build>
<plugins>
<plugin>
<groupId>org.springframework.bootgroupId>
<artifactId>spring-boot-maven-pluginartifactId>
plugin>
plugins>
build>

project>

2.3.2.实体类ChatMessage.java


用于存放发送的消息信息,注解使用了lombok,如果没有使用lombok可以自动生成构造方法以及get和set方法


@Data
@NoArgsConstructor
@AllArgsConstructor
public class ChatMessage {
//消息角色
String role;
//消息内容
String content;
}

2.3.3.实体类ChatCompletionRequest.java


用于发送的请求的参数实体类,参数释义如下:


model:选择使用的模型,如gpt-3.5-turbo


messages :发送的消息列表


temperature :温度,参数从0-2,越低表示越精准,越高表示越广发,回答的内容重复率越低


n :回复条数,一次对话回复的条数


stream :是否流式处理,就像ChatGPT一样的处理方式,会增量的发送信息。


max_tokens :生成的答案允许的最大token数


user :对话用户


@Data
@Builder
public class ChatCompletionRequest {

String model;

List<ChatMessage> messages;

Double temperature;

Integer n;

Boolean stream;

List<String> stop;

Integer max_tokens;

String user;
}

2.3.4.实体类ExecuteRet .java


用于接收请求返回的信息以及执行结果



/**
* 调用返回
*/

public class ExecuteRet {

/**
* 操作是否成功
*/

private final boolean success;

/**
* 返回的内容
*/

private final String respStr;

/**
* 请求的地址
*/

private final HttpMethod method;

/**
* statusCode
*/

private final int statusCode;

public ExecuteRet(booleansuccess, StringrespStr, HttpMethodmethod, intstatusCode) {
this.success =success;
this.respStr =respStr;
this.method =method;
this.statusCode =statusCode;
}

@Override
public String toString()
{
return String.format("[success:%s,respStr:%s,statusCode:%s]", success, respStr, statusCode);
}

/**
*@returnthe isSuccess
*/

public boolean isSuccess() {
return success;
}

/**
*@returnthe !isSuccess
*/

public boolean isNotSuccess() {
return !success;
}

/**
*@returnthe respStr
*/

public String getRespStr() {
return respStr;
}

/**
*@returnthe statusCode
*/

public int getStatusCode() {
return statusCode;
}

/**
*@returnthe method
*/

public HttpMethod getMethod() {
return method;
}
}

2.3.5.实体类ChatCompletionChoice .java


用于接收ChatGPT返回的数据


@Data
public class ChatCompletionChoice {

Integer index;

ChatMessage message;

String finishReason;
}

2.3.6.接口调用核心类OpenAiApi .java


使用httpclient用于进行api接口的调用,支持post和get方法请求。


url为配置文件open.ai.url的值,表示调用api的地址:https://api.openai.com/ ,token为获取的api-key。
执行post或者get方法时增加头部信息headers.put("Authorization", "Bearer " + token); 用于通过接口鉴权。



@Slf4j
@Component
public class OpenAiApi {

@Value("${open.ai.url}")
private String url;
@Value("${open.ai.token}")
private String token;

private static final MultiThreadedHttpConnectionManagerCONNECTION_MANAGER= new MultiThreadedHttpConnectionManager();

static {
// 默认单个host最大链接数
CONNECTION_MANAGER.getParams().setDefaultMaxConnectionsPerHost(
Integer.valueOf(20));
// 最大总连接数,默认20
CONNECTION_MANAGER.getParams()
.setMaxTotalConnections(20);
// 连接超时时间
CONNECTION_MANAGER.getParams()
.setConnectionTimeout(60000);
// 读取超时时间
CONNECTION_MANAGER.getParams().setSoTimeout(60000);
}

public ExecuteRet get(Stringpath, Map headers) {
GetMethod method = new GetMethod(url +path);
if (headers== null) {
headers = new HashMap<>();
}
headers.put("Authorization", "Bearer " + token);
for (Map.Entry h : headers.entrySet()) {
method.setRequestHeader(h.getKey(), h.getValue());
}
return execute(method);
}

public ExecuteRet post(Stringpath, Stringjson, Map headers) {
try {
PostMethod method = new PostMethod(url +path);
//log.info("POST Url is {} ", url + path);
// 输出传入参数
log.info(String.format("POST JSON HttpMethod's Params = %s",json));
StringRequestEntity entity = new StringRequestEntity(json, "application/json", "UTF-8");
method.setRequestEntity(entity);
if (headers== null) {
headers = new HashMap<>();
}
headers.put("Authorization", "Bearer " + token);
for (Map.Entry h : headers.entrySet()) {
method.setRequestHeader(h.getKey(), h.getValue());
}
return execute(method);
} catch (UnsupportedEncodingExceptionex) {
log.error(ex.getMessage(),ex);
}
return new ExecuteRet(false, "", null, -1);
}

public ExecuteRet execute(HttpMethodmethod) {
HttpClient client = new HttpClient(CONNECTION_MANAGER);
int statusCode = -1;
String respStr = null;
boolean isSuccess = false;
try {
client.getParams().setParameter(HttpMethodParams.HTTP_CONTENT_CHARSET, "UTF8");
statusCode = client.executeMethod(method);
method.getRequestHeaders();

// log.info("执行结果statusCode = " + statusCode);
InputStreamReader inputStreamReader = new InputStreamReader(method.getResponseBodyAsStream(), "UTF-8");
BufferedReader reader = new BufferedReader(inputStreamReader);
StringBuilder stringBuffer = new StringBuilder(100);
String str;
while ((str = reader.readLine()) != null) {
log.debug("逐行读取String = " + str);
stringBuffer.append(str.trim());
}
respStr = stringBuffer.toString();
if (respStr != null) {
log.info(String.format("执行结果String = %s, Length = %d", respStr, respStr.length()));
}
inputStreamReader.close();
reader.close();
// 返回200,接口调用成功
isSuccess = (statusCode == HttpStatus.SC_OK);
} catch (IOExceptionex) {
} finally {
method.releaseConnection();
}
return new ExecuteRet(isSuccess, respStr,method, statusCode);
}

}

2.3.7.定义接口常量类PathConstant.class


用于维护支持的api接口列表


public class PathConstant {
public static class MODEL {
//获取模型列表
public static String MODEL_LIST = "/v1/models";
}

public static class COMPLETIONS {
public static String CREATE_COMPLETION = "/v1/completions";
//创建对话
public static String CREATE_CHAT_COMPLETION = "/v1/chat/completions";

}
}

2.3.8.接口调用调试单元测试类OpenAiApplicationTests.class


核心代码都已经准备完毕,接下来写个单元测试测试下接口调用情况。



@SpringBootTest
@RunWith(SpringRunner.class)
public class OpenAiApplicationTests {

@Autowired
private OpenAiApi openAiApi;
@Test
public void createChatCompletion2() {
Scanner in = new Scanner(System.in);
String input = in.next();
ChatMessage systemMessage = new ChatMessage('user', input);
messages.add(systemMessage);
ChatCompletionRequest chatCompletionRequest = ChatCompletionRequest.builder()
.model("gpt-3.5-turbo-0301")
.messages(messages)
.user("testing")
.max_tokens(500)
.temperature(1.0)
.build();
ExecuteRet executeRet = openAiApi.post(PathConstant.COMPLETIONS.CREATE_CHAT_COMPLETION, JSONObject.toJSONString(chatCompletionRequest),
null);
JSONObject result = JSONObject.parseObject(executeRet.getRespStr());
List choices = result.getJSONArray("choices").toJavaList(ChatCompletionChoice.class);
System.out.println(choices.get(0).getMessage().getContent());
ChatMessage context = new ChatMessage(choices.get(0).getMessage().getRole(), choices.get(0).getMessage().getContent());
System.out.println(context.getContent());
}

}


  • 使用Scanner 用于控制台输入信息,如果单元测试时控制台不能输入,那么进入IDEA的安装目录,修改以下文件。增加最后一行增加-Deditable.java.test.console=true即可。


image.png
image.png




  • 创建ChatMessage对象,用于存放参数,role有user,system,assistant,一般接口返回的响应为assistant角色,我们一般使用user就好。




  • 定义请求参数ChatCompletionRequest,这里我们使用3.1日发布的最新模型gpt-3.5-turbo-0301。具体都有哪些模型大家可以调用v1/model接口查看支持的模型。




  • 之后调用openAiApi.post进行接口的请求,并将请求结果转为JSON对象。取其中的choices字段转为ChatCompletionChoice对象,该对象是存放api返回的具体信息。


    接口返回信息格式如下:


    {
    "id": "chatcmpl-6rNPw1hqm5xMVMsyf6PXClRHtNQAI",
    "object": "chat.completion",
    "created": 1678179420,
    "model": "gpt-3.5-turbo-0301",
    "usage": {
    "prompt_tokens": 16,
    "completion_tokens": 339,
    "total_tokens": 355
    },
    "choices": [{
    "message": {
    "role": "assistant",
    "content": "\n\nI. 介绍数字孪生的概念和背景\n A. 数字孪生的定义和意义\n B. 数字孪生的发展历程\n C. 数字孪生在现代工业的应用\n\nII. 数字孪生的构建方法\n A. 数字孪生的数据采集和处理\n B. 数字孪生的建模和仿真\n C. 数字孪生的验证和测试\n\nIII. 数字孪生的应用领域和案例分析\n A. 制造业领域中的数字孪生应用\n B. 建筑和城市领域中的数字孪生应用\n C. 医疗和健康领域中的数字孪生应用\n\nIV. 数字孪生的挑战和发展趋势\n A. 数字孪生的技术挑战\n B. 数字孪生的实践难点\n C. 数字孪生的未来发展趋势\n\nV. 结论和展望\n A. 总结数字孪生的意义和价值\n B. 展望数字孪生的未来发展趋势和研究方向"
    },
    "finish_reason": "stop",
    "index": 0
    }]
    }



  • 输出对应的信息。




2.3.9.结果演示


image.png


2.4.连续对话实现


2.4.1连续对话的功能实现


基本接口调通之后,发现一次会话之后,没有返回完,输入继续又重新发起了新的会话。那么那么我们该如何实现联系上下文呢?其实只要做一些简单地改动,将每次对话的信息都保存到一个消息列表中,这样问答就支持上下文了,代码如下:


List messages = new ArrayList<>();
@Test
public void createChatCompletion() {
Scanner in = new Scanner(System.in);
String input = in.next();
while (!"exit".equals(input)) {
ChatMessage systemMessage = new ChatMessage(ChatMessageRole.USER.value(), input);
messages.add(systemMessage);
ChatCompletionRequest chatCompletionRequest = ChatCompletionRequest.builder()
.model("gpt-3.5-turbo-0301")
.messages(messages)
.user("testing")
.max_tokens(500)
.temperature(1.0)
.build();
ExecuteRet executeRet = openAiApi.post(PathConstant.COMPLETIONS.CREATE_CHAT_COMPLETION, JSONObject.toJSONString(chatCompletionRequest),
null);
JSONObject result = JSONObject.parseObject(executeRet.getRespStr());
List choices = result.getJSONArray("choices").toJavaList(ChatCompletionChoice.class);
System.out.println(choices.get(0).getMessage().getContent());
ChatMessage context = new ChatMessage(choices.get(0).getMessage().getRole(), choices.get(0).getMessage().getContent());
messages.add(context);
in = new Scanner(System.in);
input = in.next();
}
}

因为OpenAi的/v1/chat/completions接口消息参数是个list,这个是用来保存我们的上下文的,因此我们只要将每次对话的内容用list进行保存即可。


2.4.2结果如下:


image.png


image.png


4.常见问题


4.1.OpenAi接口调用不通


因为https://api.openai.com/地址也被限制了,但是接口没有对地区做校验,因此可以自己搭建一个香港代理,也可以走科学上网。


我采用的是香港代理的模式,一劳永逸,具体代理配置流程如下:



  1. 购买一台香港的虚拟机,反正以后都会用得到,作为开发者建议搞一个。搞活动的时候新人很便宜,基本3年的才200块钱。

  2. 访问nginx.org/download/ng… 下载最新版nginx

  3. 部署nginx并修改/nginx/config/nginx.conf文件,配置接口代理路径如下


server {
listen 19999;
server_name ai;

ssl_certificate /usr/local/nginx/ssl/server.crt;
ssl_certificate_key /usr/local/nginx/ssl/server.key;

ssl_session_cache shared:SSL:1m;
ssl_session_timeout 5m;

ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;

#charset koi8-r;

location /v1/ {
proxy_pass ;
}
}


  1. 启动nginx

  2. 将接口访问地址改为nginx的机器出口IP+端口即可


如果代理配置大家还不了解,可以留下评论我单独出一期教程。


4.2.接口返回401


检查请求方法是否增加token字段以及key是否正确


5.总结


至此JAVA对OpenAI对接就已经完成了,并且也支持连续对话,大家可以在此基础上不断地完善和桥接到web服务,定制自己的ChatGPT助手了。我自己也搭建了个平台,不断地在完善中,具体可见下图,后续会开源出来,想要体验的可以私信我获取地址和账号哈


image.png



作者:王老狮
来源:juejin.cn/post/7208907027841171512
收起阅读 »

虚拟内存优化:线程+多进程优化

在介绍内存的基础知识的时候,我们讲过在 32 位系统上虚拟内存只有 4G,因为有 1G 是给内核使用的,所以留给应用的只有 3G 了。3G 虽然看起来挺多,但依然会因为不够用而导致应用崩溃。为什么会这样呢? 我们在学习 Java 堆的组成时就知道 MainSp...
继续阅读 »

在介绍内存的基础知识的时候,我们讲过在 32 位系统上虚拟内存只有 4G,因为有 1G 是给内核使用的,所以留给应用的只有 3G 了。3G 虽然看起来挺多,但依然会因为不够用而导致应用崩溃。为什么会这样呢?


我们在学习 Java 堆的组成时就知道 MainSpace 会申请 512M 的虚拟内存,LargeObjectSpace 也会申请 512M 的虚拟内存,这就用掉了 1G 的虚拟内存,再加上其他 Space 和段映射申请的虚拟内存,如 bss 段、text 段以及各种 so 库文件的映射等,这样算下来,3G 的虚拟内存就没剩下多少了。


所以,虚拟内存的优化,在提升程序的稳定性上,是一种很重要的方案。虚拟内存的优化手段也有很多,这一章我们主要介绍 3 种优化方案:




  1. 通过线程治理来优化虚拟内存;




  2. 通过多进程架构来优化虚拟内存;




  3. 通过一些“黑科技”手段来优化虚内存。




方案 1 和 2 相对简单但效果更佳,投入产出比最高,也是我们最常用的。而方案 3 是通过多个“黑科技”的手段来完成虚拟内存的优化,这些手段虽然属于“黑科技”,但还是会用到我们学过的 Native Hook 等技术,所以你理解、吸收起来并不会很难。


那今天我们先介绍 方案 1 和 方案 2 ,方案 3 会在下一章节单独介绍,下面就开始这一章的学习吧。


线程治理


首先,为什么治理线程能优化虚拟内存呢?实际上,即使是一个空线程也会申请 1M 的虚拟空间来作为栈空间大小,我们可以分析 Thread 创建的源码来验证这一点。同时,对线程创建的分析,也能让你能更好的理解后面的优化方案。


线程创建流程


当我们使用线程执行任务时,通常会先调用 new Thread(Runnable runnable) 来创建一个 Thread.java 对象的实例,Thread 的构造函数中会将 stackSize 这个变量设置为 0,这个 stackSize 变量决定了线程栈大小,接着我们便会执行 Thread 实例提供的 start 方法运行这个线程,start 方法中会调用 nativeCreate 这个 Native 函数在系统层创建一个线程并运行。


Thread(ThreadGroup group, String name, int priority, boolean daemon) {
……
this.stackSize = 0;
}

public synchronized void start() {
if (started)
throw new IllegalThreadStateException();
group.add(this);
started = false;
try {
nativeCreate(this, stackSize, daemon);
started = true;
} finally {
try {
if (!started) {
group.threadStartFailed(this);
}
} catch (Throwable ignore) {

}
}
}

通过上面 Start 函数的源码可以看到,nativeCreate 会传入 stackSize。你可能想问,这个 stackSize 不是决定了线程栈空间的大小吗?但是它现在的值为 0,那前面为什么说线程有 1M 大小的栈空间呢?我们接着往下看就能知道答案了。


我们接着看 nativeCreate 的源码实现(),它的实现类是 java_lang_Thread.cc


static void Thread_nativeCreate(JNIEnv* env, jclass, jobject java_thread, jlong stack_size, jboolean daemon) {
Runtime* runtime = Runtime::Current();
if (runtime->IsZygote() && runtime->IsZygoteNoThreadSection()) {
jclass internal_error = env->FindClass("java/lang/InternalError");
CHECK(internal_error != nullptr);
env->ThrowNew(internal_error, "Cannot create threads in zygote");
return;
}

Thread::CreateNativeThread(env, java_thread, stack_size, daemon == JNI_TRUE);
}

nativeCreate 会执行 Thread::CreateNativeThread 函数,这个函数才是最终创建线程的地方,它的实现在 Thread.cc 这个对象中,并且在这个函数中会调用 FixStackSize 方法将 stack_size 调整为 1M,所以前面那个疑问在这里就解决了,即使我们将 stack_size 设置为 0,这里依然会被调整。我们继续往下分析,看看一个线程究竟是怎样被创建出来的?


void Thread::CreateNativeThread(JNIEnv* env, jobject java_peer, size_t stack_size, bool is_daemon) {
……
// 调整 stack_size,默认值为 1 M
stack_size = FixStackSize(stack_size);
……

if (child_jni_env_ext.get() != nullptr) {
pthread_t new_pthread;
pthread_attr_t attr;
child_thread->tlsPtr_.tmp_jni_env = child_jni_env_ext.get();
CHECK_PTHREAD_CALL(pthread_attr_init, (&attr), "new thread");
CHECK_PTHREAD_CALL(pthread_attr_setdetachstate, (&attr, PTHREAD_CREATE_DETACHED),
"PTHREAD_CREATE_DETACHED");
CHECK_PTHREAD_CALL(pthread_attr_setstacksize, (&attr, stack_size), stack_size);
// 创建线程
pthread_create_result = pthread_create(&new_pthread,
&attr,
Thread::CreateCallback,
child_thread);
CHECK_PTHREAD_CALL(pthread_attr_destroy, (&attr), "new thread");

if (pthread_create_result == 0) {
child_jni_env_ext.release(); // NOLINT pthreads API.
return;
}
}

……
}

在上面简化后的代码中我们可以看到,CreateNativeThread 的源码实现最终调用的是 pthread_create 函数,它是一个 Linux 函数,而 pthread_create 函数最终会调用 clone 这个内核函数。clone 函数会根据传入的 stack 大小,通过 mmap 函数申请一块对应大小的虚拟内存,并且创建一个进程。


int clone(int (*fn)(void * arg), void *stack, int flags, void *arg);

所以,对于 Linux 系统来说,一个线程实际是一个精简的进程。我们创建线程时,最终会执行 clone 这个内核函数去创建一个进程,通过查看官方文档也能看到,Clone 函数实际上会创建一个新的进程(These system calls create a new ("child") process, in a manner similar to fork)。


image.png


这里我就不继续深入介绍 Linux 中线程的原理了,如果你有兴趣可以参考这篇文章 《掌握 Android 和 Java 线程原理》。


除了通过线程的创建流程可以证明一个线程需要占用 1M 大小的虚拟内存,我们还能在 maps 文件中证明这一点,还是拿前面篇章提到的“设置”这个系统应用的 maps 文件为例,也能发现 anno:stack_and_tls 也就是线程的虚拟内存,大小为 1M 左右。


image.png


理解了一个线程会占用 1M 大小的虚拟内存,我们自然而然也能想到通过减少线程的数量和减少每个线程所占用的虚拟内存大小来进行优化。接下来,我们就详细了解一下如何实现这两种方案。


减少线程数量


首先是减少线程的数量,我们主要有 2 种手段:




  1. 在应用中使用统一的线程池;




  2. 将应用中的野线程及野线程池进行收敛。




Java 开发者应该都知道线程池,但有的人认知可能不深。实际上,线程池是非常重要的知识点,需要我们熟悉并能熟练使用的。线程池对应用的性能提升有很大的帮助,它可以帮助我们更高效和更合理地使用线程,提升应用的性能。但这里就不详细介绍线程池的使用了,在后面的章节中我们会深入来讲线程池的使用。如果你不熟悉线程池,那我建议你尽快熟悉起来,这里主要针对如何减少线程数这个方向,介绍一下线程池中线程数量的最优设置。


对于线程池,我们需要手动设置核心线程数和最大线程数。核心线程是不会退出的线程,被线程池创建之后会一直存在。最大线程数是该线程池最大能达到的线程数量,当达到最大线程数后,线程池处理新的任务便当做异常,放在兜底逻辑中处理。那么,这两个线程数设置成多少比较合适呢?这个问题也经常作为面试题,需要引起注意。


线程池可以分为 CPU 线程池和 IO 线程池,CPU 线程池用来处理 CPU 类型的任务,如计算,逻辑等操作,需要能够迅速响应,但任务耗时又不能太久。那些耗时较久的任务,如读写文件、网络请求等 IO 操作便用 IO 线程池来处理,IO 线程池专门处理耗时久,响应又不需要很迅速的任务。因此,对于 CPU 的线程池,我们会将核心线程数设置为该手机的 CPU 核数,理想状态下每一个核可以运行一个线程,这样能减少 CPU 线程池的调度损耗又能充分发挥 CPU 性能。


至于 CPU 线程池的最大线程数,和核心线程数保持一致即可。 因为当最大线程数超过了核心线程数时,反倒会降低 CPU 的利用率,因为此时会把更多的 CPU 资源用于线程调度上,如果 CPU 核数的线程数量无法满足我们的业务使用,很大可能就是我们对 CPU 线程池的使用上出了问题,比如在 CPU 线程中执行了 IO 阻塞的任务。


对于 IO 线程池,我们通常会将核心线程数设置为 0 个,而且 IO 线程池并不需要响应的及时性,所以将常驻线程设置为 0 可以减少该应用的线程数量。但并不是说这里一定要设置为 0 个,如果我们的业务 IO 任务比较多,这里也可以设置为不大于 3 个数量。对于 IO 线程池的最大线程数,则可以根据应用的复杂度来设置,如果是中小型应用且业务较简单设置 64 个即可,如果是大型应用,业务多且复杂,可以设置成 128 个


可以看到,如果业务中所有的线程都使用公共线程池,那即使我们将线程的数量设置得非常宽裕,所有线程加起来所占用的虚拟内存也不会超过 200 M。但现实情况下是,应用中总会有大量地方不遵守规范,独自创建线程或者线程池,我们称之为野线程或者野线程池。那如何才能收敛野线程和野线程池呢?


对于简单的应用,我们一个个排查即可,通过全局搜索 new Thread() 线程创建代码,以及全局搜索 newFixedThreadPool 线程池创建代码,然后将不合规范的代码,进行修改收敛进公共线程池即可。


但如果是一个中大型应用,还大量使用了二方库、三方库和 aar 包等,那全局搜索也不管用了,这个时候就需要我们使用字节码操作的方式了,技术方案还是前面文章介绍过的 Lancet,通过 hook 住 newFixedThreadPool 创建线程池的函数,并在函数中将线程池的创建替换成我们公共的线程池,就能完成对线程池的收敛。


public class ThreadPoolLancet {

@TargetClass("java.util.concurrent.Executors")
@Proxy(value = "newFixedThreadPool")
public static ExecutorService newFixedThreadPool(int nThreads, ThreadFactory threadFactory) {
// 替换并返回我们的公共线程池
……
}

@TargetClass("java.util.concurrent.Executors")
@Proxy(value = "newFixedThreadPool")
public static ExecutorService newFixedThreadPool(int nThreads) {
// 替换并返回我们的公共线程池
……
}
}

收敛完了野线程池,那直接使用 new Thread() 创建的野线程又该怎么收敛呢? 对于三方库中的野线程,我们没有太好的收敛手段,因为即使 Thread 的构造函数被 hook 住了,也不能将其收敛到公共线程池中。好在我们使用的三方库大都已经很成熟并经过大量用户验证过,直接使用野线程的地方会很少。我们可以采用 hook 住 Thread 的构造函数并打印堆栈的方式,来确定这个线程是不是通过线程池创建出来的,如果三方库中确实有大量的野线程,那么我们只能将源码下载下来之后手动修改了。


减少线程占用的虚拟内存


在刚才讲解 CreateNativeThread 源码的时候我们讲过,该函数会执行 FixStackSize 方法将 stack_size 调整为 1M。那结合前面各种 hook 的案例,我们很容易就能想到,通过 hook FixStackSize 这个函数,是不是可以将 stack_size 的从 1M 减少到 512 KB 了呢? 当时是可以的,但是这个时候我们没法通过 PLT Hook 的方案来实现了,而是要通过 Inline Hook 方案实现,因为 FixStackSize 是 so 库内部函数的调用,所以只有 FixStackSize 才能实现。


那如果我们想用 PLT Hook 方案来实现可以做到么?其实也可以。CreateNativeThread 是位于 libart.so 中的函数,但是 CreateNativeThread 实际是调用 pthread_create 来创建线程的,而 pthread_create 是位于 libc.so 库中的函数,如果在 CreateNativeThread 中调用 pthread_create ,同样需要通过走 plt 表和 got 表查询地址的方式,所以我们通过 bhook 工具 hook 住 libc.so 库中的 pthread_create 函数,将入参 &attr 中的 stack_size 直接设置成 512KB 即可,实现起来也非常简单,一行代码即可。


static int AdjustStackSize(pthread_attr_t const* attr) {
pthread_attr_setstacksize(attr, 512 * 1024);
}

至于如何 hook 住 pthread_create 这个函数的方法也非常简单,通过 bhook 也是一行代码就能实现,前面的篇章已经讲过怎么使用了,所以这个方案剩下的部分就留给你自己去实践啦。


除了 Native Hook 方案,我们还能在 Java 层通过字节码操作的方式来实现该方案。stack_size 不就是通过 Java 层传递到 Native 层嘛,那我们直接在 Java 层调整 stack_size 的大小就可以了,但在这之前之前,要先看看在 FixStackSize 函数中是如何调整 stack_size 大小的。


static size_t FixStackSize(size_t stack_size) {

if (stack_size == 0) {
stack_size = Runtime::Current()->GetDefaultStackSize();
}

stack_size += 1 * MB;

……

return stack_size;
}

FixStackSize 函数的源码实现很简单,就是通过 stack_size += 1 * MB 来设置 stack_size 的:如果我们传入的 stack_size 为 0 时,默认大小就是 1 M ;如果我们传入的 stack_size 为 -512KB 时,stack_size 就会变成 512KB(1M - 512KB)。那我们是不是只用带有 stackSize 入参的构造函数去创建线程,并且设置 stackSize 为 -512KB 就行了呢?


public Thread(ThreadGroup group, Runnable target, String name,
long stackSize)
{
this(group, target, name, stackSize, null, true);
}

是的,但是因为应用中创建线程的地方太多很难一一修改,而且我们实际不需要这样去修改。前面我们已经将应用中的线程全部收敛到公共线程池中去创建了,所以只需要修改公共线程池中创建的线程方式就可以了,并且线程池刚好也可以让我们自己创建线程,那只需要传入自定义的 ThreadFactory 就能实现需求。


image.pngimage.png

在我们自定义的 ThreadFactory 中,创建 stack_size 为 - 512 kb 的线程,这么一个简单的操作就能减少线程所占用的虚拟内存。


image.png


当我们将应用中线程栈的大小全改成 512 kb 后,可能会导致一些任务比较重的线程出现栈溢出,此时我们可以通过埋点收集会栈溢出的线程,不修改这部分线程的大小即可。总的来说,这是一个容易落地且投入产出比高的方案。


通过上面的方案介绍,我们也可以看到,减少一个线程所占用的虚拟内存的方案很多,可以通过 Native Hook,也可以通过 Java 代码直接修改。我们在做业务或者性能相关的工作时,往往都有多个实现方案,但是我们在敲定最终方案时,始终要选择最简单、最稳定且投入产出比最高的方案。


多进程架构优化


在 Java 堆内存优化中,我们已经讲到了可以通过多进程优化,那对于虚拟内存,我们依然可以通过多进程的架构来优化。比如说,下面这些业务我都建议你放在独立的进程中:




  1. WebView 相关的业务




  2. 小程序相关的业务




  3. Flutter 相关的业务




  4. RN 相关的业务




这些业务都是虚拟内存占用的大户,用独立的进程来承载,会减少很多虚拟内存的占用,也会减少相应的异常情况。并且,将这些业务放在子进程中也很简单,只需要在承载这些业务的 activity 的 mainfest 配置文件中添加 android:process = "子进程名" 即可。需要注意的是,如果我们把业务放在子进程,就没法直接和主进程通信了,需要借助 Binder 跨进程通信的方式来完成。


当然,你还可能会担心把这些业务放在独立进程后,会影响这些业务的启动速度,其实这都可以通过各种优化方案来解决,比如预启动子进程等。在后面速度提升优化的章节中,我们会进行详细讲解。


小结


这一节课我们介绍了两种虚拟内存优化方案,如下图:


image.png


这两种优化方案相对简单,容易落地,投入产出比高。对于一个中小型应用来说,这两个方案几乎能保证 32 位手机上有足够可用的虚拟内存了。如果这两个方案落地后,还是会有因虚拟内存不足导致的应用崩溃问题,我们就需要接着用“黑科技”手段来进行优化了,所以在下一篇文章中,会接着带大家看看有哪些“黑科技”可以用在虚拟内存优化上,它们又能带来什么样的效果!


作者:helson赵子健
来源:juejin.cn/post/7209306358582853688
收起阅读 »

如何取消 script 标签发出的请求

web
问题 之前在业务上有这样一个场景,通过 script 标签动态引入了一个外部资源,具体方式是这样的 const script = document.createElement('script'); script.src = 'xxx'; script.asyn...
继续阅读 »

问题


之前在业务上有这样一个场景,通过 script 标签动态引入了一个外部资源,具体方式是这样的


const script = document.createElement('script');
script.src = 'xxx';
script.async = true;
document.body.appendChild(script);

最近发现在某些情况下需要取消这个请求,因此对取消script标签发出的请求的方法进行研究。


取消请求的几种方式


取消 XMLHttpRequest 请求


// 发送请求
const xhr = new XMLHttpRequest();
xhr.open('GET', url, true);
xhr.send();
// 1s后取消请求的两种方法
// a. 设置超时时间属性,在 IE 中,超时属性可能只能在调用 open()方法之后且在调用 send()方法之前设置。
xhr.timeout = 1000;
// b. 利用abort方法
setTimeout(() => {
xhr.abort();
}, 1000);

取消 fetch 请求


fetch请求的取消主要依赖于AbortController对象,当fetch 请求初始化时,我们将 AbortSignal 作为一个选项传递进入请求的选项对象中(下面的 {signal})。


const controller = new AbortController();
fetch(url, { signal: controller.signal });
// 1s后取消请求
setTimeout(() => {
controller.abort();
}, 1000);

取消 axios 请求


取消 axios 请求同样依赖于 AbortController 对象。


const controller = new AbortController();
axios.get(url, { signal: controller.signal });
// 1s后取消请求
setTimeout(() => {
controller.abort();
}, 1000);

取消使用script标签


通过对网上的资料进行整理,并没有发现直接取消 script 标签发起的请
求的方法。并且当请求发出后对 script 进行的操作(如删除 dom 节点)也不会造成影响。那么能不能将 script 发起的请求改为使用以上三种方法之一来实现呢?


改为 fetch 方法


我首先尝试了 fetch 方法。通过使用 fetch 方法对网址进行请求,我发现请求得到的类型是一个 ReadableStream 对象。
image.png
MDN上提供了一种方法可以获取到 ReadableStream 对象中的内容:


fetch('https://www.example.org')
.then((response) => response.body)
.then((rb) => {
const reader = rb.getReader();
return new ReadableStream({
start(controller) {
// The following function handles each data chunk
function push() {
// "done" is a Boolean and value a "Uint8Array"
reader.read().then(({ done, value }) => {
// If there is no more data to read
if (done) {
console.log('done', done);
controller.close();
return;
}
// Get the data and send it to the browser via the controller
controller.enqueue(value);
// Check chunks by logging to the console
console.log(done, value);
push();
});
}
push();
},
});
})
.then((stream) =>
// Respond with our stream
new Response(stream, { headers: { 'Content-Type': 'text/html' } }).text()
)
.then((result) => {
// Do things with result
console.log(result);
});

使用这种方法我就通过 fetch 方法获取到了原来 script 标签请求的内容,也就可以使用 AbortController 来控制请求的取消。


改为 XMLHttpRequest 方法


尝试使用 fetch 方法解决问题之后,我又对 XMLHttpRequest 进行了尝试,发现这种方法更加简便,获取的请求内包含一个 responseText 字段就是我需要的内容,并且在请求未成功或尚未发送的情况下这个值为 null ,也就更方便进行请求是否成功的判断。


结论


对于 script 标签发出的请求我们无法取消,但是我们可以通过其他的方法来达到 script 标签的效果,因为 XMLHttpRequest 已经足够简便,我就没有对 axios 进行尝试,相信也肯定可以达到同样的目标,有兴趣的同学可以尝试一下。


作者:Maaarch
来源:juejin.cn/post/7208092574162419770
收起阅读 »

鹅厂七年半,写在晋升失败的不眠之夜

夜半惊醒 看了下时间,凌晨4:37,辗转反侧。3.7号大领导告诉我这次10升11没通过,这是我知道晋级失败的第4个夜晚,从震惊到否认,到愤怒,到麻木,再到冷静。我的技术能力、思考深度、攻坚能力明明是小组里突出的一个,但在此次技术职级的晋升上,却名落孙山,落在同...
继续阅读 »

夜半惊醒


看了下时间,凌晨4:37,辗转反侧。3.7号大领导告诉我这次10升11没通过,这是我知道晋级失败的第4个夜晚,从震惊到否认,到愤怒,到麻木,再到冷静。我的技术能力、思考深度、攻坚能力明明是小组里突出的一个,但在此次技术职级的晋升上,却名落孙山,落在同组小伙伴之后。技术人员,终究困于技术的窠臼。


工作经历


浑浑噩噩的四年


我毕业就进入鹅厂工作,15年,正是鹅厂大杀四方的一年,至今犹记得当时拿到鹅厂 offer 时的兴奋和同学眼中的艳羡。来了公司后,跟着项目组开始创新项目,一眼望到头的挣不来钱,浑浑噩噩的干了3年,和一起进公司的小伙伴们收入差距越来越大。


好在我的驱力不错,既然挣不到钱,那就好好积累技术能力,提升自己。那段时间,周围没有伙伴,没有对比,没有好的机会,只剩下我一个人慢慢悠悠的学习积累,我以为自己足够努力,没有荒废时间;后来才发现自己其实是井底之蛙,一起入职的小伙伴付出了百倍的努力和数不清的不眠之夜,1年多就已经能 cover 当时的业务了,没过2年就已经提干了。


2018年底,我满怀信心去答辩后台 3.1,没过。我当时还觉得评委装逼,挑刺,后来回头看写的都是s,一点含量都没有。


时来运转


2019年3月,答辩刚结束。部门业务调整,我们被整组划到了一个相对挣钱的业务上,leader 也调整成后台 leader。


新业务还是挣钱,凭着第一个项目积累的技术和项目经验,我得到了新领导的认可,第一年干的轻轻松松就挣到了远远超出之前的收入,和之前累死累活拿温饱线形成鲜明对比,可见大厂里跟对项目是多么的重要。


只是没想到第一年就是巅峰,后面随着贸易战、反垄断,鹅厂形势越来越差,我们业务收入也受到极大影响,人员也越来越冗余。挣的钱少了,分蛋糕的人还多了,可想而知,收入越来越差。


在这里,我成功从8级升到了10级工程师。说起来我们这一届实名惨,第一批毕业要等1年才能晋级,最后一批8升9需要公司范围内通道评审,第一批9升10走BG内评审,第一批10升11走部门内评审,全程试验品,一样没落下。


10升11


去年年底公司晋升改革,10升11评审下放部门,职级和待遇不再挂钩,不仅看重”武功“,还看中”战功“,同时传闻这次晋升名额极少。大领导找我谈话,要不就别去了?我想了想这两年的技术和项目积累,不甘心。


整个中心,就我和同组的小伙伴两个人一起去,我挑的是个一直在做的有技术挑战、持续优化的项目,小伙伴挑的是挣钱的项目。我准备了几个周末,小伙伴临时抱佛脚,结果小伙伴过了,我没过。评委说,我过度设计(优化过头)、没有实战演练容灾。


我和大领导说这个和我预期差太多了,我和小伙伴一起预答辩过,都知道讲的啥,咱是技术评审,我的项目技术含量、架构和挑战明明更好,为啥是我没过?大领导说你是认知偏差,人家讲的确实好。不忿,遂找评委 battle,咱要真按这个说法,能不能对参加评审的项目一致对待,不要双标?且不说我是不是过度设计,凭啥对我的项目就要求容灾演练,对别人的项目就视而不见?评委不语,你的项目对部门价值没产生什么收益和价值。


部门400+人,4个晋升11级名额,大概率是一个中心一个。一个技术评审,糅合了许多超过技术方面的考量,业务挣不挣钱和技术有啥关系?技术好的业务就能挣钱?业务挣钱多的是技术好的原因?


我以前也晋级失败过,但是我认输,因为相对而言,整个BG一起评审,你没过就是你技术差,其他因素影响没有这么大。这次明明是我更有技术深度、更投心思在优化上,却事与愿违。


反思与感悟


反思一下。千头万绪,毛主席说,那是没有抓住主要矛盾。


大的方面上讲:这两年大环境差,公司收入减少,需要降本增效。我要是管理层,也会对内部薪资成本、晋升等要求控制增速;政策制定上,也会将资源更倾斜于现金流业务,控制亏损业务的支出。在这个大的背景下,公司不愿意养“能力强,战功少”的技术骨干了;更愿意养“能力强,战功多”的人员。希望员工把精力都聚焦在业务挣钱上。


部门层面上讲:和公司政策一脉相承。晋升名额少,那紧着挣钱的中心、挣钱的小组、挣钱的个人给。这个意义上讲,职级体系已经不是衡量技术能力的标尺了。你技术能力强,没用。你得是核心,得是领导认可的人。


中心层面上讲:要争取名额,否则怎么团结手底下人干活。而且名额要给业务干活干的最出色的那个人,其他人就往后稍稍。我要是我领导,年前也会劝退我的。毕竟我技术能力虽然强,更多的是问题专家的角色,而不是业务核心。


且预测一下,中心之间肯定进行了各种资源置换。评审估计流于形式。慢说我被挑出来了问题,就是挑不出来问题也得给你薅下来。我就是和小伙伴互换项目去讲,估计还是小伙伴过,到时候评委就该说我“你做这东西有啥难度,我叫个毕业生都能来做”了。此处我想起了一副对联,不太合适,就是很搞笑。“说你行你就行不行也行,说你不行你就不行行也不行”,横批是“不服不行”。



从个人角度讲,付出和收获不成正比,难受吗?那肯定的。但谁让方向一开始就错了呢?这世界不公平的事情多了,不差这一个。



重新出发


综上来说,短期内,不改变发力方向到业务上,后面可以说晋升无望。以前老是觉得自己技术能力强,心高气傲,心思没在业务上,勤于术而懒于道,实在是太过幼稚。做了几年都对很多东西不甚了了。


今后,需要趁着还能拼的时候拼一下,潜心业务。编码和开发只是很小一部分,更要从:



  1. 业务大局出发,实时数据驱动,监控、统计一定要完善,要有看板,否则无法衡量。

  2. 主动探索业务,给产品经理出主意,一起合力把产品做上去做大,提升对业务的贡献,探索推荐、探索推广渠道等等。产品做不上去,个人也没机会发展。

  3. 多做向上管理,和领导、大领导多沟通。做好安排的每一件小事,同时主动汇报,争取重获信任。

  4. 主动承担,做一个领导眼里靠谱放心的人。

  5. 多思考总结,多拔高提升,不要做表面的勤奋工作,看似没有浪费时间,实则每分每秒都在浪费时间。

  6. 多社交,多沟通,多交流,打破技术人员的牢笼。


凡事都有两面性,福兮祸所依,祸兮福所倚。多受挫折、早受挫折不是坏事。


2023,就立个

作者:醉梦星河
来源:juejin.cn/post/7208907027840630840
flag 在这里吧。

收起阅读 »

又干倒一家公司,我悟了

目前这家公司由于是政府项目,好多项目周期过长,未能及时回款,导致资金链断裂,摇摇欲坠,开始裁员。虽然由于项目资源稀缺,需要我,不至于裁到我头上,但是生存压力迫使我看向了外边,很快决定了入职新公司,同事请领导们吃散伙饭,有被裁的大佬,有留下的,有主动辞职的,各自...
继续阅读 »

目前这家公司由于是政府项目,好多项目周期过长,未能及时回款,导致资金链断裂,摇摇欲坠,开始裁员。虽然由于项目资源稀缺,需要我,不至于裁到我头上,但是生存压力迫使我看向了外边,很快决定了入职新公司,同事请领导们吃散伙饭,有被裁的大佬,有留下的,有主动辞职的,各自怀着复杂的心情,聊了几个小时,现总结一下,作为教训:


1. 技术方面



  • 谨慎对待新技术,技术路线要有延续性,做大版本更新,而不是每个项目都尝试新的路线方案。

  • 小项目,以高复用和快速实现为首要目的,不频繁更换框架。


2. 需求方面



  • 以产品或项目的需求导向而不是以技术为纲。

  • 需求方也许不懂要什么,产品去引导,简单到复杂,别把自己带进技术化和复杂化的迷宫。

  • 有些急的项目前期可以快速简单实现,先验证,而不是等原型、设计,错失良机。


3. 人员方面



  • 主要技术领导别追求完美,要控主方向和整体,而不是较真细节。

  • 十个项目一个成,架构师们歇歇吧,杀鸡不兴用牛刀,尽可能简单实现,别整太复杂的框架和路线。

  • 团队内聚,可以将产品、测试长期配置到各开发团队,减少成本矛盾和沟通问题。

  • boss需要及时频繁的与主要领导沟通,定方向,放大权,用人不疑。


4. 企业管理方面



  • 切忌盲目自信,疯狂扩张团队,利润和成本须同步,不能因短期项目招兵买马。

  • 适时而果断拿起手术刀,坚决断臂求生,及时且合规地删减人员,要有人情但不能妇人之仁、拖泥带水,对个体和公司都好。


最后,警惕以上问题,期待自己尽快找到更

作者:Adam289
来源:juejin.cn/post/7208534700223184951
明确的方向,去奋斗!

收起阅读 »

28岁小公司程序员,无车无房不敢结婚,要不要转行?

大家好,这里是程序员晚枫,又来分享程序员的职场故事了~ 今天分享的这位朋友叫小青,我认识他2年多了。以前从事的是土木行业,2年前找我咨询转行程序员的学习路线和职业规划后,通过自学加入了一家创业公司,成为了一名Java开发。 **最近他遇到了新的职业上的困惑,又...
继续阅读 »

大家好,这里是程序员晚枫,又来分享程序员的职场故事了~


今天分享的这位朋友叫小青,我认识他2年多了。以前从事的是土木行业,2年前找我咨询转行程序员的学习路线和职业规划后,通过自学加入了一家创业公司,成为了一名Java开发。


**最近他遇到了新的职业上的困惑,又找我聊了一下,我也没想到好的解决方法,**大家可以一起看一下~下面是沟通的核心内容。


1、他的问题


小青是中原省份省会城市的大专毕业,毕业季就去了帝都实习和工作。后来发现同学中有转行程序员的,薪资很诱惑,所以就找到我咨询如何学习和转行,现在一家帝都创业公司负责后端开发。工资1w出头。


今年已经28岁了,有一个女朋友,最近女方家里催他结婚,他自己也有结婚的意愿。但是考虑到自己人在大城市,无车无房,创业公司的工作也不稳定,以后吃住花销,结婚后养孩子的花销,再看看自己1w多的工资,女朋友做财务,一个月到手不到1w。


双方家里也都是普通家庭,给不了什么实质的资助,靠自己目前的收入根本不敢想象成家后压力有多大。


所以目前非常迷茫, 不知道自己在28岁这个年龄应该怎么办,应不应该成家?应该怎样提高收入?


虽然自己很喜欢程序员这份工作,但是感觉自己学历不好,天花板有限,程序员还能继续干下去吗?


2、几个建议


平时收到后台读者的技术问题或者转行的困惑,我都会尽力给一些详尽的回复。


但是这次听到小青的问题,说实话,我也不知道该说什么。


在28岁这种黄金年龄,想去大城市奋斗一番也是人之常情,但因为现实的生活压力,却不得不面临着选择离开大城市或者转行到自己不喜欢但是更务实的职业里去。


如果想继续留在帝都,我能想到的有以下几个办法:



  • 首先,如果想继续从事程序员工作,努力提高收入。最快的办法就是跳槽,已经工作2年多了,背一背八股文,总结一下项目经验,应该是可以跳槽到一家更好的公司了。

  • 其次,探索另一个副业收入,例如自媒体。因为我自己就是通过在各个平台开通了自媒体账号:程序员晚枫,分享自己的程序员学习经验获得粉丝,进而得到自媒体收入的。小青也可以实事求是的分享一下自己大专毕业从建筑工作转行到程序员的经验,应该也能帮助到别人。

  • 最后,努力提高学历,想继续在程序员这行卷出高收入,趁着年轻,获得一个本科或者本科以上的学历还是很有帮助的。


受限于自己的经验,我只能给出以上几个建议了。


大家还有什么更有效的建议,欢迎在评论区交流~


3、写在最后


说句题外话,很多人都觉得程序员工资高想来转行,但其实程序员和其它行业一样,高收入的只是一小部分,而且那部分人既聪明又努力。


最重要的是,高收入的那部分人里,大部分都不是转行的,而是在一个专业深耕了多年,最终获得了应有的报酬。


无意冒犯,但听完小青的经历,我依然要给大专以下,想转行程序员拿高薪的朋友提个醒:如果不是十分热爱,请务必三思~


作者:程序员晚枫
来源:juejin.cn/post/7209447968218841144
收起阅读 »

项目中多级缓存设计实践总结

缓存的重要性 简而言之,缓存的原理就是利用空间来换取时间。通过将数据存到访问速度更快的空间里以便下一次访问时直接从空间里获取,从而节省时间。 我们以CPU的缓存体系为例: CPU缓存体系是多层级的。分成了CPU -> L1 -> L2 ->...
继续阅读 »

缓存的重要性


简而言之,缓存的原理就是利用空间来换取时间。通过将数据存到访问速度更快的空间里以便下一次访问时直接从空间里获取,从而节省时间。

我们以CPU的缓存体系为例:


图片.png


CPU缓存体系是多层级的。分成了CPU -> L1 -> L2 -> L3 -> 主存。我们可以得到以下启示。



  • 越频繁使用的数据,使用的缓存速度越快

  • 越快的缓存,它的空间越小


而我们项目的缓存设计可以借鉴CPU多级缓存的设计。


关于多级缓存体系实现在开源项目中:github.com/valarchie/A…


缓存分层


首先我们可以给缓存进行分层。在Java中主流使用的三类缓存主要有:



  • Map(原生缓存)

  • Guava/Caffeine(功能更强大的内存缓存)

  • Redis/Memcached(缓存中间件)


在一些项目中,会一刀切将所有的缓存都使用Redis或者Memcached中间件进行存取。

使用缓存中间件避免不了网络请求成本和用户态和内核态的切换。 更合理的方式应该是根据数据的特点来决定使用哪个层级的缓存。


Map(一级缓存)


项目中的字典类型的数据比如:性别、类型、状态等一些不变的数据。我们完全可以存在Map当中。

因为Map的实现非常简单,效率上是非常高的。由于我们存的数据都是一些不变的数据,一次性存好并不会再去修改它们。所以不用担心内存溢出的问题。 以下是关于字典数据使用Map缓存的简单代码实现。


/**
* 本地一级缓存 使用Map
*
* @author valarchie
*/
public class MapCache {
private static final Map<String, List<DictionaryData>> DICTIONARY_CACHE = MapUtil.newHashMap(128);

static {
initDictionaryCache();
}

private static void initDictionaryCache() {

loadInCache(BusinessTypeEnum.values());
loadInCache(YesOrNoEnum.values());
loadInCache(StatusEnum.values());
loadInCache(GenderEnum.values());
loadInCache(NoticeStatusEnum.values());
loadInCache(NoticeTypeEnum.values());
loadInCache(OperationStatusEnum.values());
loadInCache(VisibleStatusEnum.values());

}

public static Map<String, List<DictionaryData>> dictionaryCache() {
return DICTIONARY_CACHE;
}

private static void loadInCache(DictionaryEnum[] dictionaryEnums) {
DICTIONARY_CACHE.put(getDictionaryName(dictionaryEnums[0].getClass()), arrayToList(dictionaryEnums));
}

private static String getDictionaryName(Class<?> clazz) {
Objects.requireNonNull(clazz);
Dictionary annotation = clazz.getAnnotation(Dictionary.class);

Objects.requireNonNull(annotation);
return annotation.name();
}

@SuppressWarnings("rawtypes")
private static List<DictionaryData> arrayToList(DictionaryEnum[] dictionaryEnums) {
if(ArrayUtil.isEmpty(dictionaryEnums)) {
return ListUtil.empty();
}
return Arrays.stream(dictionaryEnums).map(DictionaryData::new).collect(Collectors.toList());
}
}

Guava(二级缓存)


项目中的一些自定义数据比如角色,部门。这种类型的数据往往不会非常多。而且请求非常频繁。比如接口中经常要校验角色相关的权限。我们可以使用Guava或者Caffeine这种内存框架作为二级缓存使用。

Guava或者Caffeine的好处可以支持缓存的过期时间以及缓存的淘汰,避免内存溢出。

以下是利用模板设计模式做的GuavaCache模板类。


/**
* 缓存接口实现类 二级缓存
* @author valarchie
*/
@Slf4j
public abstract class AbstractGuavaCacheTemplate<T> {

private final LoadingCache<String, Optional<T>> guavaCache = CacheBuilder.newBuilder()
// 基于容量回收。缓存的最大数量。超过就取MAXIMUM_CAPACITY = 1 << 30。依靠LRU队列recencyQueue来进行容量淘汰
.maximumSize(1024)
// 基于容量回收。但这是统计占用内存大小,maximumWeight与maximumSize不能同时使用。设置最大总权重
// 没写访问下,超过5秒会失效(非自动失效,需有任意put get方法才会扫描过期失效数据。但区别是会开一个异步线程进行刷新,刷新过程中访问返回旧数据)
.refreshAfterWrite(5L, TimeUnit.MINUTES)
// 移除监听事件
.removalListener(removal -> {
// 可做一些删除后动作,比如上报删除数据用于统计
log.info("触发删除动作,删除的key={}, value={}", removal.getKey(), removal.getValue());
})
// 并行等级。决定segment数量的参数,concurrencyLevel与maxWeight共同决定
.concurrencyLevel(16)
// 开启缓存统计。比如命中次数、未命中次数等
.recordStats()
// 所有segment的初始总容量大小
.initialCapacity(128)
// 用于测试,可任意改变当前时间。参考:https://www.geek-share.com/detail/2689756248.html
.ticker(new Ticker() {
@Override
public long read() {
return 0;
}
})
.build(new CacheLoader<String, Optional<T>>() {
@Override
public Optional<T> load(String key) {
T cacheObject = getObjectFromDb(key);
log.debug("find the local guava cache of key: {} is {}", key, cacheObject);
return Optional.ofNullable(cacheObject);
}
});

public T get(String key) {
try {
if (StrUtil.isEmpty(key)) {
return null;
}
Optional<T> optional = guavaCache.get(key);
return optional.orElse(null);
} catch (ExecutionException e) {
log.error("get cache object from guava cache failed.");
e.printStackTrace();
return null;
}
}

public void invalidate(String key) {
if (StrUtil.isEmpty(key)) {
return;
}

guavaCache.invalidate(key);
}

public void invalidateAll() {
guavaCache.invalidateAll();
}

/**
* 从数据库加载数据
* @param id
* @return
*/
public abstract T getObjectFromDb(Object id);
}

我们将getObjectFromDb方法留给子类自己去实现。以下是例子:


/**
* @author valarchie
*/
@Component
@Slf4j
@RequiredArgsConstructor
public class GuavaCacheService {

@NonNull
private ISysDeptService deptService;

public final AbstractGuavaCacheTemplate<SysDeptEntity> deptCache = new AbstractGuavaCacheTemplate<SysDeptEntity>() {
@Override
public SysDeptEntity getObjectFromDb(Object id) {
return deptService.getById(id.toString());
}
};
}

Redis(三级缓存)


项目中会持续增长的数据比如用户、订单等相关数据。这些数据比较多,不适合放在内存级缓存当中,而应放在缓存中间件Redis当中去。Redis是支持持久化的,当我们的服务器重新启动时,依然可以从Redis中加载我们原先存储好的数据。


但是使用Redis缓存还有一个可以优化的点。我们可以自己本地再做一个局部的缓存来缓存Redis中的数据来减少网络IO请求,提高数据访问速度。 比如我们Redis缓存中有一万个用户的数据,但是一分钟之内可能只有不到1000个用户在请求数据。我们便可以在Redis中嵌入一个局部的Guava缓存来提供性能。以下是RedisCacheTemplate.


/**
* 缓存接口实现类 三级缓存
* @author valarchie
*/
@Slf4j
public class RedisCacheTemplate<T> {

private final RedisUtil redisUtil;
private final CacheKeyEnum redisRedisEnum;
private final LoadingCache<String, Optional<T>> guavaCache;

public RedisCacheTemplate(RedisUtil redisUtil, CacheKeyEnum redisRedisEnum) {
this.redisUtil = redisUtil;
this.redisRedisEnum = redisRedisEnum;
this.guavaCache = CacheBuilder.newBuilder()
// 基于容量回收。缓存的最大数量。超过就取MAXIMUM_CAPACITY = 1 << 30。依靠LRU队列recencyQueue来进行容量淘汰
.maximumSize(1024)
.softValues()
// 没写访问下,超过5秒会失效(非自动失效,需有任意put get方法才会扫描过期失效数据。
// 但区别是会开一个异步线程进行刷新,刷新过程中访问返回旧数据)
.expireAfterWrite(redisRedisEnum.expiration(), TimeUnit.MINUTES)
// 并行等级。决定segment数量的参数,concurrencyLevel与maxWeight共同决定
.concurrencyLevel(64)
// 所有segment的初始总容量大小
.initialCapacity(128)
.build(new CacheLoader<String, Optional<T>>() {
@Override
public Optional<T> load(String cachedKey) {
T cacheObject = redisUtil.getCacheObject(cachedKey);
log.debug("find the redis cache of key: {} is {}", cachedKey, cacheObject);
return Optional.ofNullable(cacheObject);
}
});
}

/**
* 从缓存中获取对象 如果获取不到的话 从DB层面获取
* @param id
* @return
*/
public T getObjectById(Object id) {
String cachedKey = generateKey(id);
try {
Optional<T> optional = guavaCache.get(cachedKey);
// log.debug("find the guava cache of key: {}", cachedKey);

if (!optional.isPresent()) {
T objectFromDb = getObjectFromDb(id);
set(id, objectFromDb);
return objectFromDb;
}

return optional.get();
} catch (ExecutionException e) {
e.printStackTrace();
return null;
}
}

/**
* 从缓存中获取 对象, 即使找不到的话 也不从DB中找
* @param id
* @return
*/
public T getObjectOnlyInCacheById(Object id) {
String cachedKey = generateKey(id);
try {
Optional<T> optional = guavaCache.get(cachedKey);
log.debug("find the guava cache of key: {}", cachedKey);
return optional.orElse(null);
} catch (ExecutionException e) {
e.printStackTrace();
return null;
}
}

/**
* 从缓存中获取 对象, 即使找不到的话 也不从DB中找
* @param cachedKey 直接通过redis的key来搜索
* @return
*/
public T getObjectOnlyInCacheByKey(String cachedKey) {
try {
Optional<T> optional = guavaCache.get(cachedKey);
log.debug("find the guava cache of key: {}", cachedKey);
return optional.orElse(null);
} catch (ExecutionException e) {
e.printStackTrace();
return null;
}
}

public void set(Object id, T obj) {
redisUtil.setCacheObject(generateKey(id), obj, redisRedisEnum.expiration(), redisRedisEnum.timeUnit());
guavaCache.refresh(generateKey(id));
}

public void delete(Object id) {
redisUtil.deleteObject(generateKey(id));
guavaCache.refresh(generateKey(id));
}

public void refresh(Object id) {
redisUtil.expire(generateKey(id), redisRedisEnum.expiration(), redisRedisEnum.timeUnit());
guavaCache.refresh(generateKey(id));
}

public String generateKey(Object id) {
return redisRedisEnum.key() + id;
}

public T getObjectFromDb(Object id) {
return null;
}

}

以下是使用方式:


/**
* @author valarchie
*/
@Component
@RequiredArgsConstructor
public class RedisCacheService {
@NonNull
private RedisUtil redisUtil;

public RedisCacheTemplate<SysUserEntity> userCache;

@PostConstruct
public void init() {
userCache = new RedisCacheTemplate<SysUserEntity>(redisUtil, CacheKeyEnum.USER_ENTITY_KEY) {
@Override
public SysUserEntity getObjectFromDb(Object id) {
ISysUserService userService = SpringUtil.getBean(ISysUserService.class);
return userService.getById((Serializable) id);
}
};
}
}

缓存Key以及过期时间


我们可以通过一个枚举类来统一集中管理各个缓存的Key以及过期时间。以下是例子:


/**
* @author valarchie
*/
public enum CacheKeyEnum {

/**
* Redis各类缓存集合
*/
CAPTCHAT("captcha_codes:", 2, TimeUnit.MINUTES),
LOGIN_USER_KEY("login_tokens:", 30, TimeUnit.MINUTES),
RATE_LIMIT_KEY("rate_limit:", 60, TimeUnit.SECONDS),
USER_ENTITY_KEY("user_entity:", 60, TimeUnit.MINUTES),
ROLE_ENTITY_KEY("role_entity:", 60, TimeUnit.MINUTES),
ROLE_MODEL_INFO_KEY("role_model_info:", 60, TimeUnit.MINUTES),
;

CacheKeyEnum(String key, int expiration, TimeUnit timeUnit) {
this.key = key;
this.expiration = expiration;
this.timeUnit = timeUnit;
}

private final String key;
private final int expiration;
private final TimeUnit timeUnit;

public String key() {
return key;
}

public int expiration() {
return expiration;
}

public TimeUnit timeUnit() {
return timeUnit;
}

}

统一的使用门面


一般来说,我们在项目中设计好缓存之后就可以让其他同事写业务时直接调用了。但是让开发者去判断这个属于二级缓存还是三级缓存的话,存在心智负担。我们应该让开发者自然地从业务角度去选择某个缓存。比如他正在写部门相关的业务逻辑,就直接使用deptCache。
此时我们可以新建一个CacheCenter来统一按业务划分缓存。以下是例子:


/**
* 缓存中心 提供全局访问点
* @author valarchie
*/
@Component
public class CacheCenter {

public static AbstractGuavaCacheTemplate<String> configCache;

public static AbstractGuavaCacheTemplate<SysDeptEntity> deptCache;

public static RedisCacheTemplate<String> captchaCache;

public static RedisCacheTemplate<LoginUser> loginUserCache;

public static RedisCacheTemplate<SysUserEntity> userCache;

public static RedisCacheTemplate<SysRoleEntity> roleCache;

public static RedisCacheTemplate<RoleInfo> roleModelInfoCache;

@PostConstruct
public void init() {
GuavaCacheService guavaCache = SpringUtil.getBean(GuavaCacheService.class);
RedisCacheService redisCache = SpringUtil.getBean(RedisCacheService.class);

configCache = guavaCache.configCache;
deptCache = guavaCache.deptCache;

captchaCache = redisCache.captchaCache;
loginUserCache = redisCache.loginUserCache;
userCache = redisCache.userCache;
roleCache = redisCache.roleCache;
roleModelInfoCache = redisCache.roleModelInfoCache;
}

}

以上就是关于项目中多级缓存的实现。 如有不足恳请评论指出。


作者:CoderV的进阶笔记
链接:https://juejin.cn/post/7208112485764857914
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

不同方面浅浅认识一下 Synchronized

Java中的synchronized关键字是一种用于线程同步的机制,它可以确保同一时间只有一个线程能够访问共享资源。本篇博客将从synchronized的基本用法、synchronized锁的对象、synchronized的可重入性、synchronized的...
继续阅读 »

Java中的synchronized关键字是一种用于线程同步的机制,它可以确保同一时间只有一个线程能够访问共享资源。本篇博客将从synchronized的基本用法、synchronized锁的对象、synchronized的可重入性、synchronized的锁粒度、synchronized与锁优化等多个方面来深入介绍Java中synchronized关键字的使用。


一、synchronized的基本用法


synchronized关键字可以应用于方法和代码块上,以下是synchronized的基本用法示例:


1.1 修饰方法


synchronized可以用于修饰方法,使得在调用该方法时,只有一个线程能够执行该方法,其他线程需要等待。


public synchronized void syncMethod() {
// synchronized方法体
}

1.2 修饰代码块


synchronized还可以用于修饰代码块,只有当线程获取到该代码块的锁时才能进入执行,其他线程需要等待。


public void syncBlock() {
synchronized (this) {
// synchronized代码块
}
}

二、synchronized锁的对象


synchronized锁的对象可以是类的实例对象、类对象、任意对象等。以下是synchronized锁的对象示例:


2.1 类的实例对象


当synchronized锁的对象是类的实例对象时,不同的线程对同一个实例对象的同步方法或同步代码块的访问将会被阻塞,因为它们都是使用同一个对象锁。


public synchronized void syncMethod() {
// synchronized方法体
}

public void syncBlock() {
synchronized (this) {
// synchronized代码块
}
}

2.2 类对象


当synchronized锁的对象是类对象时,不同的线程对同一个类的同步方法或同步代码块的访问将会被阻塞,因为它们都是使用同一个类锁。


public static synchronized void syncMethod() {
// synchronized方法体
}

public void syncBlock() {
synchronized (SynchronizedDemo.class) {
// synchronized代码块
}
}

2.3 任意对象


当synchronized锁的对象是任意对象时,不同的线程对同一个对象的同步方法或同步代码块的访问将会被阻塞,因为它们都是使用同一个对象锁。


public synchronized void syncMethod() {
// synchronized方法体
}

public void syncBlock() {
Object lock = new Object();
synchronized (lock) {
// synchronized代码块
}
}

三、synchronized的可重入性


synchronized具有可重入性,即一个线程已经获得了一个对象的锁,再次请求该对象的锁时仍然可以获得该锁。


public synchronized void syncMethod() {
syncMethod2();
// synchronized方法体
}

在上面的代码中,syncMethod2()方法也是一个synchronized方法,当syncMethod()方法调用syncMethod2()方法时,它仍然可以获取到该对象的锁,因为锁是可重入的。


四、synchronized的锁粒度


synchronized锁的粒度大小是需要考虑的一个问题,粒度过大会导致性能下降,粒度过小又可能导致死锁。以下是synchronized锁的粒度示例:


4.1 对象锁


对象锁的粒度最细,它只锁定对象中的一个方法或代码块。


public synchronized void syncMethod() {
// synchronized方法体
}

public void syncBlock() {
synchronized (this) {
// synchronized代码块
}
}

4.2 类锁


类锁的粒度比对象锁大,它锁定的是整个类的同步方法或同步代码块。


public static synchronized void syncMethod() {
// synchronized方法体
}

public void syncBlock() {
synchronized (SynchronizedDemo.class) {
// synchronized代码块
}
}

五、synchronized与锁优化


Java中的synchronized关键字在使用时需要考虑锁的粒度和性能问题,同时也有一些锁优化的技巧可以使用,以下是synchronized与锁优化的示例:


5.1 减小锁粒度


如果使用了对象锁,可以将锁的粒度减小到对象的某个属性上,以减少锁的粒度,从而提高程序的并发性。


public void syncBlock() {
synchronized (lock) {
// synchronized代码块
}
}

public void syncBlock2() {
synchronized (lock.getProperty()) {
// synchronized代码块
}
}

5.2 双重检查锁定


双重检查锁定技术可以减少锁的粒度,提高程序的并发性。


public class Singleton {
private volatile static Singleton instance;
public static Singleton getInstance() {
if (instance == null) {
synchronized (Singleton.class) {
if (instance == null) {
instance = new Singleton();
}
}
}
return instance;
}
}

在以上代码中,通过双重检查锁定的方式,可以确保Singleton实例只被创建一次,并且提高了程序的并发性能。


5.3 锁消除


在一些情况下,编译器会自动消除一些不必要的锁,以提高程序的并发性能。


public void syncMethod() {
StringBuilder sb = new StringBuilder();
sb.append("a").append("b").append("c");
// sb对象没有被其他线程共享,可以消除锁
synchronized (sb) {
// synchronized代码块
}
}

以上代码中,由于sb对象没有被其他线程共享,因此编译器可以自动消除synchronized。


六、synchronized的局限性和替代方案


synchronized虽然是Java中一个非常重要的同步机制,但它也有一些局限性和替代方案。


6.1 局限性



  • synchronized只能保证单个线程的同步,无法保证多个线程之间的协作;

  • synchronized在多线程并发访问下会导致性能下降;

  • synchronized在死锁等异常情况下可能导致程序出现问题。


6.2 替代方案


Java中有许多替代方案可以代替synchronized实现同步,以下是一些常用的替代方案:



  • Lock:Lock是Java中提供的一个新的同步机制,它可以替代synchronized实现线程同步,具有更好的扩展性和性能;

  • Atomic:Atomic提供了一些原子操作,可以实现一些线程安全的操作;

  • ConcurrentHashMap:ConcurrentHashMap是Java中线程安全的Map,可以实现高并发访问;

  • Semaphore:Semaphore是一种计数信号量,可以用来控制对公共资源的访问。


七、总结


synchronized是Java中非常重要的同步机制,它可以保证多个线程之间的安全协作,但在使用时需要考虑锁的粒度和性能问题,同时也有一些锁优化的技巧可以使用。


除了synchronized之外,Java中还有许多替代方案可以实现线程同步,包括Lock、Atomic、ConcurrentHashMap等。在实际应用中,需要根据具体的场景选择适合的同步机制来保证程序的正确性和性能。会在后续讲解不同锁结构


作者:进阶的派大星
链接:https://juejin.cn/post/7208476031135596599
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

一张架构图让我认识到前端的渺小

前言 大家好这里是阳九,一个文科转码的野路子码农,热衷于研究和手写前端工具. 今天我们不聊前端,咱们来聊聊后端,聊聊架构 目的是正视自己的地位和价值,在寒冬中保持清醒 借用若川大佬的一句话: 所知甚少,唯善学 先别问我到底是前端程序员还是后端程序员,我自己也...
继续阅读 »

前言


大家好这里是阳九,一个文科转码的野路子码农,热衷于研究和手写前端工具.


今天我们不聊前端,咱们来聊聊后端,聊聊架构


目的是正视自己的地位和价值,在寒冬中保持清醒


借用若川大佬的一句话: 所知甚少,唯善学




先别问我到底是前端程序员还是后端程序员,我自己也不知道。当然自己也很想在某个领域精进,但是业务嘛,咱们就是一块砖,哪里需要哪里搬,硬着头皮上呗


最近是在维护公司的业务引擎, 对其进行优化并添加功能,技术栈的话大体来讲, 前端是React+Node BFF,后端是GO (Gin框架+原生)


随着看后端代码的时间越来越长,作为一个切图仔,我越来越觉得恐怖。那是一种,看到了过于庞大的未知世界,并深深觉得自己的认知太少的恐怖。


因为这个项目是定制项目,通俗点来讲就是"改装车",不从头造车但是要改装,这里改改哪里改改,一旦改动的点多了,就需要你把整个项目的逻辑全部理顺。


于是乎我在这两个月里,里里外外看了几万行代码。也是硬着头皮把整个架构梳理了一遍。


先在这里放上一张整理出来的架构图


(当然这里根据原系统魔改了的很多地方,并进行了简化,并修改了名称,防止泄密,模块的大小差不多是以核心逻辑代码量来算的,前端的核心代码量有多少咱们前端er应该都懂)


XXX系统总架构图.jpg


本文目的


想通过一次后端架构分析, 让我们前端人意识到自己的不足与眼界的狭窄,我们前端er需要对一个完整的大型项目有一个整体的认知,意识到自己的不足,才能在这条路上更好的走下去。
不要满足于html拼拼页面,写写样式,做做一些简单的工作。


技术栈介绍


这里先简单介绍一下技术栈, 否则无法理解



  • 前端 React webpack antd redux ... 前端er都懂,以下省略

  • Koa框架 一个node后端框架

  • Gin框架 一个GO后端框架

  • Docker 容器引擎

  • K8S Docker集群管理

  • RabbitMQ 实现AMQP消息队列协议的代理软件,也就是消息队列,用于通信

  • GFS 分布式文件共享系统,用于大量数据访问

  • MongoDB 快读读取用数据库

  • Elastic Search 分布式数据库,进行大批量存储查询

  • SQL 传统关系型数据库

  • MobileSuit 后端框架工厂框架,用于创建独立Gin服务

  • 扩容服务 GO原生实现

  • 引擎 GO原生实现

  • 守护进程 GO原生实现


关于前端


看到左上角我特意标出来的那一小块红色的UI了吗?我们称之为 前端


数据库


mongo DB : 用于小体积数据的快速读取,用作数据中间传输(原生json,使用方便)


Elastic Search : 分布式数据库, 用于大体积,大批量数据存储和快速检索(动辄十几亿条数据,一条json数据几千个字段)


SQL: 用于存储不变的数据,比如国家信息,公司信息等等,重在稳定。


容器化部署


简单介绍一下什么是容器,当然我这里默认大家都懂。 容器提供了程序所需要运行的环境, 并将其独立隔离出来,


Docker:  是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的镜像中


k8s: 是 Google 开源的一个容器集群管理系统


架构中除了守护进程和引擎扩容服务,所有引擎,前后端服务,数据库服务都使用Docker进行容器化,并使用K8S进行统一管理。


image.png


引擎



  • 引擎扩容服务:可以在判断需要并能够提供多个引擎的时候,开启更多的引擎进行处理。

  • 树状引擎结构: 一个任务可能需要多个引擎协同参与, 而且下级引擎依赖上级引擎的结果

  • 上级引擎的结果需要经过调度服务,通过MQ进行消息传递,调度后再传递给下级引擎

  • 最终结果写入数据库


image.png


调度层




  • 任务调度器:提供任务优先级调度,任务状态管理,任务拆分,任务下放等功能




  • 结果处理器; 提供各引擎对应的结果处理解析功能,有大量的数据库查询,结果计算,字符串解析逻辑,体积非常庞大.




  • 当然优先级调度器和引擎结果处理服务是单独运行在Docker中,需要使用MQ和GFS,数据库进行数据交换




image.png


数据聚合层


也就是node写的BFF数据聚合层,将gin框架(gopher层)获取来的数据进行聚合,格式化成前端所需的数据结构,并提供前端接口。这里就不赘述了


gopher服务层


提供主体服务, 数据库IO等等,体量最大。提供了各种处理模块,接口等。


架构也是一个简单的类node三层架构,


(Router - controller - Service)
带上validator层和数据库操作层(与node中的Model层区别不大)


image.png


守护进程


原生GO写的守护进程,一个部署时直接运行在机器某端口的进程, 主要功能有3个


创建 - 监视 - 代理



  • 它将整个系统包裹起来, 用于监视各个容器的运行情况,

  • 提供了一个用于自动注册Gin框架路由的上级自研框架MobileSuit,系统的每个服务都会通过MS框架进行启动,生成一个Gin路由实例。 并挂载到总路由树上。


image.png



  • 守护进程包裹了所有的服务, 系统各个服务发出的请求都会首先被代理到守护进程上,守护进程将其统一拦截下来, 方便之后的统一请求代理处理。


image.png


对前端人和自己的话


不知道小伙伴们看到我整理出来的架构有什么看法?有没有认识到前端的渺小.
我们一定要正视自己的地位,在寒冬中保持清醒


再聊聊,为什么很多小伙伴会觉得 前端已死?


我想说的是,对比起后端,前端人在几年内吃了太多的互联网红利。这个行业可能需要自我净化,提升整体素质。


我见过包装3年实际一年,连vscode调试都不会的前端人拿很高的月薪。


也见过对算法,原理,底层,优化,都很熟悉的3-4年后端的人拿的不比我这个小外包高多少。


我们前端人一定要明白,普通前端的可替代性实在太强太强。


要么我们深入业务,要么我们深入原理。


对于真正学习计算机科学的人来说,什么webpack代码构建,babel编译,什么react链表结构,vue模板编译,这些看上去比较底层的东西,在他们眼里可能只是基本功,可能只是常识。


如果不深入原理,那么最终真的只能“前端已死”。



  • 想想在刚入行的时候,读了一下某开源工具的源码,我的反应是


“哇这架构好神奇,居然将三层类层层嵌套” “哇一个参数居然能通过观察者模式传三层”



  • 想想在刚入行的时候,看了一下react渲染的原理


"哇他们真聪明,居然能想到将大任务分成多个5ms小任务,运行在浏览器每一帧上,阻止卡顿"


跟一个后端/硬件的朋友讨论,他跟我说"这不是常识吗?调操作系统底层,5ms任务给你掐了"


现在看来,这不过是基础罢了。但很多前端er,连这些都搞不明白,就像原来的我一样。


毕竟,即便是深入了前端的原理,可能也只是到达了软件开发的基本水平吧。


还是借用那句话吧。
所知甚少,唯善学。


前端不会死的,它只是停止了狂奔。


作者:不月阳九
链接:https://juejin.cn/post/7207617774634451000
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

Android Framework源码面试——Activity启动流程

面试的时候,面试官经常同你随便侃侃Activity的启动模式,但Activity启动牵扯的知识点其实很多,并非能单单用四个启动模式就能概括的, 默认的启动模式的表现会随着Intent Flag的设置而改变,因此侃Activity启动模式大多走流程装逼,最多结合...
继续阅读 »

面试的时候,面试官经常同你随便侃侃Activity的启动模式,但Activity启动牵扯的知识点其实很多,并非能单单用四个启动模式就能概括的,


默认的启动模式的表现会随着Intent Flag的设置而改变,因此侃Activity启动模式大多走流程装逼,最多结合项目遇到的问题,随便刁难一下面试者,并不太容易把控,也许最后,面试官跟面试者的答案都是错了,


比如在Service中必须通过设置FLAG_ACTIVITY_NEW_TASK才能启动Activity,这个时候启动Activit会有什么样的表现呢?就这一个问题,答案就要分好几个场景:




  • ActivitytaskAffinity属性的Task栈是否存在

  • 如果存在,要看Activity是否存已经存在于该Task

  • 如果已经存在于该taskAffinityTask,要看其是不是其rootActivity

  • 如果是其rootActivity,还要看启动该ActivityIntent是否跟当前intent相等



不同场景,所表现的行为都会有所不同,再比如singleInstance属性,如果设置了,大家都知道只有一个实例,将来再启动会复用,但是如果使用Intent.FLAG_ACTIVITY_CLEAR_TASK来启动,仍然会重建,并非完全遵守singleInstance的说明,还有不同Flag在叠加使用时候也会有不同的表现,单一而论Activity启动模式其实是很难的。本文也仅仅是涉及部分启动模式及Flag,更多组合跟场景要自己看源码或者实验来解决了。


1.面试连环炮之说说 Android 的四种启动模式



  • standard 这是 Activity 的默认启动模式,每次激活 Activity 的时候都会创建一个新的 Activity 实例,并放入任务栈中。 使用场景:基本绝大多数地方都可以用。




  • singleTop 这可能也是非常常用的 launchMode 了。如果在任务的栈顶正好存有该 Activity 的实例,则会通过调用 onNewIntent() 方法进行重用,否则就会同 standard 模式一样,创建新的实例并放入栈顶。即便栈中已经存在了该 Activity 的实例,也会创建新的实例,即:A -> B ->A,此时栈内为 A -> B -> A,但 A -> B ->B ,此时栈内为 A -> B。一句话概述就是:当且仅当启动的 Activity 和上一个 Activity 一致的时候才会通过调用 onNewIntent() 方法重用 Activity使用场景:资讯阅读类 APP 的内容界面。




  • singleTask 这个 launchMode专门用于解决上面 singleTop 的另外一种情况,只要栈中已经存在了该 Activity 的实例,就会直接调用 onNewIntent() 方法来实现重用实例。重用时,直接让该 Activity 的实例回到栈顶,并且移除之前它上面的所有 Activity 实例。如果栈中不存在这样的实例,则和 standard 模式相同。即: A ->B -> C -> D -> B,此时栈内变成了 A -> B。而 A -> B -> C,栈内还是 A -> B -> C。 使用场景:浏览器的主页面,或者大部分 APP 的主页面。




  • singleInstance 在一个新栈中创建该 Activity 的实例,并让多个应用共享该栈中的该 Activity 实例。一旦该模式的 Activity实例已经存在于某个栈中,任何应用再激活该 Activity 时都会重用该栈中的实例,是的,依然是调用 onNewIntent() 方法。其效果相当于多个应用共享一个应用,不管是谁激活,该 Activity 都会进入同一个应用中。但值得引起注意的是:singleInstance 不要用于中间页面,如果用户中间页面,跳转会出现很难受的问题。 这个在实际开发中我暂未遇到过,不过 Android 系统的来电页面,多次来电均是使用的同一个 Activity



四种模式的背书式理解记忆讲完了,你认为这样就结束了吗?


对,我也一度是这样认为的。


2.面试连环炮之说说 Intent标签起什么作用呢? 简单说一说


我们除了需要知道在 AndroidManifest.xml 里面设置 android:launchMode 属性,我们还需要了解下面这几个Intent标签的用法。


在 Android 中,我们除了在清单文件 AndroidManifest.xml 中配置 launchMode,当然可以用 Intent 标签说事儿。启动 Activity ,我们需要传递一个 Intent,完全可以通过设置 Intent.setFlags(int flags) 来设置启动的 Activity 的启动模式。


需要注意的是:通过代码来设置 Activity 的启动模式的方式,优先级比清单文件设置更高。





  • FLAG_ACTIVITY_NEW_TASK 这个标识会使新启动的 Activity 独立创建一个 Task




  • FLAG_ACTIVITY_CLEAR_TOP 这个标识会使新启动的 Activity 检查是否存在于 Task 中,如果存在则清除其之上的 Activity,使它获得焦点,并不重新实例化一个 Activity,一般结合 FLAG_ACTIVITY_NEW_TASK 一起使用。




  • FLAG_ACTIVITY_SINGLE_TOP 等同于在 launcherMode 属性设置为 singleTop






3.Android 的启动原理,他的流程是什么样的


总的流程图:



1.2.1.进程A与AMS的交互过程


此处以跨进程启动Activity分析一下源码流程:


①A调用startActivity时,需要与AMS交互,此时需要需要获取到AMS的代理对象Binder也就是上图的AMP,


通过ActivityManagerNative.getDefault()获得,并调用AMP的startActivity方法,然后会通过mRemote.transact方法进行Binder通信,在AMS的onTransact方法里面会获取到请求的Activity参数信息:


mRemote.transact(START_ACTIVITY_TRANSACTION,data,reply,0);
@Override
public boolean onTransact(int code, Parcel data, Parcel reply, int flags){
switch(code){
case START_ACTIVITY_TRANSACTION:{ startActivity(app,callingPackage,intent,...)
}
}
}

②AMS里面的startActivity方法最主要会去调用startSpecificActivityLocked函数,在此函数里面会去判断目标进程是否已经存在,并且目标向AMS注册过它自己的ApplicationThread也就是上图ATP代理对象,如果这两个条件都满足会去调用realStartActivityLocked方法,这个方法我们后面再看。如果上述条件不满足时,会去调用mService.startProcessLocked(r.processName,...)方法启动进程。





  • startProcessLocked方法首先调用Process.start("android.app.ActivityThread",)方法会向Zygote发送一个启动进程的请求,并告知Zygote进程启动之后,加载ActivityThread这个类的入口main函数,启动完成后返回进程的pid,并向AMS的Handler发送一个延迟消息,为的是要求目标进程启动后,10秒钟内需要向AMS报告,不然的话AMS就会清除目标进程的相关信息。




  • Process.start方法会去调用startViaZygote(processClass,)函数,这个函数主要做了两件事,一件就是打开通往ZygoteSocket,第二件事就是通过Socket发送启动进程参数。




  • Zygote端主要逻辑是在runOnce函数,函数内调用Zygote.forkAndSpecialize(...)创建子进程,创建完成之后就分别在父进程和子进程里面做各自的事情.





父进程通过hanleParentProc(pid)把子进程的pid通过Socket发送给AMS


子进程调用handleChildProc函数,做一些通用的初始化,比如启用Binder机制;执行应用程序的入口函数,也就是ActivityThreadMain函数.





  • ActivityThreadmain函数,里面会创建一个ActivityThread对象,并调用thread.attach(false),为的是向AMS报到,上面第一条里面有提到。




  • attach方法里面,其实是一个跨进程的调用,首先通过




IActivityManager mgr = ActivityManagerNative.getDefault();

获取到AMS的Binder代理对象,然后调用


IActivityManager mgr = ActivityManagerNative.getDefault();


mAppThread是应用端的一个Binder对象ApplicationThread,也就是最上面一张图的ATP,这样AMS端就可以调用应用端了。




  • attachApplication方法里面,最主要有两个方法,一个是通过传入的ApplicationThread对象,调用bindApplication初始化Application对象,另一个就是通过


mStactSupervisor.attachApplicationLoacked(app);


初始化挂起的Activity对象。




  • attachApplicationLoacked函数里,会调用


ActivityRecord hr = stack.topRunningActivityLocked(null);


其中要明白AMS里面有两个栈,一个是Launch桌面栈,一个就是非桌面栈mFocusedStack,此处的stack就是mFocusedStack,它会将栈顶的ActivityRecord返回出来,我们的目标Activity早就放置在了栈顶,只是一直没有初始化。然后调用方法,来启动Activity



如果我们不是启动另外一个进程,而是同一进程,那么这第二大部分就不会存在了,而是直接调用realStartActivityLocked方法。


realStartActivityLocked(hr,app,true,true);



写到这里是不是有很多码牛的小伙伴们已经坚持不下去了。还剩最后几个步骤



realStartActivityLocked函数会调用app.thread.scheduleLaunchActivity(new Intent(r.intent),...);也就是通过之前注册的Binder对象ATP,调用scheduleLaunchActivity函数,在scheduleLaunchActivity函数里面:


ActivityClientRecord r = new ActivityClientRecord();
...
sendMessage(H.LAUNCH_ACTIVITY,r);


封装了一个ActivityClientRecord消息,然后丢到主线程的Handler(mH)里。



②在主线程里面


final ActivityClientRecord r = (ActivityClientRecord)msg.obj ;
r.packageInfo = getPackageInfoNoCheck(...);
handleLaunchActivity(r,null);


getPackageInfoNoCheck 函数主要是用来生成一个LoadedApk对象,它用来保存我们的apk信息,因为后面我们需要一个ClassLoader去加载Apk里面的Activity类,所以这里提前准备好。



handleLaunchActivity里面分为两个部分,一个是performLaunchActivity函数,一个是handleResumeActivity函数。


performLaunchActivity


Activity activity = mInstrumentation.newActivity(...);

//返回之前创建好的
Application app = r.packageInfo.makeApplication(false,mInstrumentation);

//生成ContextImpl
Context appContext = createBaseContextForActivity(r,activity);

//给activity绑定上下文和一些初始化的工作,如createPhoneWindow
activity.attach(appContext,...);

mInstrumentation.callActivityOnCreate(activity,r.state); //生命周期的OnCreate

activity.performStart(); //生命周期的OnStart

return activity

handleResumeActivity


-> r.activity.performResume()     
-> mInstrumentation.callActivityOnResume(this);
-> activity.onResume()

作者:冬日毛毛雨
链接:https://juejin.cn/post/7208484366954496059
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

提升编程思想,这才是少走十年弯路的学习方式

练习算法和数据结构 熟悉算法和数据结构可以帮助你更好地理解和解决问题,优化你的代码并提高你的代码质量 推荐学习流程 了解算法和数据结构的基础概念和术语。在学习任何新的主题之前,首先需要了解其基本概念和术语。对于算法和数据结构,您需要了解什么是算法,什么是...
继续阅读 »

练习算法和数据结构



熟悉算法和数据结构可以帮助你更好地理解和解决问题,优化你的代码并提高你的代码质量



推荐学习流程



  1. 了解算法和数据结构的基础概念和术语。在学习任何新的主题之前,首先需要了解其基本概念和术语。对于算法和数据结构,您需要了解什么是算法,什么是数据结构,它们有什么不同,以及它们的主要特征和优缺点。

  2. 了解常见的数据结构和算法。学习数据结构和算法的最好方法之一是了解它们的常见类型和应用。您可以使用在线资源和参考书籍来了解这些内容。

  3. 练习编写和实现算法和数据结构。通过编写和实现算法和数据结构来练习可以帮助您更好地理解它们的工作原理和应用。您可以使用在线代码编辑器和调试工具来练习这些技能。

  4. 解决实际问题和挑战。尝试解决实际问题和挑战可以帮助您将所学的算法和数据结构应用到实践中,并帮助您进一步掌握它们。


纸上得来终觉浅,我们学习之后肯定要进行使用,现在算法学习的网站已经完全为我们考虑了,关于上述的很多步骤天然支持。


那我们在解决算法和数据结构问题时,可以遵循以下步骤:



  1. 理解问题。阅读问题并确保您完全理解其要求和限制。这可以帮助您确定应该使用的数据结构和算法类型。

  2. 设计解决方案。根据您对问题的理解,设计一个解决方案。这可以包括确定应该使用的数据结构和算法、解决问题的步骤以及如何处理可能出现的异常情况。

  3. 实现方案。使用您选择的编程语言和编辑器实现您的解决方案。确保您按照您设计的步骤执行。

  4. 测试和调试。测试您的实现,并在需要时进行调试。这可以帮助您确定是否存在错误并确保您的代码在各种情况下都能正常工作。


当今时代,忙碌是我们整个社会的代名词,也是我们程序员的天生标签,真的,我从大专毕业到现在,每天早上上班每天下班都在不断的学习,但是结果都是在工作中有机会实战的,一清二楚,不能使用的,真的转眼就忘。
所以我们在学习的过程中要善于总结,总结可以缩小我们记忆搜索的范围,即使忘记了,我们也可以通过最小的代价找回来。


学会总结,学习算法是可以通过以下步骤总结



  1. 算法和数据结构的定义和区别。了解算法和数据结构的定义和区别可以帮助您更好地理解它们的工作原理和应用。

  2. 常见的数据结构和算法。了解常见的数据结构和算法可以帮助您更好地应用它们解决实际问题。

  3. 复杂度分析。了解算法和数据结构的时间和空间复杂度可以帮助您确定其效率和应用场景。

  4. 优化算法和数据结构。了解如何优化算法和数据结构可以帮助您更好地解决实际问题,并提高效率。


俗话说,专业的都是无味的,此时,我们可以转换思想去记忆


总有一种方法让你记住,因为谁都有故事



  1. 创造有趣的比喻或类比。将算法或数据结构与某些日常生活中的东西联系起来,可以帮助您更容易地记住它们。例如,您可以将树形数据结构比喻为现实世界中的树木。

  2. 使用记忆术。使用记忆术,例如联想和图像化,可以帮助您更好地记住算法和数据结构。例如,您可以将联想关键字与算法和数据结构名称相匹配。

  3. 创建抽象图形和示例。通过使用抽象图形和示例,可以更好地理解和记住算法和数据结构的工作原理和应用。

  4. 练习并实践。最好的方式是通过不断练习和实践来记住算法和数据结构。通过实际运用它们来解决实际问题,您将更好地理解它们的工作原理和应用,并在大脑中更深刻地记住它们。


学习算法和数据结构需要耐心、练习和实践,使用记忆术、抽象图形和示例来帮助记住算法和数据结构。


来,看个例子


以经常使用的快速排序为例


学习过程



了解快速排序算法的工作原理并熟悉其实现方法是学习快速排序算法的第一步。


快速排序算法是一种分治算法,其基本思想是将一个大问题分解成多个子问题,然后递归地解决这些子问题,最后将它们组合成一个完整的解决方案。


具体来说,快速排序算法将待排序数组分成两部分,其中一部分小于某个基准值,另一部分大于等于基准值。然后,对两部分分别递归地进行快速排序,最终得到一个有序数组。



以下是快速排序算法的核心实现代码:


function quickSort(arr, left, right) {
if (left < right) {
const pivotIndex = partition(arr, left, right);
quickSort(arr, left, pivotIndex - 1);
quickSort(arr, pivotIndex + 1, right);
}
}

function partition(arr, left, right) {
const pivot = arr[right];
let i = left - 1;

for (let j = left; j < right; j++) {
if (arr[j] < pivot) {
i++;
[arr[i], arr[j]] = [arr[j], arr[i]];
}
}

[arr[i + 1], arr[right]] = [arr[right], arr[i + 1]];
return i + 1;
}

解决过程



为了更好地理解快速排序算法的实现和工作原理,可以按照以下步骤解决一个简单的示例问题:



问题:给定一个未排序的整数数组 [8, 4, 2, 6, 7, 1, 3, 5],按升序排列。


解决步骤:


Step 1:选择一个基准元素(pivot)。为了简单起见,我们选择数组的最后一个元素 5 作为基准。


Step 2:将数组中小于基准的元素移到基准左侧,大于等于基准的元素移到基准右侧。这可以通过从数组的左侧开始扫描并与基准比较,如果小于基准,则将元素交换到基准左侧。


[4, 2, 3, 5, 7, 1, 8, 6]
^ ^
i j

在这个例子中,我们选择数组的第一个元素作为左指针 i,并从第二个元素开始扫描数组。当扫描到元素 4 时,发现其小于基准 5,因此将其交换到 i 处,并将 i 加 1。扫描到元素 2 时,同样将其交换到 i处。继续扫描,直到 j 扫描到基准 5 为止。


Step 3:将基准元素放回正确的位置。由于基准元素是最后一个元素,因此可以将 i+1 位置的元素与基准元素交换。


[4, 2, 3, 5, 7, 1, 6, 8]
^ ^
i+1 right

现在,数组被分成了两个部分:左侧部分 [4, 2, 3, 1] 小于基准值 5,右侧部分 [7, 6, 8] 大于等于基准值 5。


Step 4:对左右两部分分别进行快速排序。这是一个递归过程,直到左右部分的长度都为 1 时停止。


继续对左侧部分进行快速排序,以数组 [4, 2, 3, 1] 为例。


Step 1:选择基准元素。选择数组的最后一个元素 1 作为基准。


Step 2:将小于基准的元素移到基准左侧。在这个例子中,可以看到数组已经有序,因此不需要进行任何交换操作。


Step 3:将基准元素放回正确的位置。将 i+1 位置的元素 1 与基准元素 1 交换。注意,这里 i+1 等于左侧数组的左端点,因为左侧数组中只有一个元素。


Step 4:对左右两部分分别进行快速排序。由于左侧数组只有一个元素,无需进行任何操作。


继续对右侧部分进行快速排序,以数组 [7, 6, 8] 为例。


Step 1:选择基准元素。选择数组的最后一个元素 8 作为基准。


Step 2:将小于基准的元素移到基准左侧。在这个例子中,可以看到只有一个元素小于基准,因此将其与 i 处的元素交换。


[7, 6, 8]
^
i,j

Step 3:将基准元素放回正确的位置。将 i+1 位置的元素 7 与基准元素 8 交换。


[7, 8, 6]
^
i+1,right

Step 4:对左右两部分分别进行快速排序。继续对左侧部分 [7] 进行快速排序,无需进行任何操作。对右侧部分 [6] 进行快速排序,同样无需进行任何操作。


综上所述,对于数组 [8, 4, 2, 6, 7, 1, 3, 5],通过快速排序算法的处理,最终得到有序数组 [1, 2, 3, 4, 5, 6, 7, 8]。


核心总结:



快速排序算法是一种高效的排序算法,它的核心在于基准元素的选择和快速分割数组。通过不断选择基准元素,将数组划分成两个部分,并分别对这两个部分进行快速排序,最终将整个数组排序完成。



快速排序算法的时间复杂度为 O(n log n),空间复杂度为 O(log n)。它是一种原地排序算法,不需要额外的空间。


记忆方法:


快速排序算法的核心是基准元素的选择和数组的分割。可以用以下方法记忆:



  1. 选择基准元素:通常选择数组的最后一个元素作为基准,也可以选择其他位置的元素。

  2. 分割数组:将数组分割成小于基准的部分和大于等于基准的部分。可以使用双指针法来实现。

  3. 递归排序:对小于基准的部分和大于等于基准的部分分别进行快速排序,直到数组长度为 1 时停止递归。


记忆口诀:



  1. 基准元素找末尾,

  2. 双指针分割快速跑,

  3. 递归小大排,

  4. 最后数组有序到。


这个口诀可以快速记忆快速排序算法的核心思想和实现过程。


Android开发怎么融入其中


安卓开发中需要使用算法和数据结构时,可以将以上的学习模板应用到具体的问题中。



  1. 首先,可以选择适合问题的算法和数据结构。例如,如果你需要对一个数组进行排序,你可以使用快速排序算法。如果你需要快速查找元素,你可以使用二分查找算法。

  2. 其次,你可以使用学习模板中的学习过程和解决过程来帮助自己理解算法的实现过程和核心思想。通过学习模板,你可以更深入地了解算法和数据结构的实现原理,并将它们应用到实际的开发中。

  3. 最后,你可以使用学习模板中提供的核心总结和记忆方法来帮助自己记忆算法和数据结构的核心思想和实现过程。这可以帮助你更快速地掌握算法和数据结构,并在实际开发中应用它们。


总结


学而不思则亡 思而不学则殆


使用学习模板可以帮助你更有效地学习算法和数据结构,并将它们应用到实际的安卓开发中。这可以提升你的技能水平,并使你在开发中更加高效和优秀。


作者:狼窝山下的青年
链接:https://juejin.cn/post/7201444843137318949
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

我: 向我推销这支笔 ,来看ChatGPT如何回答...

OpenAI: GPT系列模型:OpenAI的GPT系列模型是非常出名的语言模型,例如GPT-2、GPT-3等。这些模型可以生成人类般的语言,用于文本生成、对话系统等领域。 DALL-E:这是一个能够将自然语言描述转换为图像的系统。它可以生成与文本描述相对...
继续阅读 »

OpenAI:




  1. GPT系列模型:OpenAI的GPT系列模型是非常出名的语言模型,例如GPT-2、GPT-3等。这些模型可以生成人类般的语言,用于文本生成、对话系统等领域。

  2. DALL-E:这是一个能够将自然语言描述转换为图像的系统。它可以生成与文本描述相对应的图像,从简单的物体到复杂的场景都可以。

  3. Codex:这是一个基于人工智能的代码生成器,可以为程序员自动生成代码。它是由OpenAI与GitHub合作开发的。

  4. Gym:Gym是OpenAI的一个强化学习平台,为开发人员提供了一个可以测试和比较强化学习算法的标准化环境。

  5. RoboSumo:这是一个机器人足球比赛仿真平台,用于测试和开发机器人控制算法

  6. MuseNet:MuseNet是OpenAI的一个音乐生成系统,可以自动生成各种类型的音乐,从古典音乐到流行音乐等。

  7. GPT-Neo:这是OpenAI的一个基于GPT-3的开源模型,它具有类似GPT-3的功能,但是开源,可以由任何人使用。

  8. CLIP:这是OpenAI的一个视觉和语言模型,可以将视觉和语言信息结合起来,从而实现更复杂的任务,如图像分类、视觉问答等。



除此之外,OpenAI还开发了许多其他的人工智能应用和工具,如人工智能道德和安全方面的研究、自动语音识别、自动驾驶系统等。






今天有的伙伴问我:“为什么单单就中国不开放开来用,为什么我要用chatgpt还要去注册个外国的手机号才能搞这玩意,要不然我就只能用免费的公用的,动不动就“sorry,当前访问人数太多,请稍后再试”,绝了,为什么要排除我们国家。”



先来看看很多伙伴用的免费的公用的chatgpt地址,确实可以用,但是现在chatgpt很火,很多人很好奇,应该是同一时间段很多人都在访问,都在调用这个chatgpt的api,所以经常会出现这种情况。


image.png


为什么不是所有国家和地区都支持OpenAI?


OpenAI 是一家致力于帮助人类推进人工智能研究的科研机构,它在全球范围内提供免费的语言处理技术和其他人工智能工具。


然而,由于技术和法律限制,并非所有国家和地区都能够使用OpenAI的服务。


因此,OpenAI的服务并不能覆盖所有国家和地区。


官网地址: openai.com/api/


注册或者登陆地址为:openai.com/api/


注册 一道坎


我们注册完,写好一切,到某一步,就需要填写手机号,一个账号对应一个手机号,所以就会用到这个countries的接口:


countries: api.openai.com/dashboard/p…


(直接在浏览器打开就可以看到列出来的全部国家信息),看到有中国地区的,但是呢,当你点击发送验证码的时候,后台又会去调用一个接口去verify验证一下这个国家能不能用,到目前(2023-2-17)为止,中国地区是不能用的:


image.png


它这里整个官网啊、后台管理系统啊,用的是react框架搭建的,采用的是前后端分离的模式。


我们国内的过不去没法注册,没办法用啊,免费公众的用一直报错。解决办法就是[买一个外国的手机号]或者租一个,这里面呢也有免费号码可以提供,但就是最近chatgpt太火了免费也轮不到。现在很多可支持支付宝或者微信。主要是你懂得。一般价格在几块钱4块钱、5块钱这样子。也可以去搜索引擎看看有没有免费的OpenAI账号可以借来看看,玩一玩。


截屏2023-02-17下午5.34.47.png


进来玩一玩


overview 总览


截屏2023-02-17下午5.32.36.png


这就是一些基本的。 左边叫你看一下它的文档,学习并快速创建一个简单的应用;右边呢,就是叫你去看它现在现成的例子,就是叫你去玩的看的。


先别玩,先再看一下它的介绍还有什么:


image.png


chatgpt (你问它答)


chatgpt的网址在这里


一进来,它就给我一个提示,说2-10号更新的公告, chatgpt plus 可以 有beta版可用,不过你要通过申请排队,表单申请内容有一系列,其中有问你用这个chatgpt用来干嘛的,理由是什么,会用在哪里,将来有兴趣把它用在哪里。


没事, chatgpt 可用就行。我们来看看chatgpt。


image.png


没错,公用的不用登录账号的网址,跟这个一模一样。只不过偶尔那里会堵一点。


最近chatgpt 可是 火到 冲天,我们国内,或者国外都在讨论这个东西。还有一些人因为chatgpt什么的被骗,案例蛮多的最近,收费还不低,大家一定要擦亮你闪亮的小眼睛,分辨清楚,别轻易交钱就是了。


来问问chatgpt了,看看它到底牛在哪。


第一问


问它帮我写其他语言的代码


请帮我把以下java代码 翻译成 javascript 代码, 代码如下:

public class mmm {
public static void man(String[] args) {
String s1 = "hello";
String s2 = "HELLO".toLowerCase();

System.out.println(s1);
System.out.println(s2);

if (s1.equals(s2)) {
System.out.println("s1 === s2");
} else {
System.out.println("s1 !== s2");
}

}
}

下面是它回答我的:


let s1 = "hello";
let s2 = "HELLO".toLowerCase();

console.log(s1);
console.log(s2);

if (s1 === s2) {
console.log("s1 == s2");
} else {
console.log("s1 != s2");
}


请注意,JavaScript与Java有所不同,因此您需要确保语法和操作符正确。在这个例子中,我们将`System.out.println()`替换为了`console.log()`,将`String.equals()`替换为了`===`。此外,我们需要用`let`而不是`String`来声明变量。

image.png


它不仅能帮你转成JavaScript的写法,还给你解释了为什么这样做。


1、System.out.println()替换为了console.log()


2、String.equals()替换为了===


3、用let而不是String来声明变量


chatgpt次数是免费的,随你问。但如果问关于专业的或者代码的相关问题,学会提问的技巧哦,就跟搜索引擎一样就行,多加关键字关键词,github上有关于如何提问的文章,写的很好,放在这里了。《提问的智慧》 中文版的在这里 《提问的智慧 How to ask questions the smart way》


第二问


为什么不能除以零


这是它的回答:


image.png


第三问


给我一些关于年龄超过35程序员的职业规划的具体建议


这个问题对于我们这个行业来说,一直在问,今天我问问这个chatgpt它有什么好的想法


image.png


第四问


向我推销这支笔


image.png


image.png


image.png


外国人对于chatgpt的一些相关问答记录在这里了


http://www.emergentmind.com/


可以去看看翻一翻。


text completion 文字补充


借一步说话哈,它这个注册了这个东西,有用的并不单单是进来玩一下案例,还有一个api key。就是用这个api key这个钥匙去调用他们这个公司提供的接口,就这样这么简单,这个key可自行创可以删。


像它说的这个completion model,就是可以用来文本补充提示的这个功能的可用的模型有哪些。


通过GET https://api.openai.com/v1/models这个接口去调用查看可用模型列表。


返回来的数据结构就是这个:


image.png


回到正题,说到这个文字补充。


比如说你敲了文本“正如笛卡尔说的,我思故”,它就会帮你补充"我在"


"正如笛卡尔说的我思故我在"


点击确定按钮 发了一个请求,看一下


image.png


请求 api.openai.com/v1/moderati…


request 请求参数:


{
input: '正如笛卡尔说的我思故", // 这就是敲的文本
model: 'text-moderation-playground' // 这就是哪个模型类型
}


response 响应回来的:


image.png


返回来一些类别关于我们打的这段字的类别。如果我们敲的一些文本触发到这些类别,就会给予警告。


image.png


历史问过的会保存在你浏览器本地的localstorage里面:


image.png


AI画图


AI画图功能


image.png


AI画图的名字叫做: DALL.E


AI图像生成:


提供了三种与图像交互的方法:


1、基于文本提示从头开始创建图像


2、基于新文本提示创建对现有图像的编辑


3、创建现有图像的变体


这个DALL.E AI画图功能呢,还处在测试阶段,默认速率是限制每分钟 50张图,多的没有了。


如果你想要每分钟出超过50张,加钱。


image.png


那我现在,是在第一个月,有50个免费的使用机会,用完以后我就要买了。


废话不多说,来看看,有多神乎。


这是它这个功能的官网宣传图


image.png


image.png


image.png


image.png


AI图片生成模块 接口文档


生成的图像大小可以是 256 X 256 的,512 X 512 的, 1024 X 1024 的。尺寸越小生成速度越快。


用nodejs请求这么写


const res = await openai.createImage({
promt: '一只白色暹罗猫',
n: 1, // 这里 n 的取值范围是 1到10
size: '1024 X 1024',

// 可加可不加
response_format: 'URL' 或者 'Base64', // URL 会在一个小时后过期
})

image_url = res.data.data[0].url

文档它也说了,你写这个promt描述越详细,结果你得到的图像会越接近你想要得到的效果。


image.png


它这个后台本身就有个现成的案例给我们玩,只不过要钱, 基本的就是这样。


image.png


就是你写描述,它给你图。满不满意,看你描述得如何。


我描述了一下: A Mexican woman wearing a pearl necklace


一个戴着珍珠项链的墨西哥女人


image.png


很写实,确实一个戴着珍珠项链的墨西哥女人,那我写女人,不写美女,效果很写实,但不够惊艳,浪费了我一次机会。


突发奇想我去谷歌搜一下同样的描述,出来了一个这样的。


image.png


它这里做了一些可供我们操作的按钮:


截屏2023-02-18下午2.52.57.png


1、可以打开这张图的详情页,单独看某一张图


2、可以对某一张图进行修改(就是调整、抠图啊、裁剪啊,大小啊之类的)


3、进行改造,就是这张图你不满意,我再进行改造一下


4、下载单独这一张图


5、为这一张图生成报告


请求的接口是这个 https://labs.openai.com/api/labs/tasks/task-xxx


image.png


返回来的就是 一个 data 数组, 然后react就把这个数组循环渲染出各个图片链接,图片链接应该是放在某个cdn桶里。


然后这里呢请求的图片列表的同时,也同时扣了一次机会。


可以对比一下,这也就是他们成立一个公司开发OpenAI这一系列产品的可怕之处,确实是有料。


一个戴着珍珠项链的墨西哥女人 改成 戴着珍珠项链的18岁墨西哥女孩 An 18-year-old Mexican girl with a pearl necklace


image.png


还是搜一下'日本美女'吧


image.png


第一位日本美女出场


image.png


脸、眼睛、手、怪不得人家画画的说,画人物手比较难画,可能是吧我不是美术生,就记得一句话“画人难画手”✋。


其他的我就不一一举例了。


它这东西怎么想的, 啧啧...


最后我放一张我自己认为的日本美女。想了一下,自己去搜吧,放这里不太合适。




以上着重看了 你问我答 (chatgpt), 文本补充 (Text completion)、你说我出画 (Image generation)这三点。


image.png


还剩下 代码补充(生成代码、编辑代码、代码解释); 嵌入 (搜索、分类和比较文本); 模型训练 (训练模型) 这三块。


总结


我让chatgpt这个AI来帮我写结尾吧。


image.png


看了整篇文字数,废话很多,洋洋洒洒3千多。这个新技术确实像chatgpt它自己总结的一样,势不可挡,不容小觑。


潜力


1、自然语言处理

2、计算机视觉

3、自动化决策


应用在


1、医疗保健

2、交通运输

3、金融服务

4、能源


作者:盏灯
链接:https://juejin.cn/post/7201388504914591805
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

今年很火的 AI 绘画怎么玩

1.前言 2022年绝对可以说是AIGC元年,从google搜索的趋势来看,在2022年AI绘画及AI生成艺术的搜索量激增。 AI绘画在这一年的爆发一个很重要的原因就是 Stable Diffusion 的开源,这也来不开这几年 Diffusion Mode...
继续阅读 »

1.前言


2022年绝对可以说是AIGC元年,从google搜索的趋势来看,在2022年AI绘画及AI生成艺术的搜索量激增。


640.jpg


AI绘画在这一年的爆发一个很重要的原因就是 Stable Diffusion 的开源,这也来不开这几年 Diffusion Model 扩散模型在这几年里的迅猛发展,结合了 OPENAI 已经发展得很成熟的文本语言模型 GPT-3,从文本到图片的生成过程变得更加容易。


2.GAN(生成对抗网络)的瓶颈


从14年诞生,到18年的StyleGAN,GAN在图片生成领域获得了长足的发展。就好像自然界的捕食者与被捕食者相互竞争共同进化一样,GAN的原理简单来说就是使用两个神经网络:一个作为生成器、一个作为判别器,生成器生成不同的图像让判别器去判断结果是否合格,二者互相对抗以此训练模型。


640.png


GAN(生成对抗网络)经过不断发展其有了不错的效果,但有些始终难以克服的问题:生成结果多样性缺乏、模式坍缩(生成器在找到最佳模式后就不再进步了)、训练难度高。这些困难导致 AI 生成艺术一直难以做出实用的产品。


2.Diffusion Model(扩散模型)的突破


在 GAN 多年的瓶颈期后,科学家想出了非常神奇的 Diffusion Model(扩散模型)的办法去训练模型:把原图用马尔科夫链将噪点不断地添加到其中,最终成为一个随机噪声图像,然后让训练神经网络把此过程逆转过来,从随机噪声图像逐渐还原成原图,这样神经网络就有了可以说是从无到有生成图片的能力。而文本生成图片就是把描述文本处理后当做噪声不断添加到原图中,这样就可以让神经网络从文本生成图片。


6401.png


Diffusion Model(扩散模型)让训练模型变得更加简单,只需大量的图片就行了,其生成图像的质量也能达到很高的水平,并且生成结果能有很大的多样性,这也是新一代 AI 能有难以让人相信的「想象力」的原因。


当然技术也是一直在突破的,英伟达在1月底推出的StyleGAN的升级版StyleGAN-T就有了十分惊艳的进步,在同等算力下相比于Stable Diffusion生成一张图片需要3秒,StyleGAN-T仅需0.1秒。并且在低分辨率图像StyleGAN-T要比Diffusion Model要好,但在高分辨率图像的生成上,还是Diffusion Model的天下。由于StyleGAN-T并没有像Stable Diffusion那样获得广泛的应用,本文还是以介绍Stable DIffusion为主。


3.Stable Diffusion


在今年早些时间,AI作画圈经历了 Disco Diffusion、DALL-E2、Midjouney 群雄混战的时代,直到 Stable Diffusion 开源后,才进入一段时间的尘埃落定,作为最强的 AI 作画模型,Stable Diffusion 引起了 AI 社群的狂欢,基本上每天都有新的模型、新的开源库诞生。尤其是在Auto1111的WebUI版本推出后,无论是部署在云端还是本地,使用Stable Diffusion都变成一个非常简单的事情,并且随着社区的不断开发,很多优秀的项目,比如Dreambooth、deforum都作为 Stable Diffusion WEBUI版的一个插件加入进来,使得像微调模型、生成动画等功能都能一站式完成。


6402.png


4.AI绘画玩法及能力介绍


下面介绍下目前使用 Stable Diffusion 可以有哪些玩法以及能力


11.jpg


12.jpg


14.jpg


15.jpg


5.目前主要应用情况介绍


19.jpg


31529880d6c24b11bc54dde744214084.jpeg


6.自己搭一个Stable Diffusion WEBUI服务


6.1 云端版本


这里使用AutoDL提供的云端算力来搭建,也可以使用其他平台比如 Google Colab或者百度飞桨等。


1.首先在AutoDL上注册账号并且租一台 A5000/RTX3090 显卡的云主机。http://www.autodl.com/market/list


2.以此主机创建镜像,镜像可在 http://www.codewithgpu.com 上选择已经打包好的算法镜像。这里以 http://www.codewithgpu.com/i/AUTOMATIC… 这个镜像为例,选择后创建。


6403.png


3.创建后开机并启动JupterLab,


6404.png


运行下面指令启动服务即可。如果遇到系统盘空间不足的情况,也可以将stable-diffusion-webui/文件夹移入数据盘 autodl-tmp再启动。如果遇到启动失败,可以根据你机器的位置配置一下学术资源加速。


cd stable-diffusion-webui/
rm -rf outputs && ln -s /root/autodl-tmp outputs
python launch.py --disable-safe-unpickle --port=6006 --deepdanbooru

6.2 本地版本


如果你有一块显卡还不错的电脑,那可以部署在本地,这里介绍下Windows版本的搭建:


1.首先需要安装Python 3.10.6,并且添加环境变量到Path中


2.安装git


3.Clone Stable Diffusion WEBUI 的工程代码到本地


4.将模型文件放置于 models/Stable-Diffusion目录下,相关模型可以去huggingface.co/ 下载


5.运行 webui-user.bat,通过本机电脑ip及7860端口访问服务。


7.总结


本文介绍了AI绘画的一些相关的信息,感兴趣的朋友也可以自己把服务部署起来,自己试着学习用DreamBooth或者最新的Lora微调一下大模型。相信在2023年,随着 AIGC 热度的不断提高,我们的工作和生活都会因为 AI 带来巨大的改变。前段时间 ChatGPT的推出给我们带来了巨大的震撼,就好像刚进入互联网时期搜索信息的能力一样,今后学会使用 AI 来辅助我们的工作也将是一个非常重要的能力。


8.参考资料




  1. 从起因到争议,在 AI 生成艺术元年聊聊 AI
    sspai.com/post/76277




  2. 神经网络学习笔记6——生成式AI绘画背后的的GAN与Diffusion初解
    blog.csdn.net/qq_45848817…




  3. How diffusion models work: the math from scratch

    theaisummer.com/diffusion-m…




  4. GAN 结构概览

    developers.google.com/machine-lea…




  5. The absolute beginners guide to Midjourney – a magical introduction to AI art
    http://www.entrogames.com/2022/08/abs… magical-introduction-to-ai-art/




  6. The viral AI avatar app Lensa undressed me—without my consent
    http://www.technologyreview.com/2022/12/12/… lensa-undressed-me-without-my-consent/




  7. instruct-pix2pix
    huggingface.co/timbrooks/i…




文/misotofu


作者:得物技术
链接:https://juejin.cn/post/7201050872574574653
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

一键接入 ChatGPT,让你的QQ群变得热闹起来

项目效果 ChatGPT 的出现对于人们的生活和工作都有着重要的影响,作为一个强大的自然语言处理模型,可以理解和生成自然语言,所以 ChatGPT 非常适合作为聊天机器人,回答你的任何问题 在日常生活中想要更加方便的使用 ChatGPT,当然是将其设置成微信...
继续阅读 »

项目效果



  • ChatGPT 的出现对于人们的生活和工作都有着重要的影响,作为一个强大的自然语言处理模型,可以理解和生成自然语言,所以 ChatGPT 非常适合作为聊天机器人,回答你的任何问题

  • 在日常生活中想要更加方便的使用 ChatGPT,当然是将其设置成微信聊天机器人和QQ聊天机器人,随时随地解答你的问题,为你解决疑惑

  • 当然,不推荐您将其设置成微信聊天机器人,因为微信的检测机制,很容易导致你这个号废掉,本人已经亲自踩过坑,但是如果您有很多小号,请随意;因此这里只教大家QQ聊天机器人的搭建方式



🎈 安装环境



  • 支持在 Liunxwindow 上部署,也支持一键启动命令

  • 该项目 chatgpt-mirai-qq-botgithub 上已经进行开源,任何人都可以进行下载

  • 因为只做快速聊天体验,所以本人只部署 window 版本,想要 Liunx 版本的,可自行查看项目中的文档

  • 下载最新版稳定的 window 源码包:github.com/lss233/chat…

  • 本地解压后,双击其中的 初始化.cmd 即可进行环境初始化,一路回车,等待运行成功即可



🎈 配置文件



  • 在初始化的最后,将会打开配置文件 chatgpt/config.cfg,在这个文件中进行配置

  • 配置完成后,保存关闭,初始化环境即是成功

  • 如果暂时不知道怎么配置,也可以保存关闭,后期手动打开 chatgpt/config.cfg 配置即可

  • 关于配置文件中需要配置解释的如下

  • mirai.qq: 这个 qq 必须配置,一般是你的小号,用来作为聊天机器人的 qq

  • api_key: 这个 window 版本默认即可,无需修改,如果是 liunx 则需要修改成 123456789

  • http_url: 这个 window 版本默认即可,无需修改,如果是 liunx 则需要修改成 http://mirai:8080,具体细节可以去项目中的 issues 中查看

  • ws_url:http_url 一样

  • openai:关于 openai 中的配置是最重要的,你会看到可以配置多个账号,这是为了防止被 openai 限制,所以如果你有多个 openai 的账号,可以减轻请求压力,不过一般只填其中一个就行了,因此这里我们只需要完善第一个账号信息即可

  • mode: 可以选择 browser 也可以选择 browserlessbrowser 模式是通过浏览器自动化登录openai,可以看到登录过程,browserless 是走第三方代理,无需浏览器登录,这里我选择的是browserless

  • email/password: 不用不必多说

  • session_token/access_token/api_key: 如果你填了email/password,这个就不用管,不同的登录方式罢了

  • proxy: 这个是字面意思,如果你在国内,这个就必须要填,而且地址最好是漂亮国所在区域,这个参数一般只要修改端口即可,具体看你自己 proxy 的端口

  • system.accept_group_invite: 这个是对QQ的限制,是否接受用户拉你机器人到群里,这个我一般填false,被别人用多了,也增加风险

  • system.accept_friend_request: 这个是对QQ的限制,是否接受用户加你好友,一般人喜欢私聊一些问题,这个我选择true

  • presets: 关于预设,无需修改,默认正常就是使用 chatgpt 进行回复,喜欢不同风格的回复,自己聊天的时候加载就行,这个功能还是很好玩的,不同的预设回复你的时候,语气都不一样。


# 这里是 ChatGPT for QQ 的所有配置文件
# 请注意:以 "#" 开头的文本均为注释
# 不会被程序读取
# 如果你想要使用某个设置,请确保前面没有 "#" 号

[mirai]
qq = 请修改为你机器人的QQ号

manager_qq = 请修改为机器人管理员的QQ号

# 以下设置如果不了解,可以不用理会
api_key = "1234567890"
http_url = "http://localhost:8080"
ws_url = "http://localhost:8080"

[openai]
# OpenAI 相关设置

# 第 1 个账号信息
[[openai.accounts]]
# 模式选择, browser - 浏览器登录, browserless = 无浏览器登录
# 如果你使用浏览器登录卡在 Found session token,就使用无浏览器登录
mode = 'browserless'

# 你的 OpenAI 邮箱
email = "xxxx"
# 你的 OpenAI 密码
password = "xxx"

# 对于通过 Google 登录或者微软登录的同学,可以使用 session_token 登录
# 此时的 password 可以直接删除 (email 必填)
# session_token 获取方法:https://github.com/lss233/chatgpt-mirai-qq-bot/issues/96
# 提示:如果使用此模式,请删除下方 session_token 前面的 "#" 号,并给上方的 password 前面加上 "#"
# session_token = "一串 ey 开头的东西"

# 你的 OpenAI access_token,登录后访问`https://chat.openai.com/api/auth/session`获取
# 提示:如果使用此模式,请删除下方 access_token 前面的 "#" 号,并给上方的 email、password 前面加上 "#"
# access_token = "一串 ey 开头的东西"

# 如果你想使用的是 API 版的 ChatGPT,请使用
# api_key = "sk-xxxx"

# 如果你在国内,需要配置代理
# 提示:如果使用此功能,请删除下方 proxy 前面的 "#" 号
# proxy="http://127.0.0.1:1080"

# 是否为 ChatGPT Plus 用户(是的话设置为 true)
paid = false

# 是否开启标题自动重命名
# 若为空或保持注释即不开启
# 支持的变量: {session_id} - 此对话对应的上下文 ID,若产生在好友中,则为好友 QQ 号,若产生在群聊中,则为群号
# 具体见 README 中的介绍
# title_pattern="qq-{session_id}"

# 是否自动删除旧的对话,开启后用户发送重置对话时会自动删除以前的会话内容
# auto_remove_old_conversations = true

# # 第 2 个账号信息,access_token 登录示例
# [[openai.accounts]]
# mode = 'browserless'
# access_token = "xxxxx"
# # proxy="http://127.0.0.1:1080"
# paid = false

# # 第 3 个账号信息, api_key 登录示例
# [[openai.accounts]]
# api_key = "sk-xxxx"

# 如果你想增加更多账号,复制的文本继续添加即可

# [system]
# 是否自动同意进群邀请
accept_group_invite = false
# 是否自动同意好友请求
accept_friend_request = false

[presets]
# 切换预设的命令: 加载预设 猫娘
command = "加载预设 (\w+)"
loaded_successful = "预设加载成功!"
scan_dir = "./presets/"

[presets.keywords]
# 预设关键词 <-> 实际文件
"正常" = "presets/default.txt"
"猫娘" = "presets/catgirl.txt"
# "default" = "presets/default.txt" # 默认预设,开启后所有的会话都会先读这个预设,谨慎使用!

🎈 启动Mirai



  • 在初始化完环境后,会多出两个可执行文件,先点击 Mirai.cmd

  • 这个脚本主要用来登录你的 QQ 机器人账号的,把你的上面配置里面填写的 QQ 设置成机器人

  • 登录机器人命令:login <机器人QQ账号> <机器人QQ密码> <登录协议>

  • 回车即可登录成功,也就是说QQ机器人登录成功了,当然这部分也有可能是最难的,欢迎私信



🎈 启动ChatGPT



  • 最后点击启动 ChatGPT.cmd ,这个可执行文件,就是用来登录 openai

  • 登录成功后,说明 QQ 机器人已经连接上了 ChatGPT,此时即可跟机器人畅所欲言的聊天了



作者:极客飞兔
链接:https://juejin.cn/post/7206219564090130487
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

你代码的异味是故意的还是不小心?是故意的!

一、代码竟会有“气味” 食物在腐烂之际,会散发出异味,提醒人食物已经坏掉了,需要处理。同样,如果代码中某处出现了问题,也会有一些症状。这些症状,被称之为“代码异味”(Code smell,也译作“代码味道”)。与食物腐败发出的味道不同的是,代码异味并非真正的气...
继续阅读 »


一、代码竟会有“气味”


食物在腐烂之际,会散发出异味,提醒人食物已经坏掉了,需要处理。同样,如果代码中某处出现了问题,也会有一些症状。这些症状,被称之为“代码异味”(Code smell,也译作“代码味道”)。与食物腐败发出的味道不同的是,代码异味并非真正的气味,而是一种“暗示”,暗示我们代码可能有问题,提示程序员需要对项目设计进行更进一步的查看。


代码异味一词最初是由Kent Beck在帮助Martin Fowler在编写《重构:改善既有代码的设计》一书时创造的。Martin Fowler对代码异味的定义是:代码异味是一种表象,它通常对应于系统中更深层次的问题。


代码异味的产生原因跟厨师的“清洗过程中故意保留”不一样,它更多地并非刻意为之,创造者也未必“品尝”过自己所写的代码,它更多地是由于设计缺陷或不良编码习惯而导致的不良代码症状。


这种异味也并非来自一种有据可查的标准,更多的是来自程序员的直觉。尤其是经验丰富和知识渊博的程序员,他们无需思考,只要通过查看代码或一段设计就可以立马对这个代码质量产生这种“感觉”,能对代码设计的优劣有一个大致的判断。这有点类似我们英语学到一定程度后,即便不能完全看懂文章,但凭借语感也能选出正确答案。


二、 代码异味的影响


对于代码异味的出现我们其实无需过度紧张,因为在整个程序中代码异味是无处不在的。


一般情况下,有“异味”的代码也依旧能运行得很好。只是倘若重视不够,没有适当地维护或改进代码,代码质量就会下降,系统也会开始变得难以维护和扩展,同时也会增加技术债务。这就像做出有异味的九转大肠的的小胖厨师,在前期准备中对评委的建议置若罔闻,一意孤行,做出来的菜连自己都难以下咽。


所以团队应尽可能地做有质量的代码,减少甚至避免这些问题,产生高效益的成果。


三、 如何辨别代码异味



代码是否存在代码异味,通常是靠程序员的主观判断,但由于语言、开发者、开发理论的不同,对代码异味的判断也会存在差异。


所以要想更精准地识别代码异味,获得更高的代码质量,程序员需要大量的实践和经验。不过,前辈们总结的经验也可以让我们少走一些弯路。Martin Fowler在《重构:改善既有代码的设计》一书中,列举了最常见的24种代码异味,可以帮助我们轻松识别,便于处理和改善它们:


1) 过大的类(Large Class)


一个类包含许多字段、方法或者代码行,并逐渐变得臃肿。


2) 数据泥团(Data Clumps)


代码的不同部分包含了相同的变量组,且这些数据总是绑在一起出现。


3) 过长参数列表(Long Parameter List)


指一个方法的参数超过了三个或四个。出现这种情况一般是将几种类型的算法合并到一个方法之后。


4) 基本类型偏执(Primitive Obsession)


创建一个原始字段比创建一个全新的类要容易得多,所以对于具有意义的业务概念如钱、坐标、范围等,很多程序员不愿意进行建模,而是使用基本数据类型进行表示,进而导致代码内聚性差、可读性差。


5) 神秘命名(Mysterious Name)


在编程中,命名是一件非常恼人的事情。一些可能只有自己看懂的命名,无疑加大了代码可读性的难度,有时甚至自己也会忘记这些命名的含义。


6) 重复代码(Duplicated Code)


这几乎是最常见的异味。当多个程序员同时处理同一程序的不同部分时,通常会发生这种情况。


7) 过长的函数(Long Function)


根据Martin Fowler的经验,通常活得最长、最好的程序,其中的函数都比较短。函数越长,就越难理解。


8) 全局数据(Global Data)


这是一个非常可怕且刺鼻的异味代码。因为从代码库的任何一个角落都可以修改它,而且没有任何机制可以探测出到底是哪段代码做出了修改。全局数据造成一次又一次的诡异Bug,让我们很难找出出错的代码。


9) 可变数据(Mutable Data)


如果可变数据的变量的作用域越大, 越容易出现问题。变量是可以更改的,但我们可能不知道是哪里改变了它。


10) 发散式变化(Divergent Change)


是指一个类受到多种变化的影响。


11) 霰弹式修改(Shotgun Surgery)


是指一种变化引发多个类相应修改。


12) 依恋情结(Feature Envy)


一个类使用另一个类的内部字段和方法的数据多于它自己的数据。


13) 重复的switch(Repeated Switch)


在不同的地方反复使用switch逻辑。这带来的问题就是当我们想要增加一个选择分支时,就必须找到所有的switch,并逐一更新。


14) 循环语句(Loops)


在编程语言中,循环一直是程序设计的核心要素。在《重构》中,Martin Fowler认为它是一种代码异味,因为他们觉得如今的循环已经有点过时了。他们提出“以管道取代循环”,这样可以帮助我们更快看清被处理的元素以及处理它们的动作。


15) 冗赘的元素(Lazy Element)


这是几乎无用的组件。我们在设计代码时有时为了未来的功能设计出“预备”代码,但实际上从未实现;又或者这个类本来有用但随着重构,越来越小,最后只剩下一个函数。无论哪种,它们都是冗赘无用的。


16) 推测的通用性(Speculative Generality)


是指为了“以防万一”,支持预期的未来功能,但这些功能并未被实现,这些类、方法、字段或参数也从未被使用,结果导致代码变得难以理解和支持。


17) 临时字段(Temporary Field)


创建临时字段以用于需要大量输入的算法。但这些字段仅在算法中使用,其余时间不使用。


18) 过长的消息链(Message Chains)


当客户端请求另一个对象,该对象又请求另一个对象,依此类推时,就会出现过长的消息链。这些链意味着客户端依赖于类结构的导航。一旦发生更改,客户端也要跟着修改。


19) 中间人(Middle Man)


指一个类只执行一个动作,但将工作委托给另一个类,这种委托属于过度委托。该类也可能只是一个空壳,只负责委托且只有一件事。


20) 内幕交易(Insider Trading)


指模块之间大量地交换数据,增加模块之间的耦合。


21) 异曲同工的类(Alternative Classes with Different Interface)


是指两个类执行了相同的功能但具有不同的方法名称。


22) 纯数据类(Data Class)


指包含字段和访问它们的粗略方法(getter 和 setter)的类。这些只是其他类使用的数据容器。这些类不包含任何附加功能,并且不能独立操作它们拥有的数据。


23) 被拒绝的遗赠(Refused Bequest)


指如果子类复用了超类的行为,但又不愿意支持超类的接口的情况。


24) 注释(Comments)


程序员将其作为一种“除臭剂”使用情况下的行为。比如:一段代码有着长长的注释,但这段长注释的存在是因为代码很糟糕。


四、 如何对代码“除臭”



1)重构


上述代码异味没有优先级一说,所以对于程序员而言,只能依靠直觉和经验去决定是否需要重构。


重构,一言以蔽之,就是在不改变外部行为的前提下,有条不紊地改善代码。是实现敏捷性的最重要的技术因素之一。是程序员根据已识别出的气味然后将代码分成更小的部分的过程,再决定要么删除它们,要么用更好的代码替换它们,如此循环重复这个过程,直到异味消失,这样可能会提高代码质量并让代码变得更具简单性、灵活性和可理解性。


2)使用代码检测工具



识别和消除代码异味是一个令人厌烦且不确定的过程,而且也不可能手动查找到和删除掉所有异味,尤其是面对一个有着上千行异味的代码的时候。所以使用一些代码检测工具可以辅助我们进行快速大量地审查,帮助我们节约时间来做更为重要的工作,比如能专注于代码高层面的设计原则问题。


好了,关于代码异味的知识,算是讲了个清楚,那么让我们相约下一次代码评审吧!



作者:禅道程序猿
来源:juejin.cn/post/7207617774633123896
收起阅读 »

ChatGPT3微调-评论文本情感分析

前言 如果阅读过openai的文档,便能看到对于模型提供了fine-turning功能,即微调。GPT-3已经在互联网中进行了大量文本的预训练,当我们给出少量示例的提示时,它通常可以直观地了解正在尝试执行的任务并生成一个合理的完成。这通常被称为“小样本学习”。...
继续阅读 »

前言


如果阅读过openai的文档,便能看到对于模型提供了fine-turning功能,即微调。GPT-3已经在互联网中进行了大量文本的预训练,当我们给出少量示例的提示时,它通常可以直观地了解正在尝试执行的任务并生成一个合理的完成。这通常被称为“小样本学习”。但我们需要的是一些特定的需求,比如GPT之前未预训练过的数据或是一些私有数据,便可以用微调通过训练来改进小样本学习。


那么微调都可以解决什么问题呢?结合官网的指南,常见的场景有:



  • 文本生成:可以通过提供相关数据集和指导性的文本,生成更加准确和有针对性的文本

  • 文本分类:将一段文本分成多个类别,例如电子邮件分类

  • 情感分析:分析一段文本的情感倾向,是否积极或消极


本文将对情感分析进行一次尝试。


准备数据


先从网上获取了一份关于酒店评论的数据,总共就两列。


第一列是评论内容,第二列1代表积极, 0 代表消极。


image.png


有需要的可以从这里下载,总共是1w条
评论文本情感分析


不过目前的数据是不能直接使用的,我们需要转换成GPT能接受的格式


{"prompt": "", "completion": ""}
{"prompt": "", "completion": ""}
...

数据预处理


openai很贴心的准备一个工具来验证、格式化数据。


安装CLI


pip install --upgrade openai


验证、格式化


openai tools fine_tunes.prepare_data -f


image.png


执行命令后我们看到他返回的提示中告诉了数据一共有300条,并猜测我们是要进行分类模型,同时建议我们用ada模型,拆分出训练集和测试集,加入分隔符(加入分隔符可以帮助模型更好地理解输入的数据),分别会在接下来让我们选择


为所有提示添加后缀分隔符 `->`
- [Recommended] Add a suffix separator ` ->` to all prompts [Y/n]: Y
在完成的开头添加空格字符
- [Recommended] Add a whitespace character to the beginning of the completion [Y/n]: Y
是否要将其拆分为训练和验证集
- [Recommended] Would you like to split into training and validation set? [Y/n]: Y

无特殊情况全部选Y即可。


image.png


之后会生成两个jsonl文件,同时返回一段参考命令、训练预计的时间。


训练模型


选择模型


首先,我们需要对模型进行一个选择,目前只支持davincicuriebabbageada


模型名称描述训练/1K tokens使用/1K tokens
Davinci最强大的GPT-3模型,可以完成其他模型可以完成的任何任务,通常具有更高的质量$0.0300 $0.1200
Curie非常有能力,但速度更快,成本更低,比Davinci更适合$0.0030$0.0120
Babbage适用于简单任务,非常快速,成本更低$0.0006$0.0024
Ada适用于非常简单的任务,通常是GPT-3系列中速度最快,成本最低的模型$0.0004$0.0016

模型的训练和使用都是需要费用的。出于各种原因我们直接选择Ada。


开始训练


在此之前,我们先将key添加到环境变量中


export OPENAI_API_KEY=""


然后再来看一下之前openai给我们参考的代码


openai api fine_tunes.create 
-t ".\train_data_prepared_train.jsonl"
-v ".\train_data_prepared_valid.jsonl"
--compute_classification_metrics
--classification_positive_class " 1"

-t、-v分别是训练集和测试集


--compute_classification_metrics可以计算模型在分类任务中的性能指标,在验证集上计算模型的准确率(accuracy)、精确率(precision)、召回率(recall)和F1分数。这有助于评估模型的性能,并调整微调过程中的超参数和训练策略。


--classification_positive_class是指分类的积极类别或正例


这里还需要一个 -m,来设置选择的模型。我也是手快直接回车了,本来以为会报错,可它正常运行了,但是默认的模型可能不是我们期望的ada,所以我们需要取消这次训练。


3VGP%(3UDXQ@4`7`}0`IG%V.gif


openai api fine_tunes.cancel -i


不过我也是用list查了一下,发现默认的模型是curie


openai api fine_tunes.list


image.png


接下来我们加上模型等待训练完成即可。
如果过程中不小心关掉窗口或者中断了可以用以下命令恢复。


openai api fine_tunes.follow -i


结束训练


耗时25分钟,花费了0.06刀(比预计的少很多)。


image.png


最后我们看一下分析结果

openai api fine_tunes.results -i


image.png


详细的解析大家可以阅读官方文档,这里我们主要看一下准确度

image.png


使用模型


模型的性能指标给出了0.85的准确率,这里用Playground调用测试一下。


除此之外还可以使用CLI命令


openai api completions.create -m -p


或者使用API


const openai = new OpenAIApi(configuration);
const response = await openai.createCompletion({
model: "训练完后模型的id",
prompt: "Say this is a test",
});

输入的prompt末尾需要加上之前CLI自动给我们补齐的分隔符。


从大数据集中随机拿了几个例子,结果是对的,但是输出有问题
image.png


image.png


image.png


D9}6@O_VYQ@W5R)BI)J%Q_W.gif


应该是completion结尾没有分隔符的原因,明天再试试,顺便扩大一下样本。

梅开二度


第二次训练在completion的末尾全都加上了" ###"作为分隔符。


在playgroud、API、CLI中记得设置Stop


image.png


image.png


image.png


R`F1(}96)`OO(YWJD9`{U]D.jpg


作者:Defineee
来源:juejin.cn/post/7208108117837217848
收起阅读 »

Android将so库封装到jar包中并加载其中的so库

说明 因为一些原因,我们提供给客户的sdk,只能是jar包形式的,一些情况下,sdk里面有native库的时候,就不太方便操作了,此篇文章主要解决如何把so库放入jar包里面,如何打包成jar,以及如何加载。 1.如何把so库放入jar包 so库放入jar参考...
继续阅读 »

说明


因为一些原因,我们提供给客户的sdk,只能是jar包形式的,一些情况下,sdk里面有native库的时候,就不太方便操作了,此篇文章主要解决如何把so库放入jar包里面,如何打包成jar,以及如何加载。


1.如何把so库放入jar包


so库放入jar参考此文章ANDROID将SO库封装到JAR包中并加载其中的SO库
放置路径
将so库改成.jet后缀,放置和加载so库的SoLoader类同一个目录下面。


2.如何使用groovy打包jar


打包jar
先把需要打包的class放置到同一个文件夹下面,然后打包即可,利用groovy的copy task完成这项工作非常简单。


3.如何加载jar包里面的so


3.1.首先判断当前jar里面是否存在so

InputStream inputStream = SoLoader.class.getResourceAsStream("/com/dianping/logan/arm64-v8a/liblogan.jet");

如果inputStream不为空就表示存在。


3.2.拷贝

判断是否已经把so库拷贝到手机里面了,如果没有拷贝过就进行拷贝,这个代码逻辑很简单。


public class SoLoader {
private static final String TAG = "SoLoader";

/**
* so库释放位置
*/

public static String getPath() {
String path = GlobalCtx.getApp().getFilesDir().getAbsolutePath();
//String path = GlobalCtx.getApp().getExternalFilesDir(null).getAbsolutePath();
return path;
}

public static String get64SoFilePath() {
String path = SoLoader.getPath();
String v8a = path + File.separator + "jniLibs" + File.separator +
"arm64-v8a" + File.separator + "liblogan.so";
return v8a;
}

public static String get32SoFilePath() {
String path = SoLoader.getPath();
String v7a = path + File.separator + "jniLibs" + File.separator +
"armeabi-v7a" + File.separator + "liblogan.so";
return v7a;
}

/**
* 支持两种模式,如果InputStream inputStream = SoLoader.class.getResourceAsStream("/com/dianping/logan/arm64-v8a/liblogan.jet");
* 返回了空,表示可能此库是aar接入的,普通加载so库就行,不为空,需要拷贝so库,动态加载
*/

public static boolean jarMode() {
boolean jarMode = false;
InputStream inputStream = SoLoader.class.getResourceAsStream("/com/dianping/logan/arm64-v8a/liblogan.jet");
if (inputStream != null) {
jarMode = true;
try {
inputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
return jarMode;
}

/**
* 是否已经拷贝过so了
*/

public static boolean alreadyCopySo() {
String v8a = SoLoader.get64SoFilePath();
File file = new File(v8a);
if (file.exists()) {
String v7a = SoLoader.get32SoFilePath();
file = new File(v7a);
return file.exists();
}
return false;
}

/**
* 拷贝logan的so库
*/

public static boolean copyLoganJni() {
boolean load;
File dir = new File(getPath(), "jniLibs");
if (!dir.exists()) {
load = dir.mkdirs();
if (!load) {
return false;
}
}
File subdir = new File(dir, "arm64-v8a");
if (!subdir.exists()) {
load = subdir.mkdirs();
if (!load) {
return false;
}
}
File dest = new File(subdir, "liblogan.so");
//load = copySo("/lib/arm64-v8a/liblogan.so", dest);
load = copySo("/com/dianping/logan/arm64-v8a/liblogan.jet", dest);
if (load) {
subdir = new File(dir, "armeabi-v7a");
if (!subdir.exists()) {
load = subdir.mkdirs();
if (!load) {
return false;
}
}
dest = new File(subdir, "liblogan.so");
//load = copySo("/lib/armeabi-v7a/liblogan.so", dest);
load = copySo("/com/dianping/logan/armeabi-v7a/liblogan.jet", dest);
}
return load;
}

public static boolean copySo(String name, File dest) {
InputStream inputStream = SoLoader.class.getResourceAsStream(name);
if (inputStream == null) {
Log.e(TAG, "inputStream == null");
return false;
}
boolean result = false;
FileOutputStream outputStream = null;
try {
outputStream = new FileOutputStream(dest);
int i;
byte[] buf = new byte[1024 * 4];
while ((i = inputStream.read(buf)) != -1) {
outputStream.write(buf, 0, i);
}
result = true;
} catch (IOException e) {
e.printStackTrace();
} finally {
try {
inputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
if (outputStream != null) {
try {
outputStream.close();
} catch (IOException e) {
e.printStackTrace();
}
}
}
return result;
}

}

3.3.加载

首先判断当前应用是32位还是64位Process.is64Bit();。然后加载对应的32或者64位的so。


static {
try {
if (SoLoader.jarMode()) {
if (SoLoader.alreadyCopySo()) {
sIsCloganOk = loadLocalSo();
} else {
boolean copyLoganJni = SoLoader.copyLoganJni();
if (copyLoganJni) {
sIsCloganOk = loadLocalSo();
}
}
} else {
System.loadLibrary(LIBRARY_NAME);
sIsCloganOk = true;
}
} catch (Throwable e) {
e.printStackTrace();
sIsCloganOk = false;
}
}

static boolean loadLocalSo() {
boolean bit = Process.is64Bit();
if (bit) {
String v8a = SoLoader.get64SoFilePath();
try {
System.load(v8a);
return true;
} catch (Throwable e) {
e.printStackTrace();
return false;
}
} else {
String v7a = SoLoader.get32SoFilePath();
try {
System.load(v7a);
return true;
} catch (Throwable e) {
e.printStackTrace();
return false;
}
}
}

作者:CCtomorrow
来源:juejin.cn/post/7206627150621851707
收起阅读 »

Android 完整的apk打包流程

在Android Studio中,我们需要打一个apk包,可以在Gradle task 任务中选一个 assembleDebug/assembleRelease 任务, 控制台上就可以看到所有的构建相关task: 可以看到,这么多个task任务,执行是有...
继续阅读 »

在Android Studio中,我们需要打一个apk包,可以在Gradle task 任务中选一个
assembleDebug/assembleRelease 任务,


企业微信截图_fa2194a8-735e-4720-91be-81fd2524d20f.png


控制台上就可以看到所有的构建相关task:


截屏2023-03-05 20.48.57.png
截屏2023-03-05 20.49.28.png
可以看到,这么多个task任务,执行是有先后顺序的,其实主要就是以下步骤:


//aidl 转换aidl文件为java文件
> Task :app:compileDebugAidl

//生成BuildConfig文件
> Task :app:generateDebugBuildConfig

//获取gradle中配置的资源文件
> Task :app:generateDebugResValues

// merge资源文件
> Task :app:mergeDebugResources

// merge assets文件
> Task :app:mergeDebugAssets
> Task :app:compressDebugAssets

// merge所有的manifest文件
> Task :app:processDebugManifest

//AAPT 生成R文件
> Task :app:processDebugResources

//编译kotlin文件
> Task :app:compileDebugKotlin

//javac 编译java文件
> Task :app:compileDebugJavaWithJavac

//转换class文件为dex文件
> Task :app:dexBuilderDebug

//打包成apk并签名
> Task :app:packageDebug

依靠这些关键步骤最后就能打包出一个apk。


首先看


第一步:aidl(编译aidl文件)


将项目中的aidl文件编译为java文件,AIDL用于进程间通信


第二步:生成BuildConfig文件


在项目中配置了
buildConfigField等信息,会在BuildConfig class类里以静态属性的方式展示:


截屏2023-03-05 21.09.18.png


第三步:合并Resources、assets、manifest、so等资源文件


在我们的项目中会依赖不同的库、组件,也会有多渠道的需求,所以merge这一步操作就是将不同地方的资源文件进行整合。
多个manifest文件也需要整理成一个完整的文件,所以如果有属性冲突这一步就会报错。资源文件也会整理分类到不同的分辨率目录中。


资源处理用的工具是aapt/aapt2


注意AGP3.0.0之后默认通过AAPT2来编译资源,AAPT2支持了增量更新,大大提升了效率。


AAPT 工具负责编译项目中的这些资源文件,所有资源文件会被编译处理,XML 文件(drawable 图片除外)会被编译成二进制文件,所以解压 apk 之后无法直接打开 XML 文件。但是 assets 和 raw 目录下的资源并不会被编译,会被原封不动的打包到 apk 压缩包中。
资源文件编译之后的产物包括两部分:resources.arsc 文件和一个 R.java。前者保存的是一个资源索引表,后者定义了各个资源 ID 常量。这两者结合就可以在代码中找到对应的资源引用。比如如下的 R.java 文件:


截屏2023-03-05 21.19.59.png
实际上被打包到 apk 中的还有一些其他资源,比如 AndroidManifest.xml 清单文件和三方库中使用的动态库 .so 文件。


第四步:编译java文件(用到的工具 javac )


1、java文件包含之前提到的AIDL 生成的java文件


2、java代码部份:通过Java Compiler 编译项目中所有的Java代码,包括R.java.aidl文件生成的.java文件、Java源文件,生成.class文件。在对应的build目录下可以找到相关的代码


3、kotlin代码部份:通过Kotlin Compiler编译项目中的所有Kotlin代码,生成.class文件


注:注解处理器(APT,KAPT)生成代码也是在这个阶段生成的。当注解的生命周期被设置为CLASS的时候,就代表该注解会在编译class文件的时候生效,并且生成java源文件和Class字节码文件。

第五步: Class文件打包成DEX(dx/r8/d8等工具编译class文件)


image.png



  • 在原来 dx是最早的转换工具,用于转换class文件为dex文件。

  • Android Studio 3.1之后,引入了D8编译器和 R8 工具。

  • Android Studio 3.4之后,默认开启 R8
    具体的区别可以点击看看


注意:JVM 和 Dalvik(ART) 的区别:JVM执行的是.class文件、Dalvik和ART执行的.dex文件。具体的区别可以点击看看


而在编译class文件过程也常用于编译插桩,比如ASM,通过直接操作字节码文件完成代码修改或生成。


第六步:apkbuilder/zipflinger(生成APK包)


这一步就是生成APK文件,将manifest文件、resources文件、dex文件、assets文件等等打包成一个压缩包,也就是apk文件。
在老版本使用的工具是apkbuilder,新版本用的是 zipflinger
而在AGP3.6.0之后,使用zipflinger作为默认打包工具来构建APK,以提高构建速度。


第七步: zipalign(对齐处理)


对齐是Android apk 很重要的优化,它会使 APK 中的所有未压缩数据(例如图片或原始文件)在 4 字节边界上对齐。这使得CPU读写就会更高效。


也就是使用工具 zipalign 对 apk 中的未压缩资源(图片、视频等)进行对齐操作,让资源按照 4 字节的边界进行对齐。这种思想同 Java 对象内存布局中的对齐空间非常类似,主要是为了加快资源的访问速度。如果每个资源的开始位置都是上一个资源之后的 4n 字节,那么访问下一个资源就不用遍历,直接跳到 4n 字节处判断是不是一个新的资源即可。


第八步: apk 签名


没有签名的apk 无法安装,也无法发布到应用市场。


大家比较熟知的签名工具是JDK提供的jarsigner,而apksignerGoogle专门为Android提供的签名和签证工具。


其区别就在于jarsigner只能进行v1签名,而apksigner可以进行v2v3v4签名。



  • v1签名


v1签名方式主要是利用META-INFO文件夹中的三个文件。


首先,将apk中除了META-INFO文件夹中的所有文件进行进行摘要写到 META-INFO/MANIFEST.MF;然后计算MANIFEST.MF文件的摘要写到CERT.SF;最后计算CERT.SF的摘要,使用私钥计算签名,将签名和开发者证书写到CERT.RSA。


所以META-INFO文件夹中这三个文件就能保证apk不会被修改。



  • v2签名


Android7.0之后,推出了v2签名,为了解决v1签名速度慢以及签名不完整的问题。


apk本质上是一个压缩包,而压缩包文件格式一般分为三块:


文件数据区,中央目录结果,中央目录结束节。


而v2要做的就是,在文件中插入一个APK签名分块,位于中央目录部分之前,如下图:


图片


这样处理之后,文件就完成无法修改了,这也是为什么 zipalign(对齐处理) 要在签名之前完成。



  • v3签名


Android 9 推出了v3签名方案,和v2签名方式基本相同,不同的是在v3签名分块中添加了有关受支持的sdk版本和新旧签名信息,可以用作签名替换升级。



  • v4签名


Android 11 推出了v4签名方案。


最后,apk得以完成打包


PMS 在安装过程中会检查 apk 中的签名证书的合法性,具体安装apk内容稍后介绍。


apk内容包含如下:


截屏2023-03-05 22.01.14.png


总体的打包流程图如下:


截屏2023-03-05 22.02.33.png


,,


作者:大强Dev
来源:juejin.cn/post/7206998548343668796
收起阅读 »

字节跳动音视频面试一面挂,转拿腾讯音视频 offer

一、面试官: 视频为什么需要压缩 心理分析:视频压缩在音视频领域是一个恒久不变的话题,有压缩也就意味有解压操作,我们把压 缩称为编码 解压成为解码。它们是成对出现的,做音视频最难的就在音视频编解码。如何提高音 视频播放效率,在不牺牲视频质量下 做高度压缩就显...
继续阅读 »

一、面试官: 视频为什么需要压缩



心理分析:视频压缩在音视频领域是一个恒久不变的话题,有压缩也就意味有解压操作,我们把压
缩称为编码 解压成为解码。它们是成对出现的,做音视频最难的就在音视频编解码。如何提高音
视频播放效率,在不牺牲视频质量下 做高度压缩就显得格外重要了。面试官想问的问题并不是压
缩了什么,而是编码中对视频帧做了什么



求职者:需要求职者对视频编码有所了解,接下来我们从帧内压缩,与帧间压缩讲起



  • 未经压缩的数字视频的数据量巨大 下图一分钟的视频量 差不多需要68G

  • 存储困难:一张32G的U盘只能存储几秒钟的未压缩数字视频。

  • 传输困难 : 1兆的带宽传输一秒的视频需要大约10分钟。



二、面试官: 封装格式是什么



心理分析:很多人对音视频的概念停留在 苍老师的小电影上,只能理解他是一个视频文件。面试官考
的对视频文件下的封装格式,封装格式里面的内容有没有了解



求职者:首先需要从封装格式概念讲起,慢慢深入到封装格式基础下,然后散发解封装与封装过程


(1)封装格式(也叫容器)就是将已经编码压缩好的视频轨和音频轨按照一定的格式放到一个文件中,也就
是说仅仅是一个外壳,可以把它当成一个放视频轨和音频轨的文件夹也可以。
(2)通俗点说视频轨相当于饭,而音频轨相当于菜,封装格式就是一个碗,或者一个锅,用来盛放饭菜的容
器。
(3)封装格式和专利是有关系的,关系到推出封装格式的公司的盈利。
(4)有了封装格式,才能把字幕,配音,音频和视频组合起来。
(5)常见的AVI、RMVB、MKV、ASF、WMV、MP4、3GP、FLV等文件都指的是一种封装格式。


举例MKV格式的封装



三、面试官: 一个视频文件是否可以完成倒放(或者你们的倒放如何实现)



心理分析:面试官考的是 是否有经历过音视频剪辑相关的经验,需要从求职者中得到的答案,不是
“能”或者“不能” 而是分析为什么不能倒放,



不能倒放的本质原因,对I B P有有没有了解



求职者:倒放在视频剪辑中 是必备功能,按常理来看,倒放肯定是能够实现的,但是问题就出现在
这里,求职者如果对视频编码原理不理解的话,对视频倒放肯定打不上来的,求职者需要首先答对
“一个视频不能实现倒放,两个文件可以" 这个入手, 再从编解码入手 讲解为什么不能实现倒放



答案


第一种方式:



  1. 从第一个gop然后顺序解码

  2. 将一个解码的gop的yuv写入文件中

  3. 将第二个gop顺序解码yuv写入文件

  4. 第三个gop序列,以此类推....


然后倒序读入内存中,进行编码即可.



缺点:如果文件过大,不能使用此方法,因为yuv文件较大,一分钟yuv就有1-2G左右,有可能撑爆sdcard.



第二种方式



  1. 全部遍历视频一遍,获取一共有多少gop序列

  2. 跳到(seek)到最后一个gop的I帧,然后把这个gop解码的yuv存放在sdcard

  3. 再逆序读出这个解码的gop的yuv,进行编码,这样最后一个gop就变成了第一帧的gop;

  4. 接下来seek到倒数第一个gop的I帧,依次类推,把每个gop解码、然后编码


其实在音视频岗位面试中,问到得远远不止上面的相关问题,上述知识举例,还有更多内容可以面试题可以参考:



1.什么是I帧 P帧 B帧?
2.简述H264视频编码流程?
3.视频能倒放吗,倒放如何实现?
4.硬编码与软编码有什么区别?
5.你对sps 和pps的理解?
6.如何从一段残缺H264数据 解析出画面?
7.讲讲MediaCodec硬编码底层解码机制?
8.音频播放过快,视频慢,如何选择丢帧
9.码率和分辨率都会影响视频的清晰度
10.生产者和消费者的关系
11.sps和pps的区别
12.……



对一些没有学习过、了解过音视频这块知识点的朋友,仿佛是在看天书一般,在这里请大家不要着急,在这为大家准备了《Android 音视频开发入门到精通》的学习笔记:https://qr18.cn/Ei3VPD,帮助大家快速提升。


作者:冬日毛毛雨
来源:juejin.cn/post/7208092574162157626
收起阅读 »

如何避免使用过多的 if else?

web
一、引言 相信大家听说过回调地狱——回调函数层层嵌套,极大降低代码可读性。其实,if-else层层嵌套,如下图所示,也会形成类似回调地狱的情况。 当业务比较复杂,判断条件比较多,项目进度比较赶时,特别容易使用过多if-else。其弊端挺多的,如代码可读性差、...
继续阅读 »

一、引言


相信大家听说过回调地狱——回调函数层层嵌套,极大降低代码可读性。其实,if-else层层嵌套,如下图所示,也会形成类似回调地狱的情况。


image.png


当业务比较复杂,判断条件比较多,项目进度比较赶时,特别容易使用过多if-else。其弊端挺多的,如代码可读性差、代码混乱、复杂度高、影响开发效率、维护成本高等。


因此,我们在日常编码时,有必要采取一些措施避免这些问题。本文的初衷不是建议大家完全不用if-else,而是希望我们能够在学会更多解决方案后更优雅地编码。


R-C.gif




二、8种if-else的优化/替代方案


1. 使用排非策略:!、!!


逻辑非(logic NOT),是逻辑运算中的一种,就是指本来值的反值。


当你想这么写时……


1、判断是否为空
if(value === null || value === NaN || value === 0 || value === ''|| value === undefined )
{
……
}

2、判断是否数组是否含有符合某条件的元素
const name = arr.find(item => item.status === 'error')?.name;
if(name !== undefined && name !== ''){
……
}

不妨尝试这么写:


1、判断是否为空
if(!value){……}

2、判断是否数组是否含有符合某条件的元素
if(!!arr.find(item => item.status === 'error')?.name){……}



2. 使用条件(三元)运算符: c ? t : f


三元运算符:
condition ? exprIfTrue : exprIfFalse;
如果条件为真值,则执行冒号(:)前的表达式;若条件为假值,则执行最后的表达式。


当你想这么写时……


let beverage = '';
if(age > 20){
beverage = 'beer';
} else {
beverage = 'juice';
}

不妨尝试这么写:


const beverage = age > 20 ? 'beer' : 'juice';

tips: 建议只用一层三元运算符,多层嵌套可读性差。




3. 使用短路运算符:&&||



  • && 为取假运算,从左到右依次判断,如果遇到一个假值,就返回假值,以后不再执行,否则返回最后一个真值;

  • || 为取真运算,从左到右依次判断,如果遇到一个真值,就返回真值,以后不再执行,否则返回最后一个假值。


当你想这么写时……


    if (isOnline){
makeReservation(user);
}

不妨尝试这么写:


 isOnline && makeReservation(user);



4. 使用 switch 语句


当你想这么写时……


    let result;
if (type === 'add'){
result = a + b;
} else if(type === 'subtract'){
result = a - b;
} else if(type === 'multiply'){
result = a * b;
} else if(type === 'divide'){
result = a / b;
} else {
console.log('Calculation is not recognized');
}

不妨尝试这么写:


let result;
switch (type) {
case 'add':
result = a + b;
break;
case 'subtract':
result = a - b;
break;
case 'multiply':
result = a * b;
break;
case 'divide':
result = a / b;
break;
default:
console.log('Calculation is not recognized');
}

个人认为,对于这类比较简单的判断,用switch语句虽然不会减少代码量,但是会更清晰喔。




5. 定义相关函数拆分逻辑,简化代码


当你想这么写时……


function itemDropped(item, location) {
if (!item) {
return false;
} else if (outOfBounds(location) {
var error = outOfBounds;
server.notify(item, error);
items.resetAll();
return false;
} else {
animateCanvas();
server.notify(item, location);
return true;
}
}

不妨尝试这么写:


// 定义dropOut和dropIn, 拆分逻辑并提高代码可读性
function itemDropped(item, location) {
const dropOut = function () {
server.notify(item, outOfBounds);
items.resetAll();
return false;
};

const dropIn = function () {
animateCanvas();
server.notify(item, location);
return true;
};

return !!item && (outOfBounds(location) ? dropOut() : dropIn());
}

细心的朋友会发现,在这个例子中,同时使用了前文提及的优化方案。这说明我们在编码时可以根据实际情况混合使用多种解决方案。




6. 将函数定义为对象,通过穷举查找对应的处理方法




  • 定义普通对象


    对于方案3的例子,不妨尝试这么写:




function calculate(action, num1, num2) {
 const actions = {
   add: (a, b) => a + b,
   subtract: (a, b) => a - b,
   multiply: (a, b) => a * b,
   divide: (a, b) => a / b,
};

 return actions[action]?.(num1, num2) ?? "Calculation is not recognized";
}



  • 定义 Map 对象


    普通对象的键需要是字符串,而 Map 对象的键可以是一个对象、数组或者更多类型,更加灵活。




let statusMap = new Map([
[
{ role: "打工人", status: "1" },
() => { /*一些操作*/},
],
[
{ role: "打工人", status: "2" },
() => { /*一些操作*/},
],
[
{ role: "老板娘", status: "1" },
() => { /*一些操作*/},
],
]);

let getStatus = function (role, status) {
statusMap.forEach((value, key) => {
if (JSON.stringify(key) === JSON.stringify({ role, status })) {
value();
}
});
};

getStatus("打工人", "1"); // 一些操作

tips: JSON.stringify()可用于深比较/深拷贝。




7. 使用责任链模式


责任链模式:将整个处理的逻辑改写成一条责任传递链,请求在这条链上传递,直到有一个对象处理这个请求。


例如 JS 中的事件冒泡


简单来说,事件冒泡就是在一个对象上绑定事件,如果定义了事件的处理程序,就会调用处理程序。相反没有定义的话,这个事件会向对象的父级传播,直到事件被执行,最后到达最外层,document对象上。


image.png


这意味着,在这种模式下,总会有程序处理该事件。

再举个🌰,当你想这么写时……


function demo (a, b, c) {
if (f(a, b, c)) {
if (g(a, b, c)) {
// ...
}
// ...
else if (h(a, b, c)) {
// ...
}
// ...
} else if (j(a, b, c)) {
// ...
} else if (k(a, b, c)) {
// ...
}
}

不妨参考这种写法:


const rules = [
{
match: function (a, b, c) { /* ... */ },
action: function (a, b, c) { /* ... */ }
},
{
match: function (a, b, c) { /* ... */ },
action: function (a, b, c) { /* ... */ }
},
{
match: function (a, b, c) { /* ... */ },
action: function (a, b, c) { /* ... */ }
}
// ...
]

// 每个职责一旦匹配,原函数就会直接返回。
function demo (a, b, c) {
for (let i = 0; i < rules.length; i++) {
if (rules[i].match(a, b, c)) {
return rules[i].action(a, b, c)
}
}
}


引申话题——如何降低if else代码的复杂度?


相关文章阅读: 如何无痛降低 if else 面条代码复杂度 建议多读几次!!!





8. 策略模式+工厂方法


因为此法比较复杂,此文暂时不做详细介绍。


详细可参考文章优化方案 8 if-else 代码优化的八种方案


三、小结


本文粗略介绍了8种优化/替代if-else的方法,希望能给你日常编码带来一些启示😄。


正如开头所说,我们的目的不是消灭代码中的if-else,而是让我们在学会更多解决方案的基础上,根据实际情况选择更优的编码方式。因此,当你发现自己的代码里面存在特别多的if-else或当你想用if-else时,不妨停下来思考一下——如何能写得更优雅、更方便日后维护呢


image.png


四、参考与感谢



  1. 优化 JS 中过多的使用 IF 语句

  2. 短路运算符(逻辑与&& 和 逻辑或||)

  3. 如何对多个 if-else 判断进行优化

  4. if-else 代码优化的八种方案

  5. 如何替换项目中的if-else和switch

  6. 如何无痛降低 if else 面条代码复杂度


作者:蓝瑟
来源:juejin.cn/post/7206529406613094460
收起阅读 »

听说你还不会使用Koa?

web
简介 Koa 是一个新的 web 框架,由 Express 幕后的原班人马打造, 致力于成为 web 应用和 API 开发领域中的一个更小、更富有表现力、更健壮的基石。 通过利用 async 函数,Koa 帮你丢弃回调函数,并有力地增强错误处理。 Koa 并没...
继续阅读 »

简介


Koa 是一个新的 web 框架,由 Express 幕后的原班人马打造, 致力于成为 web 应用和 API 开发领域中的一个更小、更富有表现力、更健壮的基石。 通过利用 async 函数,Koa 帮你丢弃回调函数,并有力地增强错误处理。 Koa 并没有捆绑任何中间件, 而是提供了一套优雅的方法,帮助您快速而愉快地编写服务端应用程序。


简单来说,Koa也是一个web框架,但是比Express更轻量,并且有更好的异步机制。


本文适合有Koa基础,急需需要搭建项目的同学食用,如果对Koa完全不了解的建议先去看看Koa官方文档。


在讲Koa的使用之前,我们先来介绍一下非常出名的洋葱模型,这对后面代码的理解有很好的帮助


洋葱模型


前面我们在介绍Express的时候就说过了洋葱模型,如下图所示,Koa中的中间件执行机制也类似一个洋葱模型,只不过和Express还是有些许区别。


image.png


我们来看看Koa中的中间件是怎么样执行的。与Express不同的是在Koa中,next是支持异步的。


// 全局中间件
app.use(async (ctx, next) => {
console.log(
"start In comes a " + ctx.request.method + " to " + ctx.request.url
);
next();
console.log(
"end In comes a " + ctx.request.method + " to " + ctx.request.url
);
});

// 单独中间件
router.get(
"/select",
async (ctx, next) => {
console.log("我是单独中间件 start");
const result = await Promise.resolve(123);
console.log(result);
next();
console.log("我是单独中间件 end");
},
async (ctx) => {
console.log("send result start");
ctx.body = "get method!";
console.log("send result end");
}
);

看看上面的输出结果,可以看到它的执行顺序和Express是一样的。


image.png


前面说了,在Koanext是支持异步的。也就是可以await,我们添加await来测试下


// 全局中间件
app.use(async (ctx, next) => {
console.log(
"start In comes a " + ctx.request.method + " to " + ctx.request.url
);
await next();
console.log(
"end In comes a " + ctx.request.method + " to " + ctx.request.url
);
});

// 单独中间件
router.get(
"/select",
async (ctx, next) => {
console.log("我是单独中间件 start");
const result = await Promise.resolve(123);
console.log(result);
await next();
console.log("我是单独中间件 end");
},
async (ctx) => {
console.log("send result start");
ctx.body = "get method!";
console.log("send result end");
}
);

看看运行结果


image.png


可以看到,在Koa中,await会阻塞所有后续代码的执行,完全保证了按洋葱模型执行代码。以next为分水岭,先从前往后执行next前半部分代码,然后从后往前执行next下半部分代码。


Express中,next方法是不支持异步await的,这个是KoaExpress洋葱模型里面最大的一个区别。


创建应用


首先我们需要安装koa


npm i koa

然后引入使用


const Koa = require("koa");
const app = new Koa();

app.listen(3000, () => {
console.log("serve running on 3000");
});

这个和Express还是很相似的。


路由


Koa的路由和Express还是有差别的。Koaapp是不支持直接路由的,需要借助第三方插件koa-router


我们先来安装


npm i @koa/router

然后就可以引入使用了


// routes/user.js
const Router = require("@koa/router");
const router = new Router({ prefix: "/user" }); // 路由前缀

router.get("/select", (ctx) => {
ctx.body = "get";
});

router.post("/add", (ctx) => {
ctx.body = "post";
});

router.delete("/delete", (ctx) => {
ctx.body = "delete";
});

router.put("/update", (ctx) => {
ctx.body = "put";
});

// 所有请求都支持
router.all("/userall", (ctx) => {
ctx.body = "所有请求都可以?" + ctx.method;
});

// 重定向
router.get("/testredirect", (ctx) => {
ctx.redirect("/user/select");
});

module.exports = router;

然后在入口文件,引入路由并注册就可以使用了


const Koa = require("koa");
const app = new Koa();
const userRouter = require("./routes/user");

app.use(userRouter.routes()).use(userRouter.allowedMethods());

这样我们就可以通过localhost:3000/user/xxx来调用接口了。


自动注册路由


同样的,如果模块很多的话,我们还可以优化,通过fs模块读取文件,自动完成路由的注册。


// routes/index.js
const fs = require("fs");

// 批量注册路由
module.exports = (app) => {
fs.readdirSync(__dirname).forEach((file) => {
if (file === "index.js") {
return;
}
const route = require(`./${file}`);
app.use(route.routes()).use(route.allowedMethods());
});
};

在入口文件,我们可以通过该方法批量注册路由了


const registerRoute = require("./routes/index");
registerRoute(app);

这样我们就可以通过localhost:3000/模块路由前缀/xxx来调用接口了。


路由说完了,我们再来看看怎么获取参数


参数获取


参数的获取分为query、param、body三种形式


query参数


对于query参数,通过req.query获取


router.get("/", (ctx) => {
const query = ctx.query;
// const query = ctx.request.query; // 上面是简写形式
ctx.body = query;
});

参数能正常获取


image.png


我们再来看看路径参数


路径参数


对于路径参数,通过:变量定义,然后通过request.params获取。


router.get("/user2/:name/:age", (ctx) => {
// 路径参数获取
const params = ctx.params;
// const params = ctx.request.params; // 上面是简写形式
ctx.body = params
});

参数能正常获取


image.png


body参数


对于body参数,也就是请求体里面的参数,就需要借助koa-body插件。但是在新版的Express中已经自身支持了。


首先安装koa-body插件


npm i koa-body

然后在入口文件使用


const { koaBody } = require("koa-body");

app.use(koaBody());

然后通过ctx.request.body就可以获取到参数啦。


router.post("/", (ctx) => {
const body = ctx.request.body;
ctx.body = body;
});

设置完后,我们来测试下,参数正常获取。


image.png


文件上传


说完参数的获取,我们再来看看怎么处理文件上传。


koa中,对于文件上传也是借助koa-body插件,只需要在里面配置上传文件的参数即可。相较Express要简单很多。


app.use(
koaBody({
// 处理文件上传
multipart: true,
formidable: {
// 使用oss上传就注释 上传到本地就打开。路径必须事先存在
uploadDir: path.join(__dirname, "./uploads"),
keepExtensions: true,
},
})
);

配置好后,我们来测试一下


Express不同的是,不管是单文件还是多文件,都是通过ctx.request.files获取文件。


单文件上传


router.post("/file", (ctx) => {
const files = ctx.request.files;
ctx.body = files;
});

我们可以看到,它返回的是一个对象,并且在没填写表单字段的时候,它的key是空的。


image.png


我们再来看看有表单字段的


router.post("/file2", (ctx) => {
const files = ctx.request.files;
ctx.body = files;
});

可以看到,它返回的对象key就是我们的表单字段名。


image.png


我们再来看看多文件上传的情况


多文件上传


我们先来看看多文件不带表单字段的情况


router.post("/files", (ctx) => {
const files = ctx.request.files;
ctx.body = files;
});

可以看到,它返回的还是一个对象,只不过属性值是数组。


image.png


我们来看看带表单字段的情况,对于带表单字段的多文件上传,它返回的对象里面的key值就不是空值,并且如果是多个文件,它是以数组形式返回。


image.png


image.png


静态目录


文件上传我们介绍完毕了,如果我们想访问我们上传的图片该怎么办呢?能直接访问吗


对于文件,我们需要开启静态目录才能通过链接访问到我们目录里面的内容。与Express不同,koa需要借助koa-static插件才能开启静态目录。


下面的配置就是将我们系统的uploads目录设置为静态目录,这样我们通过域名就能直接访问该目录下的内容了。


const koaStatic = require("koa-static");

app.use(koaStatic(path.join(__dirname, "uploads")));

可以看到,图片能正确访问。


image.png


细心的同学可能发现了它是直接在域名后面访问,并没有像Express一样有个static前缀。那怎么实现这种自定义前缀的效果呢?


自定义静态资源目录前缀


Koa中,需要借助koa-mount插件


我们先来安装一下


npm i koa-mount

然后和koa-static搭配使用


app.use(mount("/static", koaStatic(path.join(__dirname, "uploads"))));

然后我们就可以带上/static前缀访问静态资源了。


image.png


错误处理


koa也可以通过中间件来捕获错误,但是需要注意,这个中间件需要写在前面


app.use(async (ctx, next) => {
try {
await next();
} catch (error) {
// 响应用户
ctx.status = error.status || 500;
ctx.body = error.message || "服务端错误";
// ctx.app.emit("error", error); // 触发应用层级error事件
}
});

我们来测试一下


// 模拟错误
router.get("/error", function (ctx, next) {
// 同步错误可以直接捕获
throw new Error("同步错误");
});

可以看到,错误被中间件捕获并正常返回了。


image.png


我们再来看看异步错误


router.get("/error2", async function (ctx, next) {
// 新建异步错误
await Promise.reject(new Error("异步错误"));
});

也能被正常捕获。


image.png


可以看到,相较于Express的错误处理,Koa变得更简单了,不管是同步错误还是异步错误都能正常捕获。


日志


对于线上项目用来说,日志是非常重要的一环。log4js是使用得比较多的一个日志组件,经常跟Express一起配合使用。本文简单讲解下在Express怎么使用log4js


我们首先来安装该插件,笔者这里安装的版本是6.8.0


npm install log4js

然后我们创建一个utils文件夹下创建log.js,用来创建一个logger


// utils/log.js

const log4js = require("log4js");
const logger = log4js.getLogger();

logger.level = "debug"; // 需要打印的日志等级

module.exports = logger;

在需要的地方引入logger就可以了,我们来测试下


app.get("/logtest", (req, res) => {
logger.debug("Some debug messages");
logger.info("Some info messages");
logger.warn("Some warn messages");
logger.error("Some error messages");
res.send("test log");
});

可以看到,日志都打印出来了


image.png


日志等级


我们再来改变下输出日志的等级


logger.level = "warn"; // 需要打印的日志等级

再来测试下,发现只输出了warnerror等级的日志,debuginfo等级的过滤掉了。


image.png


日志输出到文件


日志如果想输出到文件,我们还可以配置log4js


const log4js = require("log4js");

log4js.configure({
appenders: { test: { type: "file", filename: "applog.log" } },
categories: { default: { appenders: ["test"], level: "warn" } },
});

const logger = log4js.getLogger();

module.exports = logger;

我们再来测试下,发现它自动创建了applog.log文件,并将日志写入到了里面。


image.png


连接数据库


数据库目前主要有关系型数据库、非关系型数据库、缓存数据库,这三种数据库我们各举一个例子。


连接mongodb


为了方便操作mongodb,我们使用mongoose插件


首先我们来安装


npm  i mongoose

安装完后我们先创建db文件夹,然后创建mongodb.js,在这里来连接我们的mongodb数据库


// db/mongodb.js

const mongoose = require("mongoose");

module.exports = () => {
// 数据库连接
return new Promise((resolve, reject) => {
mongoose
.connect("mongodb://localhost/ExpressApi", {
// useNewUrlParser: true,
// useUnifiedTopology: true,
// useFindAndModify: false,
})
.then(() => {
console.log("mongodb数据库连接成功");
resolve();
})
.catch((e) => {
console.log(e);
console.log("mongodb数据库连接失败");
reject();
});
});
};

然后在我们的入口文件引用使用


// index.js

// 连接mongodb
const runmongodb = require("./db/mongodb.js");
runmongodb();

保存,我们运行一下,可以看到mongodb连接成功。


image.png


我们查看mongodb面板,可以看到KoaApi数据库也创建成功了


image.png


数据库连接成功了,下面我们正式来创建接口。


我们以mvc模式,创建model、controller、route三个文件夹分别来管理模型、控制器、路由。


项目总体目录如下


model // 模型
controller // 控制器
route // 路由
db // 数据库连接
index.js // 入口文件

创建接口总共分为四步



  1. 创建模型

  2. 创建控制器

  3. 创建路由

  4. 使用路由


我们先来创建一个user model


// model/user.js
const mongoose = require("mongoose");
// 建立用户表
const UserSchema = new mongoose.Schema(
{
username: {
type: String,
unique: true,
},
password: {
type: String,
select: false,
},
},
{ timestamps: true }
);

// 建立用户数据库模型
module.exports = mongoose.model("User", UserSchema);

然后创建user控制器,定义一个保存和一个查询方法。


// controller/userController.js
const User = require("../model/user");

class UserController {
async create(ctx) {
const { username, password } = ctx.request.body;
const repeatedUser = await User.findOne({ username, password });
if (repeatedUser) {
ctx.status = 409;
ctx.body = {
message: "用户已存在",
};
} else {
const user = await new User({ username, password }).save();
ctx.body = user;
}
}

async query(ctx) {
const users = await User.find();
ctx.body = users;
}
}

module.exports = new UserController();

然后我们在路由里面定义好查询和创建接口


// route/user.js

const Router = require("@koa/router");
const router = new Router({ prefix: "/user" });
const { create, query } = require("../controller/userController");

router.post("/create", create);
router.get("/query", query);

module.exports = router;

最后我们在入口文件使用该路由,前面我们说啦,路由少可以一个一个引入使用,对于路由多的话还是推荐使用自动注入的方式。


为了方便理解,这里我们还是使用引入的方式


// index.js

const userRouter = require("./routes/user");
app.use(userRouter.routes()).use(userRouter.allowedMethods())

好啦,通过这四步,我们的接口就定义好啦,我们来测试一下


先来看看新增,接口正常返回


image.png


我们来看看数据库,发现user表添加了一条新记录。


image.png


我们再来看看查询接口,数据也能正常返回。


image.png


至此,我们的mongodb接口就创建并测试成功啦。


连接mysql


为了简化我们的操作,这里我们借助了ORM框架sequelize


我们先来安装这两个库


npm i mysql2 sequelize

然后在db目录下创建mysql.js用来连接mysql


const Sequelize = require("sequelize");

const sequelize = new Sequelize("KoaApi", "root", "123456", {
host: "localhost",
dialect: "mysql",
});

// 测试数据库链接
sequelize
.authenticate()
.then(() => {
console.log("数据库连接成功");
})
.catch((err) => {
// 数据库连接失败时打印输出
console.error(err);
throw err;
});

module.exports = sequelize;

这里要注意,需要先把数据库koaapi提前创建好。它不会自动创建。


跟前面一样,创建接口总共分为四步



  1. 创建模型

  2. 创建控制器

  3. 创建路由

  4. 使用路由


首先我们创建model,这里我们创建user2.js


// model/user2.js

const Sequelize = require("sequelize");
const sequelize = require("../db/mysql");

const User2 = sequelize.define("user", {
username: {
type: Sequelize.STRING,
},
password: {
type: Sequelize.STRING,
},
});

//同步数据库:没有表就新建,有就不变
User2.sync();

module.exports = User2;

然后创建控制器,定义一个保存和一个查询方法。


// controller/user2Controller.js

const User2 = require("../model/user2.js");

class user2Controller {
async create(ctx) {
const { username, password } = ctx.request.body;

try {
const user = await User2.create({ username, password });
ctx.body = user;
} catch (error) {
ctx.status = 500;
ctx.body = { code: 0, message: "保存失败" };
}
}

async query(ctx) {
const users = await User2.findAll();
ctx.body = users;
}
}

module.exports = new user2Controller();

然后定义两个路由


const router = new Router({ prefix: "/user2" });
const { query, create } = require("../controller/user2Controller");

// 获取用户
router.get("/query", query);
// 添加用户
router.post("/create", create);

module.exports = router;

最后在入口文件使用该路由


// index.js

const user2Router = require("./routes/user2");
app.use(user2Router.routes()).use(user2Router.allowedMethods())

好啦,通过这四步,我们的接口就定义好啦,我们来测试一下


先来看看新增,接口正常返回


image.png


我们来看看数据库,发现users表添加了一条新记录。


image.png


我们再来看看查询接口,数据也能正常返回。


image.png


至此,我们的mysql接口就创建并测试成功啦。


我们再来看看缓存数据库redis


连接redis


这里我们也需要借助node-redis插件


我们先来安装


npm i redis

然后在db目录下创建redis.js用来连接redis


// db/redis.js

const { createClient } = require("redis");

const client = createClient();

// 开启连接
client.connect();

// 连接成功事件
client.on("connect", () => console.log("Redis Client Connect Success"));
// 错误事件
client.on("error", (err) => console.log("Redis Client Error", err));

module.exports = client;

然后我们创建一个简单的路由来测试一下


// route/dbtest

const Router = require("@koa/router");
const router = new Router({ prefix: "/dbtest" });
const client = require("../db/redis");

router.get("/redis", async (ctx) => {
await client.set("name", "randy");
const name = await client.get("name");
ctx.body = { name };
});

module.exports = router;

然后把该路由在入口文件注册使用


// index.js

const dbtestRouter = require("./routes/dbtest");
app.use(dbtestRouter.routes()).use(dbtestRouter.allowedMethods())

最后我们来测试下接口,可以看到接口正常返回


image.png


我们再来查看一下我们的redis数据库,发现数据保存成功。


image.png


当然,这里只是一个简单的入门,redis的操作还有很多,大家可以看官方文档,这里笔者就不再详细说啦。


token验证


对于token的认证,我们这里使用目前比较流行的方案 jsonwebtoken


生成token


我们首先安装jsonwebtoken


npm i jsonwebtoken

安装完后,我们来实现一个登录接口,在接口里生成token并返回给前端。


注意这里因为是演示,所以将密钥写死,真实项目最好从环境变量里面动态获取。


// route/user.js
const jwt = require("jsonwebtoken");

// ...
async login(ctx) {
const { username, password } = ctx.request.body;
const user = await User.findOne({ username, password });
if (user) {
const token = jwt.sign(
{ id: user.id, username: user.username },
"miyao",
{ expiresIn: 60 }
);

ctx.body = {
token,
};
} else {
ctx.status = 401;
ctx.body = {
message: "账号或密码错误",
};
}
}

// ...

这里生成token的接口我们就定义好了,我们来测试一下。


首先输入错误的账号,看到它提示账号密码错误了


image.png


然后我们输入正确的账号密码试一下,可以看到,token被正常返回出来了。


image.png


到这里我们通过jsonwebtoken生成token就没问题了。接下来就是怎么验证token了。


token解密


在说token验证前,我们先来说个token解密,一般来说token是不需要解密的。但是如果非要看看里面是什么东西也是有办法解密的,那就得用到jwt-decode插件了。


该插件不验证密钥,任何格式良好的JWT都可以被解码。


我们来测试一下,


首先安装该插件


npm i jwt-decode

然后在登录接口里面使用jwt-decode解析token


const decoded = require("jwt-decode");

async login(req, res) {
// ...
console.log("decoded token", decoded(token));
// ...
}

可以看到,就算没有秘钥也能将我们的token正确解析出来。


image.png


这个插件一般在我们前端用的比较多,比如想解析token,看看里面的数据是什么。它并不能验证token是否过期。如果想验证token的话还得使用下面的方法。


token验证


Koa中,验证token是否有效我们一般会选择koa-jwt插件。


下面笔者来演示下怎么使用


首先还是安装


npm install koa-jwt

然后在入口文件以全局中间件的形式使用。


这个中间件我们要尽量放到前面,因为我们要验证所有接口token是否有效。


然后记得和错误中间件结合使用。


如果有些接口不想验证,可以使用unless排除,比如登录接口、静态资源。


// index.js
const koaJwt = require("koa-jwt");

app.use(
koaJwt({ secret: "miyao" }).unless({ path: [/^\/user\/login/, "/static"] })
);

// 错误中间件
app.use(async (ctx, next) => {
try {
await next();
} catch (error) {
// 响应用户
ctx.status = error.status || 500;
ctx.body = error.message || "服务端错误";
// ctx.app.emit("error", error); // 触发应用层级error事件
}
});

下面我们测试下,


我们先来看看不要token的接口,来访问一个静态资源。可以看到,没有token能正常获取资源。


image.png


我们再来访问一个需要token的接口,可以看到它提示错误了,说是没有token


image.png


我们用登录接口生成一个token,然后给该接口加上来测试下,可以看到接口正常获取到数据了。


image.png


因为我们的token设置了一分钟有效,所以我们过一分钟再来请求该接口。可以看到,它提示token错误了。


image.png


好啦,关于token验证我们就讲到这里。


启动


node中,一般我们会使用node xx.js来运行某js文件。这种方式不仅不能后台运行而且如果报错了可能直接停止导致整个服务崩溃。


PM2Node 进程管理工具,可以利用它来简化很多 Node 应用管理的繁琐任务,如性能监控、自动重启、负载均衡等,而且使用非常简单。


首先我们需要全局安装


npm i pm2 -g

下面简单说说它的一些基本命令



  1. 启动应用:pm2 start xxx.js

  2. 查看所有进程:pm2 list

  3. 停止某个进程:pm2 stop name/id

  4. 停止所有进程:pm2 stop all

  5. 重启某个进程:pm2 restart name/id

  6. 删除某个进程:pm2 delete name/id


比如我们这里,启动当前应用,可以看到它以后台的模式将应用启动起来了。


image.png


当然关于pm2的使用远不止如此,大家可以查看PM2 文档自行学习。


总结


总体来说,koa更轻量,很多功能都不内置了而是需要单独安装。并且对异步有更好的支持,就是await会阻塞后面代码的执行(包括中间件)。


系列文章


Node.js入门之什么是Node.js


Node.js入门之path模块


Node.js入门之fs模块


Node.js入门之url模块和querystring模块


Node.js入门之http模块和dns模块


Node.js入门之process模块、child_process模块、cluster模块


听说你还不会使用Express


听说你还不会使用Koa?


后记


感谢小伙伴们的耐心观看,本文为笔者个人学习笔记,如有谬误,还请告知,万分感谢!如果本文对你有所帮助,还请点个关注点个赞~,您的支持是笔者不断更新的动力!


作者:苏苏同学
来源:juejin.cn/post/7208005547004919867
收起阅读 »

💤💤💤你的javascript被睡了

web
段子 老板说:给客户做的项目,你的运行程序太快了,我建议你慢一点,客户付款速度就会快一点 我:我不会。。。 老板:没工资 我:马上 需求背景 请求后端a接口后拿到返回结果,需要等待2秒钟后才能请求b接口,b接口拿到返回结果后,需要等待3秒钟后才能请求c接口 项...
继续阅读 »

段子


老板说:给客户做的项目,你的运行程序太快了,我建议你慢一点,客户付款速度就会快一点

我:我不会。。。

老板:没工资

我:马上


需求背景


请求后端a接口后拿到返回结果,需要等待2秒钟后才能请求b接口,b接口拿到返回结果后,需要等待3秒钟后才能请求c接口


项目原代码


main () {
this.$http('a').then((resA) => {
setTimeout(() => {
this.$http('b').then((resB) => {
setTimeout(() => {
this.$http('c')
}, 3000)
})
}, 2000)
})
}

这种写法,虽然是实现了效果,但是看着实在是脑瓜子疼


需求只是要求拿到接口后,有一定的休眠后再继续请求下一个接口,实际上只需要实现一个休眠的函数即可


理想写法


async main() {
const resA = await this.$http('a')
await sleep(2000)
const resB = await this.$http('b')
await sleep(3000)
this.$http('c')
}

要是能够这样调用是不是舒服很多,省去了嵌套地狱,可读性得到了提高


从代码来看,实际的关键实现就是sleep函数,我们要怎么用js封装一个好用的sleep函数?


sleep函数实现


function sleep(ms) {
return new Promise(resolve => setTimeout(resolve, ms))
}

async function demo() {
console.log('Taking a break...');
await sleep(2000)
console.log('Two seconds later, showing sleep in a loop...')

// Sleep in loop
for (let i = 0; i < 5; i++) {
await sleep(2000)
console.log(i)
}
}

demo()

在上面的代码中,sleep()函数返回一个Promise对象。当Promise对象解决时,函数会继续执行。在demo()函数中,我们使用await关键字来等待sleep()函数的解决。这使得console.log()函数在等待指定的时间后才被调用,从而实现了s

作者:超神熊猫
来源:juejin.cn/post/7205812357875548215
leep函数的效果。

收起阅读 »

评论二则:年龄大了能否写代码、上大学不喜欢IT专业咋整

最近有读者留言,问了一些问题。我感觉到,可能不止一个读者有类似的问题。因此,我决定将我与读者在文章下的评论互动,转为专题文章。这样可以增加曝光率,广而告之,相互交流。 问题一:国内能一直写代码吗? 问题来源: 用户user9740670030509在《我裁完...
继续阅读 »

最近有读者留言,问了一些问题。我感觉到,可能不止一个读者有类似的问题。因此,我决定将我与读者在文章下的评论互动,转为专题文章。这样可以增加曝光率,广而告之,相互交流。


问题一:国内能一直写代码吗?



问题来源:


用户user9740670030509在《我裁完兄弟们后,辞职了,转行做了一名小职员》下的评论:



大哥,我在微信上无意中看到你的这篇文章,深受启发,顺着线索找到这里并注册了账号,就为了答谢你。 顺便一说,你的文字很有感染力,可以帮助到很多人。所以如果你有精力的话,不妨考虑选择多个几个平台发文,比如公众号啥的。


我还想请教个问题,在国内能一直写代码吗?年龄大了感觉写不动了,因为看你又回归到基层写代码。



作者回复:


你加上“国内”这两个字,说明你已经了解一些现状了。这个问题,我去高校做交流的时候,很多计算机专业的学生挺喜欢问的。他们深受焦虑教育的影响,虽然不怎么努力,但是往往却可以做到刚刚过了15岁,就已经开始担心35岁的事情了。


其实,写代码,原则上不会受到年龄的限制。反而一些偏底层的代码,还会受益于经验的积累,甚至年龄越大越吃香


国外有个写C语言的老头,写代码写到60多岁,现在按照时薪开工资,找他写C需要预约。他也不贪,一周写十个小时就够吃的了。


但是,到了“国内”,一般就不是这样了


首先说,我们的IT企业环境,往大了说我们的主流价值观。基本都是更看重苦劳,也就是看氛围,推崇996。下班了,你背着包第一个走,这就是不好。工作群里深夜发信息,他回复收到,能24小时待命,这就是好。


这不是现在才有的,也不是IT行业独有的,这是几千年来文化熏陶出来的。


抛去能力不谈,单从“敬业”这一个方面来说,单身的小年轻,显然更具有优势


中年人的精力,会被家庭所瓜分。我们既要照顾老,又要照顾小。还可能要去给自己看病。因为以前年轻的时候,工作太过于放肆,经常连续熬夜、通宵改bug,还在项目庆功会上无限制地喝酒。医生告诉我们,一定要多休息,少看电脑。我们中年人,感觉还有一口气,很想坐起来给老板打电话说:我还能加班。但是,转念想到,导致自己现状的那个老板,骂骂咧咧地赶走老狗的时候,我们又变得狡诈和仇恨起来。


打工的中年人,再也做不到把公司当家,也很难收到消息后,就立马拉个杆箱就去出差。


你说,我有行业经验啊,我一个人的产出可以顶10个小年轻。那能不能别人上10天班,我只上1天班就行。


这一点,先不说很难评判(一说你本该这样的产出,另一说那10个人皆废物)。就算你可以顶100个小年轻,在我们的环境里,依然是行不通的。


我们一直推崇集体主义,不接受任何个人英雄主义行为。为了你一个英雄,管理者要打消众人心里的不平衡,控制各种诽谤和小报告。这个成本,要远大于它的收益。因此,像岳飞那样的英雄,不管在哪个朝代,都是很难生存的。


可能,这也是限制我们科技创新的一个瓶颈。集体的力量仅仅是一种普通的合力,或者叫多方妥协的红利。当它无法实现高精尖时,可能真的就需要一个人来搞定一个局面。


很有意思的是,我在这里说年龄对工作有影响。但是,你看看你头发花白的老板,不管是住在公司,还是个人英雄,他却一点也不受上面问题的困扰。因为打工和创业不一样,即便干一样的活,也是有本质区别的。这是另一个专项论点,暂且不谈。


说完了环境,再说我们的工程师。


我始终感觉我们没有任何核心技术


不管是JavaPython,还是目前我所从事的AI。其实,我们一直都在调用API。这就像是,我们不知道汉堡是怎么做的,但是吃相却是千姿百态。


编译器不是我们的,代码不是中文的。某某语言又发布新版本了,也没有和我们商量过。甚至,哪一天vscode或者IDEA不让你用了,你想找个趁手的地方写代码都很困难(说用记事本的,按抬杠论。嗯?记事本我们有自主软件吗?)。


我们所说的、你身边的编程高手,其实更多是API熟练工。就像我们很会开汽车,也很会制作汽车内饰,但是并不会制造汽车一样。而我们的高手,他们只是比普通人更会封装js、更会编写连接数据库的工具类而已。


因此,我们很难有现实意义上的IT专家。这一点,我和邻居大妈观点有些冲突。大妈向我宣传,我们有很多自主的系统,我们马上就世界第一了,吓得邻居纷纷来搞破坏。


我的视野却满是,刚研究透了Android 7,却发现Android 10已经发布了。我以前买了一本书,叫《IOS 5编程指南》。现在一看,上面的知识完全失效了。不是部分失效,是完全失效。所以,你看,我们一直追着国外的版本跑。服务商发布新版本越快,我们的技能就失效得越快。


因此,35岁、45岁,你很难再依赖新技术了。根本原因可能并不是你不学习,而是你根本就没有啥核心技术。那时,你肯定更喜欢顺手的、在你脑子里根深蒂固的、你扎实掌握了的老技术


当然,你也可以说,能做到熟悉某一版本的API那就已经很厉害了,我都做不到。这,确实没有错。所以,外国老头可以60岁还写代码,我们同样也做不到。


我想上面的两点,一个IT就业环境(倡导从众一致地奉献),二个技术深度(跟随新版本周边调用),可能会导致我们,确实很难将这份深爱的工作,拥有很久。


最后,你说看我又回到基层写代码了。


其实,我都能说出上面那番话,我又怎么会甘心在基层写代码呢?至于,我心中的小九九,等我有成绩了,再告诉大家吧。说出来,就不灵了。


其实,在国内,可以一直写代码。需要稍微忍受一下,别人不解的眼神、涨到顶不动的工资、和小年轻一样的作息。能做到的,可能真的是一份热爱。


当然,我很希望环境能改变。如果条件允许,我也想写代码到60岁。条件不允许,那就提早做打算吧。但是,也不用提太早。这个行业,对于买房、买车、结婚、生子这些个支持,还是强有力的。等经历过这些阶段之后,可能早就不是现在的情况了。


问题二:不喜欢IT这行,现在很迷茫,怎么办?



问题来源:


用户拔剑在《年底了,裁兄弟当职员那哥们儿,如今咋样了?》下的评论:



看得出来你是热爱IT这一行的。我不喜欢这行业,只是混口饭吃,现在过得很迷茫。



作者回复:


上……上……上周吧,我去母校同人工智能专业,小我13年的学弟(侄)们做了个交流。现场就有00后学生问我:学哥,我非常不喜欢我这个专业,但是又考进来,请问怎么办?


旁边,他们专业主任的脸都绿了。


这个问题,让我很难回答。


我通过和专业主任的眼神交流,他告诉我,调专业基本上很难。


我咳嗽了一声。我说,首先,你这个……这个,不喜欢只是,暂时、感觉,不喜欢。刚入学,大学生活都还没适应呢,更何况是专业课!这个专业,没有让你找到幸福的点,甚至还带来些小挫折。所以啊,这个不喜欢,可能是暂时的


你想想,如果,后面,大家都赞扬你这个专业。你们村长给你家,用小推车送来三袋大米,请求你做一个跑地鸡的追踪识别程序。甚至还有人慕名而来,愿意主动做你的女朋友。这时,你就会喜欢这个专业。所以,现在说不喜欢,真的是有点为时尚早。


第二,就算是真的不喜欢,也不代表学习这个专业就一点用都没有。我真的有个大学同学,他跟我一个专业,隔壁宿舍,我们一起上编程课,坐对面。他也不喜欢写代码,他是那种好动不好静的人。后来,他毕业,去做销售卖货去了。他卖的是软件,一套系统。当然,为了让客户的钱花的触手可及,也附带一个硬件设备。他谈业务有意思,帮客户看电脑。有一个李总的电脑很卡。我同学一看,哎呦,你这是软件都装到C盘了,这叫系统盘。他给挪到D盘了。这一调,李总的电脑不但不卡了,而且连开机都变快了。


于是,李总就和他签单了。因为这个销售人员是真的懂软件,他家产品应该也差不了。那一单我同学就赚了6000元。我那时的工资是1500。现在,我这个同学是上市公司的销售总经理,占股份的那种。


后来,他感觉自己和其他的销售很不同。他虽然在编程班是个渣渣,但是在销售中,他的IT知识却是王者级别。因为他都知道stringint是不一样的类型。


所以啊,当不喜欢,又没法改变时,那就先这样吧。坏计划好过没计划


另一方面,你也想一下,自己到底喜欢什么,总不能啥都不喜欢吧。


私下也把喜欢的那个行业,学习一下。既然喜欢,那肯定学得快。等学得差不多了,带着IT知识,去你心仪的那个行业。你可能就会如虎添翼,反而更容易出类拔萃。


作者:TF男孩
链接:https://juejin.cn/post/7184421852381937719
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

金三银四来了-找工作有哪些平台/工具?

金三银四,年过完了,奖金(<=0)到手了,是时候出去看看了!但2023年的互联网“寒冬”好像并未褪去,就业环境依然不明朗,让大部分人都很迷茫。最近在看工作机会,就看了看家附近的公司和岗位,简单总结了一下用到的平台和相关工具,个人经验,仅供参考。 01、主...
继续阅读 »

金三银四,年过完了,奖金(<=0)到手了,是时候出去看看了!但2023年的互联网“寒冬”好像并未褪去,就业环境依然不明朗,让大部分人都很迷茫。最近在看工作机会,就看了看家附近的公司和岗位,简单总结了一下用到的平台和相关工具,个人经验,仅供参考。


01、主流的招聘平台


我们一般找工作去哪里投简历呢?国内的主流招聘平台有哪些呢?—— 来自网络的中国在线招聘品牌排行榜:


image.png


image.png


前几名的Boss直聘前程无忧51JOB、智联招聘猎聘拉钩都是比较常用的,排名参考资料:



1.1、看看附近的岗位


注册了前5个平台的账号,搜索了下“web前端”+【成都】的职位数量。



  • 需要登录,大多是需要登录才能看到更多搜索信息,同时登录后(新用户)基本都是强制要求完善求职信息。

  • APP端,APP端同样的关键词搜索,加上距离(附近2KM),看看附近的工作机会。筛选附近需要定位或设置位置,距离计算基本上都是直线距离。

















































平台Web前端Java后端App端/前端/2KM备注
Boss直聘>300>30027✔️最多只显示10页,附近岗位数量还行,支持按距离排序
前程无忧51JOB3008003附近岗位数量较少
智联招聘340+800+9✔️可以看公司评价(类似大众点评),需要自己先点评一个
猎聘>800>80020✔️最多只显示20页,附近数量还行,不支持距离筛选
拉钩330500+2附近岗位较少,App端有bug,从职位详情返回列表筛选条件就没了

结果似乎并不乐观,有效职位数量并不多,而且其中有些岗位还有水分,比如发布很久了的(去年),或HR活跃度显示“一周前”、“1个月前”等。


image.png


后端Java的岗位大概、似乎、好像、确实是比前端多亿点点。可能真的的是我错了,为什么选择了转前端?Java那么好的语言,他们都说是世上最好的语言,她就在那里,我却视若无睹。


image.png


1.2、前端的岗位要求


家附近2KM的前端Web岗位都看了一遍,大概的总结了下普遍的技能要求。







































































技能要求出现频率(10分)
- HTTP、JavaScript、CSS,ES6,基础必备10
- Vue/React框架至少一个,并了解其原理。9
- 熟悉前端的各种调试工具、方法7
- 熟悉小程序、移动端、混合应用,uniapp等工具6
- 熟悉前端的工程化、打包发布工具,如webpack/gulp/Grunt等6
- 熟悉图形化技术,如echarts、d3、canvas、three.js等5
- 熟悉各浏览器、设备的兼容性处理4.5
- 有对模块化、重构、性能优化的经验4
- 熟悉HTTP、TCP、SOCKET等常见网络协议,及AJAX、WebSocket、estful API标准4
- 熟悉常用数据结构和算法、设计模式2
- 熟悉或了解后端开发语言,如NodeJS,Java,php,.net等2
- 能承担一定的工作压力2
- 有博客、开源项目1
- 熟悉TypeScript1
- 能接受出差0.5

1.3、❓选择那个平台呢?


建议是 —— 多选几个平台投放简历!



  • 通过上面的岗位分析,发现Boss、智联、猎聘的岗位相对多一点。

  • 上面三个平台的的公司交集估计只有20%,也就是说大部分公司只在一个(或两个)平台上发布职位,大公司可能会全平台发布,因此求职建议多几个平台投放。




02、怎么判断一个公司靠不靠谱?一些工具


判断一个公司是否靠谱,大概有下面几个角度:



  • **公司做什么的?**公司所处行业或主要业务,是toB、toC,还是toG(政府机关),或者是人力外包。

  • 公司规模:如注册资本、员工数量、是否上市等。

  • 公司状况:公司的工商信息、经营状况、知识产权、公司风险等。

  • 公司评价:他人对公司的评价(包括薪资、福利等)。


2.1、工具介绍


除了通过搜索工具、微信、知乎、小红书去了解,还有几个比较靠谱的工具。



  • 企查查:查企业的工商信息,内容比较丰富、全面。不注册也可查,但注册登录后可看的信息更多一点,基本也就够了,冲了VIP才能看所有信息。

  • 爱企查:同上,差不多。

  • 支付宝-芝麻企业信用,支付宝小程序。同上,不用VIP可以看很多信息。

  • 看准网职友集:类似大众点评,不仅能看公司的工商信息(没上面两个网站丰富),还能看网友们的评价、工资信息,都是来自网友的点评分享。


image.png


2.2、查看公司规模


通过查询企业工商信息,了解公司规模。如下图,可以看出:



  • 成立日期 2019-04-04。比较新的公司

  • 注册资本 1000万元人民币 实缴资本 202万元人民币 。还行

  • 人员规模 少于50人 参保人数 3(2021年报)

    • 参保人数可以说明公司规模,有点少。

    • 不过这里的参保人数一般是比较滞后的,现在看的可能是去年的,或者前年的。




image.png


2.3、公司是干啥的?公司业务


搞清楚公司到底是做什么业务的很重要,是toB(企业用户)、toC(C端用户),还是toG(政府机关),或者是人力外包。如果是toB可能会存在出差、驻场开发等问题,如果是toG(政府机关)可能存在技术老旧、出差等问题。


主要是以下几个途径



  • 招聘网站上的企业介绍。

  • 公司官网。

  • 看企业工商信息的“经营范围”,不过一般比较笼统,不具体。

  • 看企业工商信息的“知识产权”,可以看出公司的一些专利、网站备案、软件著作权。

    • 如果专利较多,说明公司的技术实力不错。。

    • 软件著作权里可以看到公司做的一些软件项目。软件、专利内容也能看出公司的大概的业务范围



  • 看企业的评价,通过看准网看看网友对公司的评价。不过注意既然是来自网友评论,是否准确、客观就很难说了。


image.png


image.png


2.4、公司风险


企业工商信息中包括的比较多,如经营信息、公司风险等,这些都属于公开信息。如下图,可以看出:



  • 公司和员工存在劳务纠纷,需谨慎。


image.png


作者:安木夕
链接:https://juejin.cn/post/7203512643238232123
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

Kotlin 中的高阶函数及其应用

前言 前段时间一直在面试,某次面试,面试官看着我的简历说:“看你写的你很了解 kotlin 哦?那你说一说,为什么 kotlin 可以将函数作为参数和返回值,而 java 不行?” 我:“……”。 这次面试我连水都没喝一口就灰溜溜的走了。 回小黑屋的路上,突然...
继续阅读 »

前言


前段时间一直在面试,某次面试,面试官看着我的简历说:“看你写的你很了解 kotlin 哦?那你说一说,为什么 kotlin 可以将函数作为参数和返回值,而 java 不行?”


我:“……”。


这次面试我连水都没喝一口就灰溜溜的走了。


回小黑屋的路上,突然想到,这玩意儿好像是叫 “高阶函数” 吧?好像我自己也经常用来着,咋就会啥也说不出来了呢?痛定思痛,赶紧恶补了一下相关的内容。


所以为什么 Kotlin 支持函数作为参数呢?


其实翻看 Kotlin 官方文档 《High-order functions and lambdas》 一节,就会发现它的第一段话就解释了为什么:



Kotlin functions are first-class, which means they can be stored in variables and data structures, and can be passed as arguments to and returned from other higher-order functions. You can perform any operations on functions that are possible for other non-function values.


To facilitate this, Kotlin, as a statically typed programming language, uses a family of function types to represent functions, and provides a set of specialized language constructs, such as lambda expressions.



因为在 Kotlin 中函数是头等公民,所以它们可以被储存在变量中、作为参数传递给其他函数或作为返回值从其他函数返回,就像操作其他普通变量一样操作高阶函数。


而 Kotlin 为了支持这个特性,定义了一系列的函数类型并且提供一些特定的语言结构支持(例如 lambdas 表达式)。


那么要怎么用呢?


高阶函数


首先,先看一段简单的代码:


fun getDataFromNet(onSuccess: (data: String) -> Unit) {
val requestResult = "我是从网络请求拿到的数据"

onSuccess(requestResult)
}

fun main() {
getDataFromNet(
onSuccess = {data: String ->
println("获取到数据:$data")
}
)
}

运行代码,输出:


获取到数据:我是从网络请求拿到的数据

下面我们来解释一下这段代码是什么意思。


首先看 getDataFromNet 函数的参数 onSuccess ,嗯?这是个什么东西?


哈哈,看起来可能会觉得有点奇怪,其实这里的 onSuccess 也是一个函数,且带有参数 data: String


大致可以理解成:


fun onSuccess(data: String) {
// TODO
}

这么一个函数,不过实际上这个函数是并不叫 onSuccess ,我们是只把这个函数赋值给了变量 onSuccess


从上面简单例子,我们可以看出,如果要声明一个个高阶函数,那么我们需要使用形如:


(arg1: String, arg2: Int) -> Unit

的函数类型来声明高阶函数。


基本形式就是一个括号 () + -> + Unit


其中,() 内可以像普通函数一样声明接收的参数,如果不接收任何参数则可以只写括号:


() -> Unit

箭头则是固定表达式,不可省略。


最后的 Unit 表示这个函数返回的类型,不同于普通函数,返回类型不可省略,即使不返回任何数据也必须明确声明 Unit


当一个普通函数接收到一个作为参数的高阶函数时,可以通过 变量名()变量名.invoke() 调用:


fun getDataFromNet(onSuccess: (data: String) -> Unit, onFail: () -> Unit) {
val requestResult = "我是从网络请求拿到的数据"

// 调用名为 onSuccess 的高阶函数
onSuccess.invoke(requestResult)
// 也可以直接通过括号调用
onSuccess(requestResult)

// 调用名为 onFail 的高阶函数
onFail.invoke()
// 也可以直接通过括号调用
onFail()
}

下面再看一个有返回值的高阶函数的例子:


fun getDataFromNet(getUrl: (type: Int) -> String) {
val url = getUrl(1)
println(url)
}

fun main() {
getDataFromNet(
getUrl = {type: Int ->
when (type) {
0 -> "Url0"
1 -> "Url1"
else -> "Err"
}
}
)
}

上面的代码会输出:


Url1

将高阶函数作为函数返回值或者赋值给变量其实和上面大差不差,只要把一般用法中的返回值和赋值内容换成 函数类型 表示的高阶函数即可:


fun funWithFunReturn(): () -> Unit {
val returnValue: () -> Unit = { }

return returnValue
}

在实例化高阶函数时,高阶函数的参数需要使用形如
arg1: String , arg2: Int ->
的形式表示,例如:


fun getDataFromNet(onSuccess: (arg1: String, arg2: Int) -> Unit) {
// do something
}

fun main() {
getDataFromNet(
onSuccess = { arg1: String, arg2: Int ->
println(arg1)
println(arg2)
}
)
}

注意,这里的参数名不一定要和函数中定义的一样,可以自己写。


如果参数类型可以推导出来,则可以不用声明类型:


fun getDataFromNet(onSuccess: (arg1: String, arg2: Int) -> Unit) {
// do something
}

fun main() {
getDataFromNet(
onSuccess = { a1, a2 ->
println(a1)
println(a2)
}
)
}

同时,如果某些参数没有使用到的话,可以使用 _ 下划线代替:


fun getDataFromNet(onSuccess: (arg1: String, arg2: Int) -> Unit) {
// do something
}

fun main() {
getDataFromNet(
onSuccess = { a1, _ ->
println(a1)
}
)
}

用 lambda 表达式简化一下


在上面我们举例的代码中,为了更好理解,我们没有使用 lambda 表达式简化代码。


在实际使用过程中,我们可以大量的使用 lambda 表达式来大大减少代码量,例如:


fun getDataFromNet(onSuccess: (data: String) -> Unit, onFail: () -> Unit) {
val requestResult = "我是从网络请求拿到的数据"

if (requestResult.isNotBlank()) {
onSuccess(requestResult)
}
else {
onFail()
}

}

fun main() {
getDataFromNet(
onSuccess = {data: String ->
println("获取到数据:$data")
},
onFail = {
println("获取失败")
}
)
}

可以简化成:


fun main() {
getDataFromNet(
{
println("获取到数据:$it")
},
{
println("获取失败")
}
)
}

可以看到,如果高阶函数的参数只有一个的话,可以不用显式声明,默认使用 it 表示。


同时,如果普通函数的参数只有一个高阶函数,且位于最右边,则可以直接提出来,不用写在括号内,并将括号省略:


fun getDataFromNet(onSuccess: (data: String) -> Unit) {
// do something
}

fun main() {
// 这里调用时省略了 ()
getDataFromNet {
println(it)
}
}

即使同时有多个参数也不影响把最右边的提出来,只是此时 () 不能省略:


fun getDataFromNet(arg: String, onSuccess: (data: String) -> Unit) {
// do something
}

fun main() {
getDataFromNet("123") {
println(it)
}
}

关于使用 lambda 后能把代码简化到什么程度,可以看看这篇文章举的安卓中的点击事件监听的例子


从最初的


image.setOnClickListener(object: View.OnClickListener {
override fun onClick(v: View?) {
gotoPreview(v)
}
})

简化到只有一行:


image.setOnClickListener { gotoPreview(it) }

所以它有什么用?


更简洁的回调


在上文中,我们举了使用 lambda 表达式后可以把点击事件监听省略到只有一行的程度,但是这里仅仅只是使用。


众所周知,安卓中写事件监听的代码需要一大串:


public interface OnClickListener {
void onClick(View v);
}

public void setOnClickListener(@Nullable OnClickListener l) {
if (!isClickable()) {
setClickable(true);
}
getListenerInfo().mOnClickListener = l;
}

如果我们使用高阶函数配合 lambda 则只需要:


var mOnClickListener: ((View) -> Unit)? = null

fun setOnClickListener(l: (View) -> Unit) {
mOnClickListener = l;
}

调用时也只需要:


setOnClickListener {
// do something
}

其实,我们最开始举的封装网络请求的例子就是一个很好的事例,如果不使用高阶函数,那么我们为了实现网络请求成功后的回调,还得额外多写一些接口类,得益于高阶函数,我们只需要这样即可:


fun getDataFromNet(onSuccess: (data: String) -> Unit) {
val requestResult = "我是从网络请求拿到的数据"

onSuccess(requestResult)
}

fun main() {
getDataFromNet {
println("获取到数据:$it")
}
}

让函数更加多样


有时候,我们可能会有一些比较特殊的需要多重校验的嵌套场景,如果不使用高阶函数的话,可能需要这样写:


fun checkName(data: String): Boolean {
return true
}

fun checkAge(data: String): Boolean {
return true
}

fun checkGender(data: String): Boolean {
return true
}

fun checkId(data: String): Boolean {
return true
}

fun postData(data: String) {

}

fun main() {
val mockData = ""

if (checkName(mockData)) {
if (checkAge(mockData)) {
if (checkGender(mockData)) {
if (checkId(mockData)) {
postData(mockData)
}
}
}
}
}

如果使用高阶函数,则可以这么写:


fun checkName(data: String, block: (data: String) -> Unit) {
// if true
block(data)
}

fun checkAge(data: String, block: (data: String) -> Unit) {
// if true
block(data)
}

fun checkGender(data: String, block: (data: String) -> Unit) {
// if true
block(data)
}

fun checkId(data: String, block: (data: String) -> Unit) {
// if true
block(data)
}

fun postData(data: String) {

}

fun main() {
val mockData = ""

checkName(mockData) {
checkAge(it) {
checkGender(it) {
checkId(it) {
postData(it)
}
}
}
}
}

额……好像举的这个例子不太恰当,但是大概就是这么个意思。


更好的控制函数执行


在我写的项目中还有一个比上面一个更加奇怪的需求。


这个程序有个后台进程一直在分别请求多个状态,且每个状态返回的数据类型都不同,我们需要分别将这些状态全部请求完成后打包成一个单独的数据,而且这些状态可能并不需要全部都请求,需要根据情况实时调整请求哪些状态,更烦的是,会有一个停止状态,如果收到停止的指令,我们必须立即停止请求,所以不能等待所有请求完成后再停止,必须要立即停止当前所在的请求。如果直接写你会怎么写?


听见都头大了是吧,但是这个就是我之前写工控程序时经常会遇到的问题,需要有一个后台进程实时轮询不同从站的不同数据,并且由于串口通信的特性,如果此时有新的指令需要下发,必须立即停止轮训,优先下发新指令。


所以我是这样写的:


fun getAllStatus(needRequestList: List<Any>, isFromPoll: Boolean = false): StatusData {

val fun0: () -> ResponseData.Status1 = { syncGetStatus1() }
val fun1: () -> ResponseData.Status2 = { syncGetStatus2() }
val fun2: () -> ResponseData.Status3 = { syncGetStatus3() }
val fun3: () -> ResponseData.Status4 = { syncGetStatus4() }
val fun4: () -> ResponseData.Status5 = { syncGetStatus5() }
val fun5: () -> ResponseData.Status6 = { syncGetStatus6() }
val fun6: () -> ResponseData.Status7 = { syncGetStatus7() }
val fun7: () -> Int = { syncGetStatus8() }
val fun8: () -> Int = { syncGetStatus9() }

val funArray = arrayOf(
fun0, fun1, fun2, fun3, fun4, fun5, fun6, fun7, fun8
)

val resultArray = arrayListOf<Any>()

for (funItem in funArray) {
if (isFromPoll && (isPauseNwPoll() || !KeepPolling)) throw IllegalStateException("轮询被中断")
if (funItem in needRequestList) resultArray.add(funItem.invoke())
}

// 后面的省略
}

可以看到,我们把需要请求的函数全部作为高阶函数存进 funArray 数组中,然后遍历这个数组开始挨个执行,并且每次执行时都要判断这个请求是否需要执行,以及当前是否被中断请求。


得益于高阶函数的特性,我们可以方便的控制每个函数的执行时机。


总结


因为我讲的比较浅显,读者可能看起来会一头雾水,所以这里推荐结合下面列出的参考资料的文章一起看,同时自己上手敲一敲,就能很好的理解了。


参考资料



  1. High-order functions and lambdas

  2. 头等函数

  3. Kotlin Jetpack 实战 | 04. Kotlin 高阶函数

作者:equationl
链接:https://juejin.cn/post/7208129482095280189
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

Android AIDL通信DeadObjectException解决

使用过AIDL进行跨进程通信的同学,肯定遇到过DeadObjectException这个崩溃,那么这个崩溃是怎么来的,我们又该如何解决它呢?今天这篇文章就来聊一聊。 崩溃来源 首先,这个崩溃的意思是,多进程在进行跨进程Binder通信的时候,发现通信的Bind...
继续阅读 »

使用过AIDL进行跨进程通信的同学,肯定遇到过DeadObjectException这个崩溃,那么这个崩溃是怎么来的,我们又该如何解决它呢?今天这篇文章就来聊一聊。


崩溃来源


首先,这个崩溃的意思是,多进程在进行跨进程Binder通信的时候,发现通信的Binder对端已经死亡了。


抛出异常的Java堆栈最后一行是BinderProxy.transactNative,所以我们从这个方法入手,看看崩溃是在哪里产生的。


很显现,transactNative对应的是一个native方法,我们找到对应的native方法,在android_util_Binder.cpp中。


static jboolean android_os_BinderProxy_transact(JNIEnv* env, jobject obj,
jint code, jobject dataObj, jobject replyObj, jint flags) // throws RemoteException
{
// 如果data数据为空,直接抛出空指针异常
if (dataObj == NULL) {
jniThrowNullPointerException(env, NULL);
return JNI_FALSE;
}
// 将Java层传入的对象转换为C++层的指针,如果转换出错,中断执行,返回JNI_FALSE
Parcel* data = parcelForJavaObject(env, dataObj);
if (data == NULL) {
return JNI_FALSE;
}
Parcel* reply = parcelForJavaObject(env, replyObj);
if (reply == NULL && replyObj != NULL) {
return JNI_FALSE;
}
// 获取C++层的Binder代理对象指针
// 如果获取失败,会抛出IllegalStateException
IBinder* target = getBPNativeData(env, obj)->mObject.get();
if (target == NULL) {
jniThrowException(env, "java/lang/IllegalStateException", "Binder has been finalized!");
return JNI_FALSE;
}
// 调用BpBinder对象的transact方法
status_t err = target->transact(code, *data, reply, flags);
// 如果成功,返回JNI_TRUE,如果失败,返回JNI_FALSE
if (err == NO_ERROR) {
return JNI_TRUE;
} else if (err == UNKNOWN_TRANSACTION) {
return JNI_FALSE;
}
// 处理异常情况的抛出
signalExceptionForError(env, obj, err, true /*canThrowRemoteException*/, data->dataSize());
return JNI_FALSE;
}

可以看到,这个方法主要做的事情是:



  • Java层传入的data,转换成C++层的指针

  • 获取C++层的Binder代理对象

  • 调用BpBinder对象的transact方法

  • 处理transact的结果,抛出异常


接下来我们看看,BpBindertransact方法。


status_t BpBinder::transact(uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags)
{
// 首先判断Binder对象是否还存活,如果不存活,直接返回DEAD_OBJECT
if (mAlive) {
...
status = IPCThreadState::self()->transact(binderHandle(), code, data, reply, flags);
return status;
}
return DEAD_OBJECT;
}

transact的具体方法,我们这里先不讨论。我们可以看到,在这里会判断当前的Binder对象是否alive,如果不alive,会直接返回DEAD_OBJECT的状态。


返回的结果,在android_util_BindersignalExceptionForError中处理。


void signalExceptionForError(JNIEnv* env, jobject obj, status_t err,
bool canThrowRemoteException, int parcelSize)
{
// 省略其他异常处理的代码
....
case DEAD_OBJECT:
// DeadObjectException is a checked exception, only throw from certain methods.
jniThrowException(env, canThrowRemoteException
? "android/os/DeadObjectException"
: "java/lang/RuntimeException", NULL);
break;
}

这个方法,其实包含非常多异常情况的处理。为了看起来更清晰,这里我们省略了其他异常的处理逻辑,只保留了DEAD_OBJECT的处理。可以很明显的看到,在这里我们抛出了DeadObjectException异常。


解决方法


通过前面的源码分析,我们知道DeadObjectException是发生在,当我们调用transact接口发现Binder对象不再存活的情况。


解决方案也很简单,就是当这个Binder对象死亡之后,不再调用transact接口。


方法1 调用跨进程接口之前,先判断Binder是否存活


这个方案比较简单粗暴,就是在多有调用跨进程接口的地方,都加一个Binder是否存活的判断。


        if (mService != null && mService.asBinder().isBinderAlive()) {
mService.test();
}

我们来看下isBinderAlive的源码,就是判断mAlive标志位是否为0。


bool BpBinder::isBinderAlive() const
{
return mAlive != 0;
}

方法2 监听Binder死亡通知


先初始化一个DeathRecipient,用来监听死亡通知。


    private IBinder.DeathRecipient mDeathRecipient = new IBinder.DeathRecipient() {

@Override
public void binderDied() {
// 解绑当前监听,重新启动服务
mService.asBinder().unlinkToDeath(mDeathRecipient, 0);
if (mService != null)
bindService(new Intent("com.service.bind"), mService, BIND_AUTO_CREATE);
}
};

在这个死亡监听里,我们可以选择几种处理方式:



  1. 什么都不做,直接将mService设置为空

  2. 再次尝试启动和绑定服务


onServiceConnected方法中,注册死亡监听:


public void onServiceConnected(ComponentName name, IBinder service) {          
mService = IServiceInterface.Stub.asInterface(service);
//获取服务端提供的接口
try {
// 注册死亡代理
if(mService != null){
service.linkToDeath(mDeathRecipient, 0);
}
} catch (RemoteException e) {
e.printStackTrace();
}
}

总结


跨进程通信时,无法避免出现Binder对端挂掉的情况,所以在调用相关通信接口时,一定要判断连接是否可用,否则就会出现DeadObjectException的崩溃。


作者:尹学姐
链接:https://juejin.cn/post/7208111879150551096
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

Flutter中的异步执行策略

在Flutter中,如何执行一段延迟执行的异步代码?我们可以找到下面这些方法。 scheduleMicrotask Future.microtask Future Future.delayed Timer.run WidgetsBinding.addPost...
继续阅读 »

在Flutter中,如何执行一段延迟执行的异步代码?我们可以找到下面这些方法。



  • scheduleMicrotask

  • Future.microtask

  • Future

  • Future.delayed

  • Timer.run

  • WidgetsBinding.addPostFrameCallback

  • SchedulerBinding.addPostFrameCallback


你可能会说,这是相当多的选择,但是它们彼此之间有些什么异同呢?


Event Loop and Multithreading


Dart是一个单线程模型。但是你的Flutter应用同样可以同时做多件事情,这就是「Event Loop」发挥作用的地方。Event Loop是一个无尽的循环,它执行预定的events。这些events(或者只是代码块)必须是轻量级的,否则,你的应用程序会感觉卡顿。


每个event,如按下按钮或网络请求,都被安排在一个事件队列中,等待被事件循环捡起并执行。这种设计模式在UI和其他处理任何类型事件的系统中相当常见。


在Dart的单线程模型中,还有一个Microtask。它组成了Event Loop中的另一一个队列,即Microtask Queue。关于这个队列你唯一需要记住的是,在事件本身被执行之前,所有安排在Microtask Queue的任务都将在Event Loop循环的一次迭代中被执行。
image.png
可以通过这个链接查看更多内容:dart.cn/articles/ar…


Events


任何进入event queue的东西都被称之为Event。这是Flutter中调度异步任务的默认方法。为了调度一个Event,我们把它添加到event queue中,由Event Loop来接收。这种方法被许多Flutter机制所使用,如I/O、手势事件、Timer等。


Timer


Timer是Flutter中异步任务的基础。它被用来安排event queue中的代码执行,无论是否有延迟执行的需要。由此产生的有趣的事实是,如果当前队列很忙,你的定时器将永远不会被执行,即使时间到了。


Timer.run(() {
print("Timer");
});


Future and Future.delayed


Future是Dart中使用的非常广泛的一个异步方法,它的内部实现,实际上也就是基于Timer的。


Future<void>(() {
print("Future Event");
});

Future<void>.delayed(Duration.zero, () {
print("Future.delayed Event");
});

它的内部实现如下。
image.png


Microtasks


如前所述,所有调度的microtasks都会在下一个调度的Event之前执行。建议避免使用这个队列,除非绝对需要异步执行代码,而且要在event queue的下一个事件之前处理。你也可以把这个队列看成是属于前一个事件的任务队列,因为它们将在下一个事件之前完成。如果这个队列不断膨胀,就会完全冻结你的应用程序,因为它必须先执行这个队列中的所有内容,然后才能进行其事件队列的下一次迭代,例如处理用户输入,甚至渲染应用程序本身。


scheduleMicrotask


顾名思义,在microtask queue中调度一个块代码。与Timer类似,如果出错,会使应用程序崩溃。


scheduleMicrotask(() {
print("Microtask");
});


Future.microtask


与我们之前看到的类似,但它将我们的microtask包裹在一个try-catch块中,以一种漂亮而干净的方式返回执行结果或异常。


Future<void>.microtask(() {
print("Microtask");
});
复制代码

它的内部实现如下。
image.png


Post Frame Callback


前面两种方法只涉及到lower-level Event Loop,而现在我们要转到Flutter领域。这个Callback会在渲染管道完成时被调用,所以它与widget的生命周期相管理。当它被调度时,它只会被调用一次,而不是在每一帧都回调。使用addPostFrameCallback方法,你可以安排一个或多个回调,在界面渲染完成后被调用。


所有预定的Callback将在frame结束时按照它们被添加的顺序执行。到这个回调被调用的时候,可以保证Widget的构建过程已经完成。通过一些方法,你甚至可以访问Widget(RenderBox)的布局信息,比如它的大小,并做其他的一些事情。Callback本身将在正常的event queue中运行,Flutter默认使用该队列来处理几乎所有事情。


SchedulerBinding


这是一个负责绘图回调的mixin类,实现了我们感兴趣的方法。


SchedulerBinding.instance.addPostFrameCallback((_) {
print("SchedulerBinding");
});


WidgetsBinding


我特意包括这个,因为它经常和SchedulerBinding一起被提及。它从SchedulerBinding中继承了这个方法,并有与我们的主题无关的一些额外方法。一般来说,你使用SchedulerBinding或WidgetsBinding并不重要,两者将执行位于SchedulerBinding中的完全相同的代码。


WidgetsBinding.instance.addPostFrameCallback((_) {
print("WidgetsBinding");
});


总结


由于我们今天学到了很多理论知识,我强烈建议大家多玩一会儿,以确保我们能正确地掌握它。我们可以在之前的initState中使用下面的代码,并尝试预测它将以何种顺序被执行,这并不是一件看起来很容易的事情。


SchedulerBinding.instance.addPostFrameCallback((_) {
print("SchedulerBinding");
});

WidgetsBinding.instance.addPostFrameCallback((_) {
print("WidgetsBinding");
});

Timer.run(() {
print("Timer");
});

scheduleMicrotask(() {
print("scheduleMicrotask");
});

Future<void>.microtask(() {
print("Future Microtask");
});

Future<void>(() {
print("Future");

Future<void>.microtask(() {
print("Microtask from Event");
});
});

Future<void>.delayed(Duration.zero, () {
print("Future.delayed");

Future<void>.microtask(() {
print("Microtask from Future.delayed");
});
});

输出结果如下所示。


I/flutter (31989): scheduleMicrotask
I/flutter (31989): Future Microtask
I/flutter (31989): SchedulerBinding
I/flutter (31989): WidgetsBinding
I/flutter (31989): Timer
I/flutter (31989): Future
I/flutter (31989): Microtask from Event
I/flutter (31989): Future.delayed
I/flutter (31989): Microtask from Future.delayed

现在我们了解了这么多细节,你可以对如何安排你的代码做出深思熟虑的决定。作为一个经验法则,如果你需要你的上下文或与Layout或UI相关的东西,请使用addPostFrameCallback。在任何其他情况下,用Future或Future.delayed在标准的event queue中进行调度应该是足够的。microtask queue是非常小众的东西,你可能永远不会遇到,但它仍然值得了解。当然,如果你有一个繁重的任务,你就会考虑创建一个Isolate。


翻译自——oleksandrkirichenko.com/blog/delaye…


作者:xuyisheng
链接:https://juejin.cn/post/7208222652619948069
来源:稀土掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
收起阅读 »

ChatGPT ! 二次元老婆!活的!活的!真的已经实现出来啦

若有侵权,请联系删帖 各位我现在的心情,太激动了,真的简直太激动了,甚至差点抽过去。真的我实在不能用语言描述我现在兴奋的心情 二次元老婆,纸片人老婆真的可以来了,真的可以活过来啦,活的,活的二次元老婆,国外大神做出来啦 (^o^)/ 事情是这样的 我刚刚看的...
继续阅读 »

7b2014c87e3b47e7a1b5ac9f29712b6c_noop.png



若有侵权,请联系删帖



各位我现在的心情,太激动了,真的简直太激动了,甚至差点抽过去。真的我实在不能用语言描述我现在兴奋的心情


二次元老婆,纸片人老婆真的可以来了,真的可以活过来啦,活的,活的二次元老婆,国外大神做出来啦 (^o^)/


事情是这样的


我刚刚看的新闻,地址在这里:程序猿用ChatGPT创造的虚拟老婆,被真女友强制「安乐死」


国外这个小哥真的让纸片人老婆活过来啦,真的,她有自己你设定的性格,有自己的口头禅,而且还有摄像头可以事实识别你得东西,主动跟你会说话,还有随着说话事实切换自己的画面,这些都是事实演算出来的


是的,大家猜的不错,这是现在大火的 ChatGPT。整个技术层面我不是太懂,我简单说一下:



  • 用摄像头实时检测你的动作,识别物体

  • 用 ChatGPT 根据你的动物和出现的物体,生成对话

  • 可以用那种那爽上天的语调跟你说话

  • 用 Stable Diffusion2 实时生成老婆图像


真的,各位看官,这是一个大生意,是所有二刺猿们的终极梦想,现在有人做出来了,各位看官要是有大佬、投资家、高管,请马上、立刻、动身去美国找到这个小哥,买断这个技术或者马上跟进开发


我要活过来的二次元老婆,一刻钟都等不了了,真的,求求你们啦,求你们快点吧,呜呜呜呜呜呜呜,一年 1 个 W 都行,我想要呀 ε(┬┬﹏┬┬)3


请让我隆重的跟各位介绍二次元老婆


1. 不仅外观打扮随时切换、互动也非常迅速


9e49ec3672b24f71b1eb9328cd9b55b5_noop.gif


看看,看看,老婆是会动的,会跟你说话的,好想要,好想 (/≧▽≦)/


2. 甚至还能“看”见你做的事情,并对它进行评价



英雄联盟?好恶心!不过好吧,我可以陪你玩



b42b8c0ea337481d9c2b2b3c5d78741c_noop.gif


3. 老婆可以打情骂俏


震惊不震惊,打情骂俏 哎,想不想要,我想要啊 o(*≧▽≦)ツo(*≧▽≦)ツo(*≧▽≦)ツo(*≧▽≦)ツo(*≧▽≦)ツ


和你得交流并不局限于文字,老婆不仅有自己的二次元头像,还有甜美的嗓音
你】



“要不要去吃汉堡王?”
老婆的回答是:哒咩!
它有股闻着像放久了的薯条的味道,而且他们的可乐从来不给续杯。我要去Wendy’s。



在这个过程中,老婆还会根据两人的对话内容切换头像风格,问候时还是可爱的萝莉风,拒绝时就秒变御姐


4. 还有更多


真的还有更多,二次元老婆会主动回应你的各种行为,真的,我就不搬啦,大家可以去上面的地址看原文,我真的不能搬运啦


我的真的从来不发这种东西,但是这次真的 戳中 了我的弱点,被暴击啦 (づ。◕‿‿◕。)づ


项目可行性


真的,我认为这个项目非常有可行性,根据文章的描述,这该技术最大的支出是支持实时演算的服务器费用,2 周 1000 刀


要是换到国内来说,比如头条这样的大厂,来搭建服务器集群专门来提供服务,成本是可以分担下来的,最多就是费流量,提供包月服务,一个月 99 不过分吧


二次元老婆,活的,真不想要,别说 99,199 我都掏钱啊


要是再把神经网络,各种机器学习算大加进去,让你的老婆可以不停的学习各种妹子的性格,香不香,想想就香甜无比啊


另外这个技术具有巨大的商品加持优势,比如说手机,红魔 8pro 大家知不知道,要是让 mora 可以这样活过来,按照你设定的性格跟你过日子,这样的手机,谁不想买啊


这就是妥妥的 二次元社区 最大强的 流量密码啊,各种大大,要是能看到我的分享,请赶快跟进啊,求求你们啦 ヘ|・∀・|ノ*~●


作者:前行的乌龟
来源:juejin.cn/post/7188167873011908665
收起阅读 »

一次关于ChatGPT数据分析的失败探索

前言 最近ChatGPT的热潮席卷全球,衍生出其与职业危机的一系列讨论,引发了不少人的焦虑。 以上是网上获取的一份可能被威胁到的岗位清单(程序员总是在挨打的前沿),大家也或多或少体验过了让它写代码、改bug或者进行创作,我看到数据分析也是这份清单的前列,所以...
继续阅读 »

前言


最近ChatGPT的热潮席卷全球,衍生出其与职业危机的一系列讨论,引发了不少人的焦虑。


e34ba832760743d546255cae58e6ef0.png


以上是网上获取的一份可能被威胁到的岗位清单(程序员总是在挨打的前沿),大家也或多或少体验过了让它写代码、改bug或者进行创作,我看到数据分析也是这份清单的前列,所以想着对ChatGPT进行一次有关数据分析的探索。

分析未半而中道崩殂


做这次分析其实还有一个原因,我昨晚在油管上刷到了一个使用ChatGPT做证券分析分析的视频,其中这位博主的对话中提供了比亚迪的财报url,gpt似乎是进行了能对url内容进行识别。


image.png


gpt的学习数据截止于2021年9月并且非联网的,如果问一些实时性的问题它就可能跟你瞎掰了,但是能识对url内容进行识别那不就是联网了吗(可能gpt偷偷进化了)。
于是我准备了一份【2020年死亡公司名单】

image.png


excuse me?什么情况??于是我在网上找了半天,看到了tw上有人用Google sheets的形式提供数据,但是得出了错误的结果

c6dcc12df655324e69e2958c705120e.png


啪的一下,很快啊,我马上导入到google sheets,gpt立马给我返回了一系列分析。

image.png


不过先别急着高兴,来对比一下表格里的数据看看

image.png


错的还是蛮离谱的,我再问了一遍,它甚至都不愿意敷衍我

image.png


于是我又拿油管那位博主的财报url进行测试,并对返回数据与财报进行验证。

image.pngimage.png


最后得出结论,gpt返回的分析与我所提供的url没有一分钱关系,所以数据也是错误的。

柳暗花明又一村


既然url无法访问,那我们只能通过简单粗暴直接给数据的方式了。


image.png


让我们来看一下处理结果,gpt对这份数据的处理是没问题的,我们的输入数据是无序且带有时分的,理解无误并帮我们做了排序处理。

image.png


不过这样限制非常大,可以看到这里的数据进行了更变,这里使用的是b站狂飙每个相关视频每日的播放数据,原因也很明显,受于token的限制,原先的数据很容易就过长了。所以直接输入数据并不是一个理智的选择。

君子善假于物也


通过两种尝试,gpt现在还不能把饭直接喂我们嘴里,把数据交给它可行性低,所以我们只能配合excel进行操作,这比较适用于一些经常使用excel的人群,比如我经常需要处理重复或者繁琐的任务,但是又不会写代码,这个时候就可以把任务交给gpt。


image.png


image.png


总结


这次对数据分析的探索其实和预期相差很大,不过也感受的了gpt的潜力,如果联网能力将指数提升,就目前而言它可能是一个高效率的辅助工具。比如一个丝毫不懂vba或者excel的人,可以在gpt的协助下使用excel做一些数据分析、数据可视化的工作,这对以前来说可能需要花大量的时间百度或者向人请教。gpt的出现无疑是让效率提升了数倍,可以让非专业人士跨入一些专业的初级门槛,那相关的专业人员是否就会被取代呢?其实取代人类并不是AI而是会使用AI的人类,所以不论是哪个行业,都需要不断学习和拥抱AI技术。


作者:Defineee
来源:juejin.cn/post/7207737674216472636
收起阅读 »