GPT-4o,遥遥领先,作为前端人的一些思考
大家好,我是LV。
我早上一般起的比较早~ 大概6点左右就起来刷各种AI资讯。
但是今天,5点左右就起来了,迫不及待想看 OpenAI 发布的内容~
也顺便写篇文章跟大家分享一下最新的资讯~
以及作为前端人的一些思考~
希望对你有所帮助~
欢迎加入最懂AI的前端伙伴们~群,一起探讨AI赋能前端研发。
GPT-4o
- 结合文本、图像、视频、语音的全能模型
- 可以通过语音交互以及具备识别物体和基于视觉信息进行快速回答的功能
- 性能上,GPT-4o达到了GPT-4 Turbo水平
- 成本相比GPT-4-turbo砍一半,速度快一倍,响应时间最低232毫秒,平均320毫秒。遥遥领先!
- 将为 macOS 操作系统设计桌面ChatGPT应用程序,无缝集成到 macOs 中,可以使用键盘快捷键查询问题并与 ChatGPT 进行截图讨论或直接开展声音/视频对话。
前端人的思考
成本砍半,速度加倍
做应用层的前端er,可以换新的 API Model 了,虽然价格没有 3.5 那么便宜,也算是GPT4自由了(我也赶紧给LV0给换上)。
音视频支持
- 通过视频连线ChatGPT,实时辅助修bug
之前只能够通过将bug转换为文字或者图片再给到AI,有了音视频功能,直接可以连线 ChatGPT,让GPT实时给你debug。
- 通过视频连线ChatGPT,辅助编码,相当于请了一个24在线的编程导师~
- 通过视频的形式给AI一些UI交互上的信息,从截图生代码 ==> 原型交互生代码(离AGI Code又近了一步)
跟macOS的结合
在vscode、在网页、在控制台、在Codding的任何地方,有问题,就会有答案。(作为mac粉,着实期待了~)
其他思考
作为AI应用研发的创业者角色,有几点思考~
OpenAI的这一波更新带来了新的机遇:
例如在教育领域、情感陪伴服务以及同声传译服务:
- 语音增加了情绪理解和有感情的回复,老人或者残疾人士陪伴
- 手机能够实时解析摄像头捕获的视频画面,并提供指导,这种能力有潜力取代家庭教师的角色
- 同时进行翻译(即同传)的工作可以由此技术执行,从而有可能替代专业的同声传译人员
不过,这波更新也破灭了多少创业者正在做的事情~ 比如:
智能眼镜,给视疾人士提供出行便捷(我前几天还看到有人在花大力气自研这项技术,现在升级一下模型或许就能很低门槛接入了~)
Sam Altman 很早在斯坦福大学举办的一个演讲中预示:GPT-5和GPT-6将极大超越GPT-4,警示创业者考虑AI未来发展,创业不要要专注于解决当前AI的局限性问题。
简单来说:别做跟官方做技术竞争,比如:花大量时间通过各种布丁来拓展AI的上下文能力,降低迷惑性。
至于要做啥,从稳健的角度来看,不要轻易涉足一个未知的领域,建议基于熟悉的业务场景聚焦来做AI赋能。把现有你熟悉的业务场景梳理出来,尝试用AI结合进去,AI赋能现有的业务流程,让现有的业务跑起来效能更高或者门槛更低。
比如:我很熟悉前端研发领域,那我会深度聚焦AI赋能前端研发,拆解研发中的各个环节步骤,不断尝试AI赋能各个步骤,提升现有的研发效能,降低研发门槛,再把这些经验抽象产品化。
聚焦细分业务,保持敏锐度,将最新的AI技术快速结合到业务中去。
来源:juejin.cn/post/7368421137917788198