OpenAI推出最新大模型“GPT-4o”,能读取人类情绪

[复制链接]
查看68 | 回复0 | 2024-5-14 16:44:05|发表时间:2024-5-14 16:44:05| 显示全部楼层 |阅读模式
电影《她》讲述了一位男性作家和AI相恋的故事,这一未来也许离我们不远了。
北京时间5月14日凌晨,OpenAI召开春季发布会,首席技术官Mira Murati 在26分钟的直播中发布了最新大模型GPT-4o。目前所有用户都可以免费使用,不过会优先响应ChatGPT Plus会员的需求。
在发布会的直播过程中,两位OpenAI的员工向大家展示了GPT-4o的更新细节。
1.感知用户情绪:前沿研究部门主管陈信翰(Mark Chen)让ChatGPT-4o聆听他的呼吸,聊天机器人侦测到他急促的呼吸,并幽默地建议他不要像吸尘器那样呼吸,要放慢速度。随后Mark深呼吸一次,GPT-4o则表示这才是正确的呼吸方式。
2.具备不同情绪的声音:陈信翰示范了ChatGPT-4o如何用不同的声音朗读AI生成的故事,包括超级戏剧化的朗诵、机器人音调,甚至唱歌。
3.实时视觉功能:研究员巴雷特·佐夫(Barret Zoph)演示了如何让ChatGPT-4o通过手机摄像头实时解决数学问题,仿佛一位真实的数学老师在旁边指导每一个解题步骤。此外,ChatGPT-4o还能通过前置摄像头观察用户的面部表情,分析其情绪。
4.更即时的语音交互:ChatGPT-4o的响应时间得到缩短,与用户的交互更加即时。穆拉提和陈信翰利用新的聊天机器人展示了跨语言的实时翻译功能,能够在英语和意大利语之间无缝转换。
OpenAI的首席执行官Sam Altman此前在采访中表示,希望最终能开发出一种类似电影《她》那样的AI助理。对于GPT-4o,他说:“我仍然有点惊讶它是真实的。事实证明,达到人类级别的响应时间和表现力是一个巨大的变化。”
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则