重磅!OpenAI推出新旗舰模型GPT-4o
重磅!OpenAI推出新旗舰模型GPT-4o
重磅!当地时间5月13日,虽然没有带来备受期待的人工智能(AI)搜索引擎,但是OpenAI通过直播展示了产品更新,公司首席技术官Mira Murati向外界展现了多项与ChatGPT有关的更新。

综合媒体报道,整体来看,活动主要分为两大部分:推出新旗舰模型“GPT-4o”,以及在ChatGPT中免费提供更多功能。其中最重磅的是新的模型GPT-4o。根据OpenAI的官网解释,"o"代表“omni”。

该词意为“全能”,源自拉丁语“omnis”。在英语中“omni”常被用作词根,用来表示“全部”或“所有”的概念。分析指出,这也是朝着更自然的人类与计算机交互迈出的一步。
根据OpenAI的官方新闻稿,GPT-4o是迈向更自然人机交互的一步,它可以接受文本、音频和图像三者组合作为输入,并生成文本、音频和图像的任意组合输出,“与现有模型相比,GPT-4o在图像和音频理解方面尤其出色。”
在GPT-4o之前,用户使用语音模式与ChatGPT对话时,GPT-3.5的平均延迟为2.8秒,GPT-4为5.4秒,音频在输入时还会由于处理方式丢失大量信息,让GPT-4无法直接观察音调、说话的人和背景噪音,也无法输出笑声、歌唱声和表达情感。
与之相比,GPT-4o可以在232毫秒内对音频输入做出反应,与人类在对话中的反应时间相近。在录播视频中,两位高管做出了演示:机器人能够从急促的喘气声中理解“紧张”的含义,并且指导他进行深呼吸,还可以根据用户要求变换语调。
OpenAI称,“我们跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。由于GPT-4o是我们第一个结合所有这些模式的模型,因此我们仍然只是浅尝辄止地探索该模型的功能及其局限性。”
OpenAI研究员Mark Chen表示,新模型具有“感知情绪”的能力,能输出笑声、歌唱或表达情感,还可以处理用户打断它的情况。在直播中,OpenAI演示了一段OpenAI员工与GPT-4o对话的视频,模型反应速度与人类相近,GPT-4o可利用手机摄像头描述其“看到”的东西。
除了在直播中重点强调的功能,在OpenAI的技术文档中,我们看到在GPT4-o的能力列表中,还包含3D能力、图像诗能力、转换卡通照片等能力。
更多工具免费解锁
ChatGPT的免费用户也能用上最新发布的GPT-4o模型(更新前只能使用GPT-3.5),来进行数据分析、图像分析、互联网搜索、访问应用商店等操作。这也意味着GPT应用商店的开发者,将面对海量的新增用户。
当然,付费用户将会获得更高的消息限额(OpenAI说至少是5倍)。当免费用户用完消息数量后,ChatGPT将自动切换到 GPT-3.5。另外,OpenAI将在未来1个月左右向Plus用户推出基于GPT-4o改进的语音体验,目前GPT-4o的API并不包含语音功能。
另外,OpenAI将在未来1个月左右向Plus用户推出基于GPT-4o改进的语音体验,目前GPT-4o的API并不包含语音功能。苹果电脑用户将迎来一款为macOS设计的ChatGPT桌面应用,用户可以通过快捷键“拍摄”桌面并向ChatGP提问,OpenAI表示,Windows版本将在今年晚些时候推出。
OpenAI推出适用于macOS的ChatGPT桌面应用程序,通过简单的键盘快捷键(Option + Space)可以立即向ChatGPT提问,还可以直接在应用程序中截取屏幕截图与机器人进行讨论。
未能参加直播活动的OpenAI首席执行官山姆·奥特曼(Sam Altman)在社交平台X上发帖表示:“我们的新模型:GPT-4o是我们迄今为止最优秀的模型。它既智能又快速,并且是原生多模态模型。”

不少科技界人士发表了对OpenAI此次产品更新的看法。“我没想到GPT-4o会接近GPT-5。传闻中OpenAI的‘Arrakis’模型就采用多模态输入和输入。事实上,它可能是GPT-5的一个早期检查点(checkpoint),尚未完成训练。”英伟达高级科学家Jim Fan在社交媒体上评论称。
Jim Fan认为,在谷歌召开I/O大会前,OpenAI宁愿发布超过人们对GPT-4.5心理预期的产品,也不愿因为推出达不到人们期望的GPT-5,而让人感到失望。此外,谁先赢得苹果,谁就将大获全胜,与iOS整合有几个层次,例如抛弃Siri,OpenAI为iOS提炼出一个更小层级、设备上运行的GPT-4o。虽然此次未公开相关论文,加利福尼亚大学圣克鲁兹分校教授Xin Eric Wang还是评论认为,一个演示胜过千篇论文。
Disclaimer: The content above represents only the views of the author or guest. It does not represent any views or positions of FOLLOWME and does not mean that FOLLOWME agrees with its statement or description, nor does it constitute any investment advice. For all actions taken by visitors based on information provided by the FOLLOWME community, the community does not assume any form of liability unless otherwise expressly promised in writing.
FOLLOWME Trading Community Website: https://www.followme.com
Hot
No comment on record. Start new comment.