OpenAI 首席研究 Mark Chen :DeepSeek独立发现了o1 核心理念,然而市场反应过度
国产 AI 新锐 DeepSeek(深度求索) 悄然发布了其最新的 o1 级别推理模型R1,犹如一颗深水炸弹,先是引爆整个硅谷,随后震惊整个世界!这件事的影响力大家都知道了, 事情还在继续发酵,刚刚OpenAI 的首席研究 Mark Chen 亲自下场评论DeepSeek R1,虽然肯定了DeepSeek R1的研究发现,但是态度非常微妙,还有DeepSeek前实习生工对于Mark Chen的回应,整个过程不要太精彩,我整理了一下,分享给大家
Mark Chen “态度微妙” 回应 DeepSeek:既肯定又“划重点”?
Mark Chen 的推文,表面上是祝贺 DeepSeek 取得的成就,但仔细品味,却能感受到一丝微妙的 “酸味” 和 “防守” 姿态
他首先承认 DeepSeek “独立发现了 OpenAI 在 o1 模型研发过程中的一些核心理念”, 原话:
“祝贺DeepSeek成功研发出o1级推理模型!他们的研究论文表明,他们独立发现了我们在实现o1过程中所采用的一些核心思想”
这无疑是对 DeepSeek 技术实力的一次高调认可,也侧面印证了 DeepSeek 模型的硬核实力。
然而,话锋一转,Mark Chen 立即将焦点转移到 “成本” 问题上,认为 “外界对成本优势的解读有些过头”。他抛出了一个略显专业的概念——“双轴优化 (pre-training and reasoning)”, 解释说,将模型训练和推理视为两个可独立优化的维度,可以更有效地控制成本。他的言外之意似乎在暗示:DeepSeek 你在成本控制上做得不错,但我们 OpenAI 也能做到,而且我们还有更全面的优势!
为了进一步 “划重点”,Mark Chen 还提到了 “蒸馏技术” 的成熟和 “成本与能力解耦” 的趋势, 暗示 OpenAI 也在积极探索模型压缩和优化技术,降低服务成本。他强调, “低成本服务模型(尤其是在较高延迟下)并不意味着拥有更强的模型能力”, 试图弱化 DeepSeek 在成本方面的优势对 OpenAI 能力优势的冲击
最后,Mark Chen 不忘 “画饼”, 强调 OpenAI 将继续在 “降低成本” 和 “提升能力” 两个方向上 “双管齐下”,并承诺 “今年会发布更优秀的模型”。这番回应,既有对 DeepSeek 技术实力的肯定,也充满了 OpenAI 作为行业领导者的自信和 “捍卫地位” 的意味。毕竟,DeepSeek 这次发布的 o1 模型,直接挑战的是大模型最核心的 推理能力,这无疑触动了 OpenAI 的敏感神经。
前 DeepSeek 实习生 “扎心”回怼 :OpenAI,说好的“开放”初心呢?
如果说 Mark Chen 的回应还算官方 “过招”, 那么DeepSeek实习生Zihan Wang 对Mark Chen回应较为尖锐!(资料显示,他 曾就职于 DeepSeek,并深度参与了 RAGEN 项目!) 他还透露自己 早在 2022 年就关注 OpenAI,并对其早期的 VPT 和 ChatGPT 项目印象深刻,甚至在伯克利的课程项目也做了类似 VPT 的尝试!曾是 OpenAI 的早期 “粉丝”。
Zihan Wang 坦言,他并非有意冒犯,只是好奇曾经以 “开放 AI” 为名的 OpenAI,为何在开源问题上变得如此 “犹豫” 和 “保守”。他回忆起 2022 年 OpenAI 的 VPT 和 ChatGPT 项目,那时他对 OpenAI 的印象是 “开放、创新、引领未来”,充满了乐观和信任。但如今,他感觉 OpenAI “变了”,变得不再像以前那样 “纯粹”,不再像以前那样 “为了更重要的事” 而努力, 似乎更加注重商业利益和竞争优势。
DeepSeek 源代码在哪里?
更有趣的来了, 另一位网友 Autark 追问Zihan Wang ,他直接 “喊话” DeepSeek:“DeepSeek 的源代码在哪里?我说的不是权重或推理支持代码,我要的是真正的源代码!”
面对 Autark 的追问,Zihan Wang 也给出了他了解到的 DeepSeek 官方解释:
“DeepSeek 团队人数有限,开源需要投入额外的大量工作,不仅仅是让训练框架跑起来那么简单 (open-sourcing needs another layer of hard work beyond making the training framework brrr on their own infra)。因此,DeepSeek 目前优先聚焦于迭代下一代模型, 在开源方面,他们优先开源 ‘最小化 + 必要’ 的部分,同时通过发布详细的技术报告,并鼓励社区进行复现, 来弥补开源的不足。”
“华人 AI 力量” 的崛起,中美 AI 竞争的新注脚?
有网友调侃两位来自不同国家的顶级人工智能公司的华人代表在 X上争论,这可能是 2025 年的一个好兆头
资料显示,Mark chen 高中就读于中国台湾省National Experimental High School(2004年 - 2008年),本科就读于MIT的Mathematics with Computer (2008年 - 2012)。
已经在OpenAI工作6年4个月,今天1月刚刚从OpenAI研究副总裁升任为首席研究。
zihan wang 本科就读于中国人民大学,美国西北大学在读PhD。
zihan wang 2024年2月 - 2024年7月 在DeepSeek 实习,
A. 利用稀疏架构训练专业化语言模型。通过选择最佳的5%专家进行专业化大语言模型(LLM)调优,能够实现接近完全的性能。该论文作为第一作者在EMNLP 2024会议上展示
B. 与团队开发了DeepSeek-V2,一个拥有2360亿参数的模型,采用多头潜在注意力机制来压缩LLM效率瓶颈中的KV缓存,降低了42.5%的成本,生成速度提升了5.76倍,获得了3.5k GitHub星标和10万用户
最后,Zihan Wang 也补充声明:强调他的观点仅代表个人,不代表 DeepSeek 官方立场
本文来源:AI寒武纪,原文标题:《OpenAI 首席研究 Mark Chen :DeepSeek独立发现了o1 核心理念,然而市场反应过度》。
Reprinted from 见闻VIP,the copyright all reserved by the original author.
Disclaimer: The content above represents only the views of the author or guest. It does not represent any views or positions of FOLLOWME and does not mean that FOLLOWME agrees with its statement or description, nor does it constitute any investment advice. For all actions taken by visitors based on information provided by the FOLLOWME community, the community does not assume any form of liability unless otherwise expressly promised in writing.
FOLLOWME Trading Community Website: https://www.followme.com
Hot
No comment on record. Start new comment.