头图由豆包生成 提示词:打工人,坐在电脑前拼命工作,办公室场景
作者 | Jessica
邮箱 | JessicaZhang@pingwest.com
OpenAI发布旗舰推理模型o3和o3-mini,成为他们2024年的收官之作,制造了一波小热潮。和往常一样,Twitter (x.com)依然是外网讨论的主阵地。
但有件事不知你发现没,这次来自OpenAI“自己人”的声量明显增强了——几乎所有拥有x账号的OpenAI员工都在发文,为公司的重大模型更新站台助威。
网友们越刷推越发现,放眼望去,怎么满世界都是OpenAI的工程师和研究员。而且这次不再局限于那几个耳熟能详的名字,整个团队都出来了。
此情此景,是不是还挺熟悉~Twitter上的OpenAI员工们,像不像在朋友圈奋力为东家“营业”的你?
1
OpenAI全员共创o3盛事之:
领导班子带头PR
掌门人奥特曼不用多说了:从发布前按捺不住以“oh oh oh”暗示新品,邀请大家申请o3测试权限;
到强调o3-mini编程表现以显著降低的成本超越o1,在线感激团队成员的辛劳付出,称大家一起工作是“人生中最大的快乐之一”;
再到各种一键三连同事们的o3推文,热闹非常。
上个月刚结束"人生中最长假期"的OpenAI联合创始人兼总裁Greg Brockman,回归后一直在紧密配合公司的每一步动作,勤劳搞宣发。
o3上线后他发声力赞:新模型在最具挑战性的测试中实现了质的飞跃,直接达到一个全新的高度。
首席产品官Kevin Weil和研究副总裁Mark Chen分别转发ARC-AGI测试突破和o3-mini团队的推文。
新任OpenAI首席信息安全官Dane Stuckey也来“一二三,上链接”了,感叹这是“多么令人兴奋的一天”。
有意思的是,Stuckey大约四年前就注册了推特账号,而直到今年10月他离开Palantir Tech,官宣加入OpenAI后,才开始正式发文。并且一改往日低调,变得异常活跃。
主创团队携手登场
在这次发布直播中,年轻的华人研究员Hongyu Ren作为团队代表,详细介绍了轻量级模型o3 mini。
他随后在推特上发文,重点讲解o3 mini的卓越性能,包括其高效性、成本效益以及灵活可调的推理时间。还特别提到了几位参与o3-mini研发的核心成员,向他们致敬。
几位主创也纷纷发文回应,称o3-mini是“一个聪明的小怪兽”、“速度极快”、拥有“惊人的数学和代码性能”,言语间自豪之情尽显。
其实,这些研究员们在业内已经颇有建树。查看他们的背景就会发现,不少人都是o1和o1-mini的关键贡献者。不过这一波官宣也确实让更多公众认识了他们,以OpenAI的造星能力来看,出几个新的大模型界KOL或许指日可待。
各组同事扎堆夸夸
此次“OpenAI夸夸团”的团友之多:只要点进一位员工的x账号,就大概率能顺着各种"套娃式"转发,连环点进其他几位同事夸赞o3的推文里。
搞得我们都怀疑奥特曼是不是下达了什么指标,把增加o3曝光度也算进员工KPI里。
在微软研究院工作了十年、曾担任AI副总裁及杰出科学家的知名计算机大佬Sébastien Bubeck,于今年10月入职了OpenAI。他在置顶推文中坦言,o3和o3-mini是自己截至目前最喜欢的模型,o3各项评估简直封神,特别是前沿数学25%的测试成绩。
领导过GPT-4o预训练和o1开发的研究员Aidan Clark更是连发五条,激赞“Hongyu 真得太厉害了”,表示o3-mini是第一个让他真正能提出难题的模型。
专注GPT增长的技术团队成员Anshita Saini说,o3给人的感觉很不一样。整个o3系列的理念会让她停下来思考“一个将AGI产品化的世界是什么样子”。
研究人员在线剖析
除了以上这种直给式力挺,还有一些OpenAI研究员承担了答疑解惑的角色,试图通过分享观点来澄清一些问题。
o3和o3-mini的发布给社区带来振奋的同时,也引发了一些争议和质疑。有人因为ARC-AGI的测试结果欢呼AGI近在咫尺,甚至已经实现;也有人嗤之以鼻,对o3高昂的算力需求和运营成本表示担忧,吐槽这不过是又一个"画饼"产品。
对此,OpenAI多模态推理研究员Noam Brown发文表示:外界对ARC-AGI测试的反应有些过度,突破ARC-AGI基准并不意味着模型已达到AGI水平。他还提到了AI领域的一个普遍现象:人们往往认为某个基准测试需要"超智能"才能完成,但当真的有模型攻克这个基准时,人们又会因为它没有达到预期中的"超智能"水平而感到失望。
言外之意:请理性对待,不要捧杀。
OpenAI API工程主管Sherwin Wu对此深表赞同,Sherwin提醒社区:比起ARC-AGI测试,o3在编程和数学上的突破才更值得关注——o3的编程水平已经超越了自己,而o3能答对四分之一的前沿数学题目自己更是一道都解不出。
另外,针对o3模型是否使用特定数据集、通过特定领域优化、或人为调整提示格式来提高评估结果的质疑,公司研究员Brandon McKinzie和Rhythm Garg相继回应:
评估中使用的arc-agi公共训练集仅是更大o3训练数据的一小部分,无法决定模型表现;o3是通用模型,未进行任何特定领域的微调;ARC-AGI高分并非依赖调整提示,而是模型通用性和训练结果的自然体现。
关于o3的高昂价格,研究员Nat McAleese这样解释:虽然o3是目前测试阶段成本最高的模型,但它开启了一个"用计算换性能"的新时代。通过增加测试阶段的计算量,o3将模型性能提升到了一个"令人难以置信的水平"。
Nat认为,尽管目前确实很贵,但随着技术进步,token价格会逐渐降低。更关键的是,团队已经找到了一种能够高效地将计算量转化为性能提升的方法,这预示着未来AI模型的能力还将大幅提升。
最后是OpenAI模型训练速度的问题。在中文社区颇有影响力的Jason Wei表示:从o1到o3的升级仅用了三个月时间,证明了基于思维链的强化学习新范式,比传统预训练方式每1-2年才能推出一个新模型的节奏要快得多。
连OpenAI日本办公室总裁Tadao Nagasaki也出来捧场:“我们不是才在九月份发布了 o1?现在已经开始对o3 早期评估了!”
1
集体营业要传达什么信息
这次OpenAI员工集体为o3发布背书,首先是出于对产品的高度自信。通过不同角度的解读,他们希望外界能够更全面地了解o3在数学、编程和推理方面的突破性成就。OpenAI有意向外界展示:自己依然是AI技术的领导者,在竞争者四起的市场上存在感依旧。
此外,在当前OpenAI面临外界质疑、竞争压力加剧的关键时间点,加之核心员工频繁流失以及“吹哨人”风波的影响,全员营业也带有了些许“抱团取暖”的意味。他们试图借这次发布向社区传递几个信号:
1. 扩展法则有新突破
多位OpenAI研究员指出,o3和o3-mini验证了增加计算资源、数据量和模型参数确实能带来显著性能提升,并且突破了传统扩展法则“递减效益”的限制,证明模型在未来仍有巨大的提升空间。
2. 技术创新没有“撞墙”
员工们通过转发测试数据和详细解读,强调o3系列的理念和性能突破了许多人对AI模型边界的想象,不仅在性能上取得了超越预期的突破,也展现了更广泛的适用性。相比外界对GPT-5“难产”的传言,OpenAI想证明他们正在开辟另一条创新之路。
3. 训练速度并未放缓
面对外界关于OpenAI模型迭代速度的质疑,特别是在全球AI竞争日益激烈的背景下,从o1到o3的迅速升级成了明确回应。表明OpenAI有能力突破传统预训练1-2年的开发周期,以更快的速度推出高质量模型,稳固市场信心。
回过头看,从上线o1正式版到官宣o3,这12天技术直播更像一场声势浩大的OpenAI大秀。去年这个时候,那场震撼全网的"OpenAI is nothing without its people"全员声援才刚刚落幕。一年过去,OpenAI不能说不好,却也不复曾经GPT时的巅峰辉煌。在经历了各种高低曲折后,或许每位员工都想在年底拼一把来make OpenAI great again。