95后百亿美元独角兽华裔创始人:AI效果类似核武器
1 周前 / 阅读约29分钟
来源:凤凰网

图片来源:Alexander Wang

Z Highlights

但我的预测是,我们将讨论的不仅仅是哪个超级大国会胜出,而是哪个国家的AI系统会成为全球基础设施的基石,能够被广泛采用和输出。

理想的AI Agent是它能够在你所有的核心信息流和背景中进行自然观察和跟踪。

我们将看到,焦点将从单纯的计算能力转移到计算能力和数据的结合,并且这两者会被视为几乎等同重要。

美中AI竞争的未来预测

Alex Kantrowitz: 我们对今天为您带来的节目感到非常兴奋,因为我们有Alexander Wang在这里。他是Scale AI的创始人和首席执行官。

这家公司市值140亿美元,今年筹集了十亿美元,创建的数据为OpenAI、Meta及其他大公司的LLM提供支持,还为企业和美国政府提供技术解决方案,帮助他们构建和部署AI。

因此,Alex正处于这些大公司技术核心的中心,包括与美国政府的合作。我们一定会谈及这个话题。那么,Alex,非常高兴你能来,非常感谢你参加这个节目。

Alexander Wang: 谢谢你邀请我来聊天。

Alex Kantrowitz: 今天你有很多预测,我最感兴趣的一个是关于你预见未来一年AI领域将出现的地缘政治变化。可以从这个话题开始?

Alexander Wang: 过去十年AI领域经常被问到的问题是,美国和中国哪个国家在AI技术上会领先?

当然,在过去的十年中,这场竞争相当激烈,无论是从自动驾驶到其他技术,这场竞争都非常接近。

现在随着生成式AI和大型语言模型的崛起,竞争再次进入了一个非常接近的阶段。新政府会进来,帮助加速进程,使美国能够更积极地与中国竞争,并最终在技术上取得领先。

但我的预测是,我们将讨论的不仅仅是哪个超级大国会胜出,而是哪个国家的AI系统会成为全球基础设施的基石,能够被广泛采用和输出。

目前的趋势对美国或西方国家非常有利。广义来说,我们拥有最强大的模型,并且我们的模型有着最具吸引力的价值主张——我们的模型会不断进步。当然,也许中国的模型会随着时间的推移逐步追赶上来,但我们才是创新的生态系统。我们将是那些遥遥领先对手进行创新的人。

话虽如此,我们也必须看到另一方面,中国通过“一带一路”倡议所提供的整体方案也是不容忽视的。通过技术、基础设施建设和债务的综合方案,他们成功地吸引了许多国家站到他们这一边。

所以,我们需要密切关注,确保我们始终保持一个具有竞争力的整体价值主张。

AI的军事应用

Alex Kantrowitz:是的,我刚刚写了一篇关于大型科技公司的文章,探讨了人工智能将如何成为一段时间内企业应用的主流,对吧?

像B2B公司、软件公司等,这些领域可能看起来不那么令人兴奋,但正是这些地方会最先采纳AI,因为它能帮助他们解决大量信息管理的问题,他们无法有效地组织、共享或行动。

而生成式人工智能特别擅长处理这些问题。然后你不禁会想,如果它不面向普通大众,还有哪些领域可能会应用呢?就像我们现在没有人工智能手机,但很多公司在开发人工智能软件。军队就是一个完美的应用场景,因为它涉及大量的信息和后勤问题。

Alexandr Wang:是的,完全正确,你触及到了一个核心问题,这个问题经常被忽视。当人们谈论军队和战争时,他们往往会想到字面上的战场和战场上的直接行动。

但实际上,任何一场战争或军事行动中,80%的工作都是关于后勤协调的,比如武器的制造、各种物资的生产、物资的运输和分发、决策过程以及如何处理所有进来的信息。

因此,实际上发生的大多数事情,看起来更像是企业管理,而不仅仅是军事行动。只不过,这里的赌注更为重要。

Alex Kantrowitz:今天的高级军事战略几乎都围绕着后勤展开。就像开火一样,那是最后发生的事情,最关键的其实是后勤。为了深入探讨你提到的一个子预测,人工智能Agent如何在这种情况下提供帮助呢?

Alexandr Wang:人工智能Agent可以在两个核心领域立即产生价值。

首先,正如你提到的,企业所面临的挑战之一是处理大量数据。目前,大多数军队都面临着信息量远远超出其处理能力的情况。无论是来自战场的数据、来自合作伙伴和盟国的数据、来自卫星网络的数据,还是其他形式的数据,它们都需要处理并转化为能提供有价值洞察的决策支持。因此,第一个问题就是如何高效地处理海量数据,并做出真正有价值的决策。这一类问题适用于很多领域,无论是后勤、情报还是军事行动规划等。

第二个领域是协调和优化复杂系统。这对于后勤和制造领域尤为重要,因为这些领域涉及非常复杂的流程和大量动态的环节。人类很难有效掌握和优化这些过程,而AI系统可以处理更多的信息,并能自主运行模拟,评估哪些配置可能会更有效。它们能够自动优化这些流程,以提高效率。

还有第三个领域,虽然更具投机性质或科幻色彩,那就是在无人机自治或其他自主任务中更积极地应用AI Agent。这是许多军队正在积极进行实验的领域。如果这种情况开始发生,我们将看到更多能够自主作战的无人机,它们会变得更加致命和高效。这样一来,这场“猫捉老鼠”的博弈将更加激烈。这是一场真正的比赛。

Alex Kantrowitz:这把我吓坏了。你觉得这样没问题吗?

Alexandr Wang:答案是否定的。最终我们需要围绕我们究竟希望在战场上使用多少AI Agent展开全球对话和协调。

Alex Kantrowitz:是的,这种事情一旦发生,似乎就无法回头了。当我们谈论Agent时,实际上就是指那些能够自主做决策的AI应用程序。如果我们最终将它们部署在战争中,一旦有国家开始使用,其他国家也会跟着做。

这就像核武器的相反,通常核武器是用来威慑的,这是:“如果我们这样做,世界就完了”,但如果是AI Agent决定轰炸什么、在哪里轰炸、如何攻击,只要它们不接触到核武器,真的是很难让这种局面回到原点,因为如果你不使用它,你就会被摧毁。

Alexandr Wang:是的,好消息是,如果以核武器为例,核武器所带来的现象是,我们已经开发出了一种非常先进的技术,这种技术在理论上可以摧毁世界,但实际上它促成了更多的和平,因为你有了核武器使用的威慑。

所以我的希望当然是,尽管AI在军事上的应用非常令人担忧且可能极其强大,但它的总体效果会和核武器相似,最终更多是用来遏制冲突,而不是制造冲突。

Alex Kantrowitz:我希望你是对的,我错了。几个月前,我们有请到Paul Merl,他提到国家不会发动他们认为自己会输的战争,也许这就有助于解释这一点。毕竟,核武器确实是这种情况。

好了,我想深入探讨你提到的第二个预测。我们已经提到过AI Agent,但我觉得我们应该更深入一些,因为当人们听到AI Agent时,可能会想:这应该是我电脑上的一些东西,它会为我预订旅行、预订餐厅座位、查找信息,甚至帮我做报销报告,假如我需要它这样做?或者,简单来说,它是代表个人行动的Agent?

我们还没有真正看到这样的东西,虽然我们看到了一些公司和军队在使用这类技术。普通人暂时没有机会接触到它,但你认为这种情况会改变。

工作流革新:AI Agent的消费前景

Alexandr Wang:我确实这么认为。我觉得2020到2025年将是一个关键年份,我们会看到一些非常基础、原始的AI Agent开始在消费者领域真正发挥作用,并开始实现大规模的消费者采纳。

换句话说,我们将在2025年看到AI Agent的“ChatGPT时刻”,也就是你会看到一个产品开始引起共鸣,即使对技术人员来说,它可能看起来并不那么惊艳,或者相较于之前的技术发展,这似乎没有那么大的飞跃。

很多这种变化将源于两个主要方面。首先,毫无疑问,模型的不断改进和可靠性提升会推动这一进程;第二,Agent的用户界面和体验会发生真正的演变。

现在,AI技术和科技行业仍然陷于一种类似聊天的范式中,你和这些模型进行对话。这种范式限制了Agent技术真正发挥作用的潜力。

在我看来,Agent真正开始工作意味着,作为用户或消费者,开始把一些真正的工作流程外包给Agent,而这些工作本来是他们自己必须做的。因此,我们将开始完全信任Agent来处理端到端的工作流。

可能是涉及旅行、日程安排,甚至可能是制作演示文稿或管理工作流,但我们会真正将一些有意义的工作交给Agent来完成。到那个时候,Agent将开始发挥真正的作用。

我不确定这是否会由某个大实验室发起,还是由一个新的初创公司推出,因为很多创新都来自实验和自然的创新生态系统。

但我们看到的是,当前的模型及其能力确实足够强大,可以带来非常令人印象深刻的体验。现在有很多讨论是否我们已经撞墙了,或者其他类似的事情,但这些模型真的非常强大,我们应该看到一些大的变化。

Alex Kantrowitz:好的?那就请跟我聊聊这种体验可能是什么样子的。它不一定非得是用例。但既然你已经设想过到2025年AI Agent可能会开始帮助我们,那你认为普通人可能会有哪些可行的体验?

Alexandr Wang:首先,让我们了解一下什么是理想的AI Agent。

理想的AI Agent是它能够在你所有的核心信息流和背景中进行自然观察和跟踪。比如说,它会在你所有的Slack对话中,所有的电子邮件中,甚至是你使用的Jira和所有工具中读取信息,了解你工作中发生的一切。然后它会帮助你整理这些信息,并采取相应的行动。

举个例子,一个非常有用且可行的Agent可以开始参与处理你大量的电子邮件,并根据需要向你请求更多背景或信息,以便做出回应。它能自然地为你总结许多邮件内容。这样一来,发邮件的体验就从“我得逐一回复每封邮件”转变为“嘿,这是所有工作流的概览,你希望如何在这些工作流的基础上进行高层次的参与?”

Alex Kantrowitz:但这是一个商业用例。我很好奇你是否认为普通人也会使用AI Agent,还是说这离我们还很远,可能在2025年都不会实现?

Alexandr Wang:每个人都会工作,对吧?所以……

Alex Kantrowitz:给我一个工作之外的例子吧?

Alexandr Wang:嗯,我觉得更个人化的例子也很有可能。在个人生活中,大家也在处理和应对各种优先事项。比如说,我在计划和朋友一起去旅行,同时需要为家人准备礼物,弄清楚他们圣诞节想要什么。还有一些个人项目,也还在那儿等待着处理。

所以,在这种情况下,AI Agent能够帮助你在处理这些项目时更高效地协调它们,并帮助你在这些项目之间进行自然的调度和安排。我们很快就会看到这样的场景。我不确定它会是怎样的完美体验,但项目管理的体验是至关重要的。

产品的体验不需要完美,但应该足够好,这就是99%的挑战所在,正因如此,尽管模型已经能相当好地完成很多事情,但我们仍未见到这些应用的普及。

Alex Kantrowitz:我的2025年预测是,人们会让AI Agent帮他们使用约会应用程序。有些人会被发现,有些则不会,我们会看到一些故事,讲述某些人把它设置为自动模式,结果排出了比他们想象中还多的约会。

Alexandr Wang:是的,希望如此。

Alex Kantrowitz:也许这已经发生了。

Alexandr Wang:希望能有好的约会。我不知道,你在看什么?你了解什么?我知道你之前在播客上采访了本尼,你认为从AI Agent人的角度来看,哪些事情似乎有意义?

Alex Kantrowitz:Marc Benioff,Salesforce的CEO,在他上节目时非常有说服力地谈到,我们会在工作中使用AI Agent。这里指的主要是工作或企业的应用场景,因为工作中有大量数据,而且我们在工作中做的很多任务都非常繁琐且令人厌烦。

比如准备报告、制作仪表板、参加不必要的会议、从这些会议中提取要点并发送给老板,向老板汇报在Salesforce中的每次对话的进展情况,以及我们期望的销售管道。所有这些都可以通过AI来完成,AI可以有效地处理这些任务。

我觉得医疗应用场景也非常有趣。我刚刚与GE医疗集团交流,了解到他们现在为医生提供癌症患者的病史摘要,这些病史通常长达几千页,医生根本没有时间阅读完整的历史记录。而现在,生成型AI正在对这些病史进行总结,帮助寻找可用的治疗方案,并在患者错过检查时提醒医生。

这是Benioff提到的医疗案例中的一个很好的例子,AI实际上可以在医疗建议和治疗上起到积极的作用,从而扩大医疗资源的覆盖面,这种方式在你去看医生后是无法获得的。而现在,是否能够创建一个Agent,持续跟踪患者的健康计划并确保后续的治疗措施能够到位呢?

我有点好奇,因为我们现在的互联网设计基本上是为了防止机器人。如果我们有了能够代表我们工作的Agent,比如在旅游网站、约会网站、社交媒体平台上,我非常好奇它们是否会遇到这些防止机器人干扰的保护机制。

比如它们会代表我们做一些文字标注吗?它们会接收短信并填入验证码,帮助我们登录不同的系统吗?毕竟,整个互联网都是为了抵抗这些自动化程序而构建的。所以我很想知道你的看法。你认为,像预订旅行、关注健康、为我们在互联网上处理事务这样的个人Agent的愿景,考虑到现有的保护机制,它是否真的能实现?

建设支持AI Agent的互联网

Alexandr Wang:我们可能需要从根本上重新设计互联网的工作方式,以支持这些AI Agent。

未来可能会有两种网络:一种是人类使用的网络,我们在这个网络上自己处理事务;另一种是AI Agent使用的网络,这个网络在人类的视线之外运作,帮助Agent更高效、便捷地代表我们进行操作。这将在未来成为现实。

我的看法是,AI Agent最初会出现在一些看起来像是玩具的领域,就像任何新技术一样。可能一开始,我们会从语言学习Agent或烹饪Agent开始,或者是一些看起来非常无害的应用。但我们很快就会意识到它可以真正依赖,之后就会在更多方面依赖它。

这正是ChatGPT最初的情况:它看起来像一个玩具,但后来人们开始用它做作业,编写代码,现在人们已经用它做各种各样的事情。这就是发展趋势。

Alex Kantrowitz:在我们讨论Agent之前,我想问你一个问题。你认为让我的AI Agent去打字、通话、发邮件,代表我们联系一大堆人,像是客户服务人员,或者我在申请学校时,他们帮我了解是否符合条件并提交相关材料,这合适吗?

我的意思是,这些流程可能被设计得非常繁琐,目的是为了筛选那些不愿意付出努力的人,从而通过申请的门槛。所以某种程度上,这也等于是与公司和机构设置的屏障对抗。但另一方面,它也可能浪费很多人的时间。

我预计某些学校或机构会有“禁止使用Agent”的政策,要求联系必须是人类而非Agent,你怎么看?

Alexandr Wang:我在Reddit上看到过一个帖子,关于如何判断一篇论文是否是AI生成的。一位招生官分享了他们的筛选方法,包括了20个左右的标准,用来检查论文是否由AI生成。

看到这个,我有点心碎,因为这意味着如果学生使用AI生成论文,他们不仅要完成论文本身,还得花更多时间去证明这篇论文是不是AI生成的,处理这些杂音。所以我觉得你说的完全正确。

未来可能会有两种处理方式:就像有“人类的互联网”和“Agent的互联网”,也会有“人类的流程”和“Agent的流程”。那些需要高意图、非常昂贵或以某种方式特别的事情,将只限于由人类来处理。而更多的事务性工作可以交给Agent来大规模处理。

Alex Kantrowitz:是的,我有点期待这种未来,但另一方面,我确实也在想,越是谈论AI能为我们做些什么,我就越感觉我们在朝着《机器人总动员》中的未来进发,大家都变得很胖,喝着大大的饮料,坐着自动吸尘器到处走。

Alexandr Wang:是的。轻松和便捷绝对是技术带给我们的发展方向。显然,在某个时刻应该会有一些限制,但如果这些限制存在,我们还无法确定它们的具体位置。

Alex Kantrowitz:这种消除摩擦的思路在某些方面让世界变得更加美好。但另一方面,它改变了人们的大脑化学反应。我们开始不再期望经历困难的事情,一旦遇到挑战,我们就会失去理智。

这就是为什么你会看到YouTube和X上有很多机场视频的原因,因为我们已经消除了大量的摩擦,而公司也在客户体验上进行激烈竞争,直到现在,一旦出现问题,我们就显得非常脆弱,认为自己理应得到更好的体验。事实上,适当的摩擦反而能让人变得更加坚韧。

Alexandr Wang:完全是这样的。

数据:模型训练的重要瓶颈

Alex Kantrowitz:Alex,我想问你关于最近我们所见的一些有趣转变的问题,到目前为止,我们一直在讨论AI模型,重点是它们训练所需的GPU或芯片数量。过去,训练一个模型可能只需要16个芯片。顺便说一下,这些芯片可不便宜,每个大约2万到4万美元。后来,数量增至1000个,现在,接近年底时,我们开始听到一些疯狂的数字,比如10万、20万。

我刚刚在拉斯维加斯参加了亚马逊的Re:Invent大会,AWS的CEO Matt Garman告诉我,他们将在数十万个GPU或等价物上训练下一个Anthropic模型。然后我就觉得,这真是太多了。

就在他说完这话时,埃隆·马斯克出来说,我们将在孟菲斯的一个数据中心用100万个GPU训练下一个X AI模型。所以我觉得我们真的已经到了一个临界点,可能就是芯片能做的极限了。

你认为我们将会将焦点从单纯的计算能力转移到其他方面,比如哪些因素会造就最强大的模型?

Alexandr Wang:是的,过去几年,我们的讨论基本围绕GPU和计算能力展开。到2025年,我们将不再仅仅专注于谁能制造更新、更强大的芯片,或者谁能拥有更多芯片的大型数据中心,而是将同时关注谁能创造出更新、更好的数据。

我们将看到,焦点将从单纯的计算能力转移到计算能力和数据的结合,并且这两者会被视为几乎等同重要。数据本质上是智能的原材料。所以,围绕数据的讨论将会非常有趣。

过去几个月一直在讨论的一个重要话题就是,我们是否真的到达了瓶颈?我们是否已经遇到“数据墙”?总体的进展是否会因此停滞?有趣的是,这一切源于一种“无论如何都要扩展计算能力”的思路。

如果我们只是不断增加GPU的数量,建立更大的GPU数据中心,而没有创造更多的数据来训练这些模型,那么我们将会面临问题,碰到瓶颈,无法继续达到我们预期的进展水平。

我们在与许多前沿实验室的合作中看到的一个重要趋势是,他们确实在扩展GPU集群,增加芯片数量。这个方向依然非常激进,但与此同时,另一个平行的讨论是如何扩展数据。这个问题有两个方面。一个是显而易见的扩展数据量,另一个则是扩展数据的复杂性。

因此,他们意识到需要更多的前沿数据,转向更复杂的推理能力,使用真实的数据来支持我们刚才谈到的Agent模型,以及支持高级多模态数据。例如,今天我们看到OpenAI发布了Sora。因此,对于视频数据,以及视频、文本、音频、图像等更复杂的组合需求,将会非常大,这对于明年来说将是一个非常有趣的方向。

最近这些模型的一个重要经验教训是,仅仅扩展GPU并不能保证获得相同的进展水平。你需要有一个策略,通过这个策略同时扩展三个支柱。

你需要一个扩展计算能力的策略,一个扩展数据的策略,还有一个不断改进模型的策略,只有这三者协调发展,才能继续推动AI进步,突破现有的边界和障碍。

但我很好奇你的看法。你和这些CEO谈过,他们都在谈论什么?

Alex Kantrowitz:这正是他们讨论的内容。几周前,我们请到了Coherent的Aidan Gomez,他提到,训练模型的路径发生了变化。在早期,你几乎可以从街头随便找个人,让他们说任何话,然后这些内容就会成为模型的新信息。

后来你开始需要引入研究生,让他们谈论自己的专业领域,因为那个通用知识库已经逐渐建立起来。接着,你又引入了博士生,然后他开始问,接下来该怎么办?因为我们已经拥有了所有这些通用知识,现在也有了训练这些模型所需的专业知识。

顺便说一句,令人惊讶的是,他们在处理一些复杂性问题时的进步真是不可思议。所以问题是,接下来该走向哪里?这正是你们现在在努力的方向,我很想知道你们在这方面的过程是怎样的,你们是如何生成更多数据来训练这些模型的。

Alexandr Wang:是的,正如我们刚才提到的,我们关注的很多问题是如何引入来自各个领域的专业知识,涵盖医学、法律、数学、物理、计算机科学等领域,甚至是更为先进的系统知识,或者成为一名优秀的会计师,或者任何你能想象的领域。

每个领域中存在的所有深奥的、具体的、深入的知识,都可以被提炼成大规模的数据集,用来帮助训练这些模型,使它们在各个领域不断进步。我们所做的很多努力都集中在“混合数据”上。

过去一年特别明显的一点是,合成数据并没有像大家预期的那样有效。纯粹的合成数据——仅仅使用由模型生成的数据来训练未来的模型——有时会给模型带来实际问题。因此,我们一直在推动一种新的思路,那就是混合数据。

也就是说,使用合成数据的同时,结合人类专家的参与,以确保生成的数据既准确又高质量,不会给模型带来问题,同时又能高效地大规模生成。

Alex Kantrowitz:那些博士生会坐下来,写下他们所知道的或口述出来,然后你把这些信息输入到模型中。

Alexandr Wang:完全正确,很多时候这个过程甚至更有针对性。你会运行模型,直到你发现模型一遍又一遍地出错,这时你就知道,模型的知识或规模达到了限制。然后你请博士生进来,帮助把模型引导到正确的轨道上。

Alex Kantrowitz:那么,这个极限在哪里呢?如果我们让所有专业领域输入他们的知识,是否最终能使人工智能“完美”呢?如果它只是知道每个学科的所有知识?还是它必须达到一个新的基准,才能真正证明它具备了下一级的智能?比如它是否需要开始进行自主发现?你认为这个基准应该是什么?

Alexandr Wang:显然还有很多提升空间。现在,我们测试的是,它是否能够一次性正确地完成每一项任务。最初的目标是可靠性,确保这些模型能够从五次做对一次,提升到99.99%的正确率。

达到这一点需要大量的开发工作,才能提高系统的可靠性。然后针对你的问题,关键是如何让模型能够一次又一次地采取更复杂的行动。现在所有的模型在这方面的表现都不够理想。尤其是在需要进行多次推理、或需要将多个步骤串联起来时,它们往往会出错。

因此,提高可靠性的下一个层次,就是让模型能够处理越来越多的多轮推理,进行更加复杂的任务。

我们的最后一块是,它将能够开始做出自己的假设,自己运行这些测试,并最终做出自己的发现或实现,或者进行自己的研究。

即使那样,它有时仍然会卡住,仍然需要人类博士来帮助它,就像你知道的那样,现在的博士生仍然需要一位顾问来给予正确的推动。

因此,我不认为人类和AI之间的共生关系会消失,我们在帮助模型方面将永远非常重要,走在正确的轨道上,并确保他们始终不断改进。但我们将看到模型在他们能够自主的程度以及他们能够在自己身上操作的程度方面有所提升。

Alex Kantrowitz:在多个州的情况下,正确地采取一系列不同的步骤,上周我从穆迪那里听到了一些有趣的事情,我想跟你说,他们说基本上已经创建了35个个人Agent。

所以,假设他们想要评估他们的投资组合中的某些东西,比如评估一家公司的投资组合。他们将有一个Agent查看财务数据、一个Agent会查看天气风险、一个Agent查看他们所在的位置、另一位Agent将着眼于行业......他们有35个不同的变量或其他变量,然后他们让所有变量返回,并将结果传递给这个编译器Agent。它会对所有数据进行评估,然后通过投票Agent运行结果,投票Agent会问: 好的,这可靠吗?

我离开了那个对这个想法印象深刻的地方,但也有点像我的记者大脑消失了,就像我不知道这是否真实。

所以我很好奇你的想法。这是可能的解决方案吗?在进入这些多学科过程的方法方面,这有多可行?

Alexandr Wang:这在我的工作中非常重要。这是一种非常有条理的方式,试图让系统进行多任务学习推理。因为理想情况下,你想要模型做的就是像人类一样,能够在过程中浏览并找出它需要知道的部分,并能够自己动态地这样做,而不必进行排序。预先确定它并预设整个方案,以便模型需要通过。

Alex Kantrowitz:所以你的意思是,这可能是一个模型完全可以独立完成的事情?这很酷。

Alexandr Wang:在未来,就像我们将要做的那样,模型将改进以便能够到达那里,真实是在多步骤和多步骤推理的角度上,有很多阻滞剂,因为这是人类从大量的试验、错误和实验中学到的事情。就像我们会尝试做一个复杂的任务,然后我们会意识到我们会发现,哦,我们实际上错过了。

假设你第一次尝试烤一个蛋糕,这是一个相当复杂的努力,然后你意识到你错过了ABC,然后下一次,你会说,我肯定会记住的。

Alex Kantrowitz:只是一锅从烤箱里出来的面粉,错了?

Alexandr Wang:是的,确切地说,我们通过尝试和错误学到了很多东西。而目前的模型是模型处于做同样的事情的早期过程中,经历并能够进行这些动态过程,在那里他们通过试错来学习,并且能够不断地从错误中学习。那就是我们需要到达的地方。

Alex Kantrowitz:好的,太好了,我们只剩下几分钟了,所以有几个快问快答的题目。首先,我们谈了很多关于数据将如何变得非常重要的问题,但我无法忘记埃利将要尝试建造这个百万GPU超级集群的事实。你对它所吐出的东西有什么预测?

Alexandr Wang:我真诚地认为,现在以及我们在AI开发中的位置,我们更多地受到数据的瓶颈,而不是算力的瓶颈。

Alex Kantrowitz:所以我们只是用类似的东西进行渐进式改进。

Alexandr Wang:是的,真正的步伐变化来自于数据。

Alex Kantrowitz:好的,快速跟进一下,如果最终像我刚刚看到的那样,今天谷歌发布了一个关于量子计算突破的消息,如果我们有工作的量子计算机可以更快地处理数据。你认为这对AI有什么影响?

Alexandr Wang:我今年早些时候有机会参观了谷歌的量子设施。非常令人印象深刻。量子计算有点像AI在2018年的样子,它基于一些缩放定律,你肯定可以在五到十年内眯起眼来,这将是一项非常非常有影响力的技术。

最终,它将实现的是它将加快AI的能力。做科学发现。所以无论是,你知道的,让人们兴奋的用例很多是生物学、化学或核聚变,或者很多这些非常混乱和难以理解的自然科学。这就是量子计算有能力实现巨大变革的地方。

从根本上讲,AI将能够将其用作工具,使其能够在这些领域进行令人难以置信的研究。

Alex Kantrowitz:这太疯狂了。最后一个问题,我们正处于这场竞赛中,似乎每个星期基础模型公司都会推出一项新的发展,无论是OpenAI、Anthropic还是xai Google。亚马逊上周刚刚发布了一套新模型。那么你认为在2025年底谁会领先?

Alexandr Wang:这很难说,我们今天在模型中看到的一件事是,因为今天使用的所有基准都是所谓的饱和基准。也就是说,换句话说,所有模型在基准测试中都表现得非常好。实际上很难辨别哪个模型完全在上面,哪个模型不完全在上面。

有很多争论,例如在互联网上,至少在Twitter上,我可以看到Claude更好还是o1更好。他们两个之间有很多比较。因此,我们在2025年需要的一件事情是更加困难的基准和更加困难的评估,这些将能够帮助我们解决问题,把小麦与谷壳分开一点。

我不知道谁会成为领头人,但我们需要更好的测量方法,才能真正区分实验室现在推出的所有这些令人难以置信的模型。

Alex Kantrowitz:好的,Alex,很高兴见到你。谢谢你来参加这个节目。这些预测非常有趣,肯定拓展了我的思维和我没有想到的领域。

Alexandr Wang:是的,这很有趣。谢谢你让我参加。

原视频:AI Predictions for 2025: Geopolitics, Agents, and Data Scaling — With Alexandr Wang

https://youtu.be/shMX2N89MdQ?si=vX_I_brCNTH3SOZY

编译:Theo Lyu