开源大模型能力的提升,正在加速AI平权时代的到来。
从乡村老人用方言与AI唠家常,到大学生用大模型辅助撰写论文;从网红靠智能体批量撰写文案,到企业用AI赋能传统客服,AI的使用门槛正在以肉眼可见的速度被拆除。
看似人人皆可触达的“技术平权”背后,一些新的挑战正在出现:当AI能写出逻辑缜密的论文,教育的意义是否会被解构?当算法能批量炮制“爆款”,创意的价值是否会贬值?当AI工具足够强大时,人类的核心竞争力究竟该锚定何处?
特别是对于广大文科生而言,当AI的写作、绘画、谱曲能力日渐娴熟,甚至能模仿哲学家撰写“深度思考”时,专业学习的价值是否在缩水?在全球文科都陷入收缩潮的背景下,AI技术的普及,是否真的会对文科造成一边倒的“技术碾压”。
在我们组织的“AI平权时代,如何影响学习和工作”的讨论中,特别邀请到了两位从事技术哲学和经济学研究的专家,一起探讨在AI平权的未来趋势中,如何在拥抱技术的同时,实现对工具的掌控,而不是沦为工具的附庸。
对谈对象
主持人
主持人:
如何去看AI平权的趋势,如果参照互联网的发展,人人可用,人人可以分享,已经实现了使用的平权,创作的平权。大模型的发展,离实现AI平权还有多远,实现AI平权对社会发展带来一个什么样的影响?
刘永谋:
AI平权是很多人工智能研究者,包括技自然科学、社会科学的研究者,一种先天的理想情结。当我们说平权的时候,我们没有说AI不平等,这两个话题其实是联系在一起的,它是一个理想的想法,是很多研究者的一个乐观的预期。
实际上AI平权有两个方面组成。第一是接入AI的权利平等,人们可能由于各种原因,包括自身素质、素养或者是经济的原因没有办法去使用AI 这样的新技术。另一方面是能否从 AI的使用中获利。
AI的发展会对权力的平等和公正,产生什么样的影响呢?它并不是一个纯粹的技术问题,其实是技术和制度相结合的结果。像很著名的富裕社会问题,科学技术的发展是不是会让整个社会越来越平等?
加尔布雷斯曾经提出观点说,科学技术发展到一定程度,可以让所有人过上平等富足的生活的。因为我们可以从物理学上算出来,维持每个人的生活,需要多少的能量,消耗多少衣服,那就可以算出一个社会要过上这样富裕的生活,需要多少的物质、能源。
根据他的判断说,其实在上世纪六七十年代的生产力条件下,就已经可以实现了,但实际上,我们还是有穷人、有富人,贫富之间的差距还是挺大的。这其实揭示了一个重要观点:科学技术的发展,包括人工智能,并不会必然带来权力的平等,也不会必然导致权力的不平等,只有与具体的制度相结合,才能实现预期的效果。
举个例子,互联网的发展中,关于权力问题有一个典型的议题,那就是所谓的“电子原型监狱”。许多人认为,权力者都可以利用互联网监控和控制每一个人,从而迅速增强他们的权力,同时剥夺个人自由。
然而,最新的研究表明,这样的“电子原型监狱”是可以反转的。有学者提出,普通人同样可以利用这种监控技术,去监督权力者,甚至揭露腐败行为。例如,像马斯克带领的几个工程师团队,就把美国的一些部门查了个遍。所以,当权力不集中于少数人时,普通人也可以通过数字技术实现平等。
我举的这两个例子,一个是关于富裕社会问题的,另一个是关于“电子原型监狱”的讨论,都回应了我刚才提到的观点:技术本身并不必然带来平权或不平等,它的影响要与制度结合,关键在于如何使用技术。
就像DeepSeek,随着它的成本降低,使用变得更加普及,越来越多人能使用它,这将带来机会平等。但与此同时,当这种技术普及时,可能会出现“马太效应”,即资源最终会集中在少数头部人物手中。比如当前的网红现象,尽管看似人人都可以参与,实际上最终的受益者可能仍然是少数人。
陈永伟:
从经济普惠的角度来看,我认为这波开源模型最重要的意义之一,是将人工智能从少数巨头的竞争领域,扩展为全民参与的创新平台。它带来的影响可以分为两个方面。
首先是开源模型显著降低了技术的成本,使得更多的C端和B端客户可以直接参与其中。 以GPT为例,虽然它的功能强大,但此前高昂的费用让很多人无法使用,而如今通过DeepSeek等工具,虽然性能上可能有些差距,但普通人同样能够享受到类似的技术。
第二个层面是,开源模型降低了创新的门槛。 很多原本需要大量投入的研发工作,借助开源模型,创新者可以本地部署技术并加以调教,从而实现自己的创新成果。因此,不仅是用户获得了平等使用权,创新者也能平等参与到技术研发中,从而带来创新上的平等。
主持人:
两位老师刚才都提到了一点,就是AI平权的影响,和相应的制度安排密切相关。同时工具的效应,本身也是个体能力乘数效应的一种体现。比如同样的技术,不同的人使用时,效果可能是不同的。
我们过去讨论过“数字鸿沟”,现在是否会有“AI鸿沟”?未来,AI是否能够缩小这些鸿沟,还是说它反而会加剧这种差距?
刘永谋:
我分享一个自己的亲身经历。最近我接触一些科技、经济类主播。他们很主动地学习AI技术,当他们忙不过来的时候,可以通过AI来处理很多问题,实际上就是通过AI放大了自己的工作效能。这种乘数效应非常明显。如果你本身的粉丝量比较大,通过AI的帮助,工作效率能够大幅提升。我的个人感受是,这种现象确实符合“马太效应”,强者愈强,弱者愈弱。这是我目前的初步观察。
陈永伟:
现在的AI平权,更多是在起点上获得平等的机会。也就是说几乎每个人,都能接触到这些技术,特别是像DeepSeek这样的开源工具。但在实际的结果上,我认为可能会导致“强者愈强,弱者愈弱”的现象。包括在春节期间,很多人都用过DeepSeek,但我们想一下:很多人都用它做了什么?
很多网友可能用它来写春联或搞笑段子,这样做其实没有对生产力产生多大提升。相反,如果你是一个科研工作者,尤其是那些原本理论知识很强,但编程能力较弱的人,AI的帮助就能显著提高他们的工作效率。比如深度学习之父辛顿就曾提到,他的编程技术并不出色,但使用AI后,他能够借助AI来完成编程工作。
所以你看,同样的技术,在不同人的使用中,效果差异是巨大的。就像数学中,两个不同的数,乘上同样的倍数后,它们的差距可能不仅没有缩小,反而会被进一步放大。
主持人:
乘数效应本身在于你自身的能力大小,能力越大反而放大效应越强。我们回到一个具体场景来看这个问题,比如说在学习场景,使用AI工具之后,是不是会进一步拉大不同学生之间的成绩差距?另外在教育场景下,AI技术的引入,假如说是老师借助AI备课,学生借助AI完成作业,老师再借助AI评判作业,会对传统的师生学习模式产生什么影响?
刘永谋:
这个问题,其实我在工作环境中,还认真的去思考过。刚才提到的这个场景,涉及到两个方面的问题。我个人思考比较多的是教育本身的价值,就是教育要教给学生什么,以及如何帮助学生适应社会,培养他们的社会适应能力。
首先来说大模型的出现,对教育的影响是巨大的。我们现在都在探索如何将AI技术应用到教育中。现阶段我们还没有一个明确的、战略性顶层设计,大家只是各自表达不同的看法,处于探索阶段。但有一个明确的方向是,国家、学校和老师,都希望学生,能够适应未来AI辅助下的工作环境,包括社会的各个领域,都将和AI紧密相关。如果我们不让学生使用这些工具来适应未来,那他们在进入社会后就会处于劣势。
但这也带来一些问题,比如学生用AI做作业、写论文,这是否会影响到他们能力的培养?其实加大对AI的应用,虽然是增强了他们使用AI的能力,但却没有强化传统的听、说、读、写等基础能力。AI帮助学生完成任务,是否会影响他们的基本技能训练?这是一个值得深思的问题。
如果既让学生学习使用AI,又能确保他们不放弃基础能力的培养。目前关于这个问题,有很多不同的看法和意见,但总体来说没有特别明确的解决方案。这是需要我们更加深入思考的问题。假如我们培养的学生进入社会,他们写的东西还不如DeepSeek,那他们的竞争力何在?所以我现在经常跟同学们说,之前老师上课你们经常低头看手机,不交流、不互动、也不参与讨论,那以后你走向社会怎么跟AI竞争呢?
你跟AI竞争只有两个问题,第一个是AI能做的,你能不能做的更好。比如写文章,如果你写那个文章跟DeepSeek一个水平,那你真的就完蛋了,肯定找不到工作。另外一个就是DeepSeek做不了的部分,为什么说要让大家多锻炼交流能力呢?因为DeepSeek它毕竟不是人,最终有些与情感与社交相关的工作,还是要由人来完成,所以你这方面的能力要提高。
目前这方面的挑战还是非常大的,一方面,AI的“猫鼠游戏”让教育变得更加复杂;另一方面我们还需要思考教育的核心价值,如何确保学生在未来社会中具备不可替代的能力。这是我们当前面临的一个非常严峻的问题。
主持人:
随着AI的工具属性越来越强,像经济学这种学科,哪些内容会被AI取代掉?或者说,当大模型普及后,重点大学和普通学校之间,学生们的差距是会扩大还是会缩小?
陈永伟:
我们不聊其他学校,说说我去年在人大苏州校区教过的一门课。在学期结束前,所有老师收到了一封通知,说很多学生团购了GPT账号,用它来写论文。学校提醒老师们,千万不要让学生用GPT写论文。
后来我和学生们聊,我并不反对他们使用AI,作为工具,AI的使用是挡不住的。但是我也告诉学生,使用工具是为了提高自己的能力,而不是依赖它成为自己的竞争力。不管是ChatGPT还是DeepSeek,它就像我们使用的计算器,你用计算器用的好,不会成为你真正的竞争优势。
没有谁的数学能力,是靠计算器来决定的,工具只是辅助的,而真正的竞争力来自你如何掌握和驾驭它,成为一个能独立思考、创造的人。这一点,在大模型的使用普及以后,也同样成立。当所有人都可以使用大模型的时候,它本质上和计算器就没有区别。
说到经济学的问题,坦率地说,经济学家永远不会失业。尽管AI确实能够很快构建出经济学模型,包括使用数据或Python程序来生成模型,但经济学家的核心价值并不在这些技术层面的工作。虽然AI可以完成这些基础工作,但经济学家背后真正的价值在于思想的深度和对复杂问题的思考。去年我就开始转向思想史的研究了,因为在经济学等学科中,思想和理论的深度可能会比纯技术更为重要,后者的价值可能会大幅度降低。
主持人:
刚才提到的计算器的例子非常形象。就是使用计算器的能力,不会成为核心竞争力。那随着大模型推理能力的提升,是否会让一个没有学过哲学的人,具备和专业人士一样的逻辑思考能力?
刘永谋:
刚才提到用计算器计算和自己心算的差别,核心就在于学习能力。你不应该只是学习如何使用计算器,而是要学会数学的原理与方法,学习能力是关键。未来社会,我们很可能面临这样的情况,就是你不可能在一个领域连续工作很多年,你可能随时需要借助AI的辅助,快速切入新领域,成为新的领域的胜任者。
这时候你的学习迁移能力就很重要,这意味着我们不仅要学习特定的知识,还要学会如何通过学习过程获得通用的学习能力。说到哲学,其实完全不需要担心。哲学自古以来就有一个说法,叫做“李尔王”理论。莎士比亚的戏剧《李尔王》中,李尔王将国土分给了三个女儿,最后自己无处可去。
哲学的特征就是不断地开拓新的领域,很多学科,如自然科学、经济学、心理学和社会学,都是从哲学中分出来的。哲学关注的从来不是已知问题,而是开辟新的领域。当某一领域探索得差不多时,其他学科就会接手,因此哲学的价值从来不会消失。而且不光是哲学,真正具有创造性的科学,他都不会有这样的担心。但在现在的问题是,我们绝大多数的工作其实并没有什么创造性,就像去年有本畅销书谈“狗屁工作”,就是说现实中充斥着大量没有创造性的事情。
陈永伟:
我补充一 下刘老师的观点。现如今的AI可以比作是《美诺篇》中的奴隶小孩。就是这个小孩本身并未学过几何学,但通过苏格拉底的引导,借助提问的方式,小孩逐渐发现了几何问题的答案。苏格拉底认为,这个小孩其实是有前世记忆的,所有的知识都储存在他那里。
现在的AI也是如此,它几乎掌握了人类的所有知识,但它并不懂得这些知识的真正含义,就像这个小孩并不知道毕达哥拉斯定理。他虽然知道答案,但并不理解其背后的原理。苏格拉底要做的,就是引导他回忆这些知识。这就是教育的意义,教育不仅仅是让我们掌握知识,更重要的是培养我们思考和回忆的能力。
我们现在的技术很大程度上提供了一个便捷的工具,但它并不能代替我们对知识的理解与创造。所以,现如今的教育不是要培养我们成为一个“奴隶的小孩”,而是要培养我们成为像苏格拉底那样,具有引导思考、深度理解的能力。这种能力比单纯掌握知识更加重要。
主持人:
刚才提到有计算器之后,大家为什么还要去学计算,目的并不是为了和计算器比速度,而是训练大脑在处理计算时的基本能力。如果对照到大模型时代来说,就是AI已经掌握了那么多的知识和技能,我们学习的目的是什么?
去年底有一个讨论比较多的话题是,AI的发展特别是大模型能力的提升,可能会让90%的文科面临淘汰的风险。两位老师怎么看这个问题?
刘永谋:
作为文科从业者,不管是学生还是老师,都感受到了真真切切的压力。当然,这个压力不仅仅是来自技术本身,实际上是全球范围内对文科教育的一种反思。现在的文科教育体系,尤其是在一些传统的学科设置和教学模式上,确实相对滞后于时代发展。全球范围内,包括中国、美国、日本等地的高校,都在面临类似的挑战。实际上,AI的冲击并不单单是文科领域,许多学科,包括编程、化学、法律等,都面临不同程度的挑战,它其实是一个全面的冲击。
那你说文科还有没有存在的必要,我个人是要为文科做一些辩解。文科教育仍然有它独特的价值,尤其是在情感教育和社会互动方面,AI难以完全替代人类的情感共鸣和社交能力。此外,技术的快速发展,使得许多人在精神和人生意义方面感到困惑,这不光是说文科生才会有这样的问题,理工科的学生也一样。你的人生意义是什么?你怎么去活着,怎么去追求更幸福的生活?你不能所有的意义只在于工作本身,你不是一个工作机器。
在这方面,文科是可以发挥很好的价值的。但文科的教育,未来很可能会经历一个范式转型,尤其是与AI结合的过程中,学科界限可能逐渐模糊,出现更多以问题为视角的跨学科整合,而不是传统的学科划分。
分享一个我最近看到的例子,就是去美国一些大学交流的时候,他们的哲学系本身在萎缩,大量的哲学教师岗位是由工学院、理学院提供的,就是学哲学的人跑到计算机学院去当老师,教这个批判性思维,教思维方法的东西,提供了不少的岗位。
主持人:
学科之间的界限可能在逐渐融合。从技术的视角来看,虽然AI的出现,让一些工作变得更加高效,但这并不代表该领域学科的价值被完全取代。比如说在电影制作中,尽管AI可以帮助完成更多的技术性工作、特效工作,但真正决定一部作品是否能够成功的,往往是文化和情感的因素,而这些正是文科所擅长的。
陈永伟:
现在的文科教育方式确实是有问题,但文科的内容、文科本身的话并不会消亡。你比如说春节档电影,有的电影特效做的很好,技术上面没有问题的,但为什么有的票房好,有的票房不好呢?你像饺子导演,虽然他不是文科出身,但他干的是文科的活。如果文科生创作不出这样的作品,那只能说明是文科教育出了问题。
技术发达了之后,其实文科的用处是更大。文科能够为技术产品赋予文化和情感的价值,使其更具吸引力。此外,在一个技术高度发展的社会中,如何进行资源分配,如何确保公平和正义,这些社会伦理问题也正是文科能够处理的重要领域。AI和技术可以增加生产力,但如何分配这些产出,如何评估技术的影响和伦理问题,这些都需要文科的深度介入。
因此,文科的角色并不仅仅是与AI配合,而是提供了一种批判性思维和深度分析的工具,帮助我们理解AI生成的内容和它对社会的影响。通过苏格拉底式的提问和辩证法,能够引导AI进行更有意义的对话,并从中提出更有价值的见解 。
主持人:
从工作的视角来看,在实现AI平权之后,大家有了相同的工具,会不会大家在学习和工作上的比拼,又回到了拼天赋的阶段?
刘永谋:
拼天赋这个说法,我觉得有一定的道理,但是我们要记住,天赋是每个人都有的。很多时候,两个人在智商上差十几、几十个数,并不意味着智商低的就完蛋了,因为智商本身就是一个备受争议的概念。
比如,我很擅长讲故事,但讲故事这种能力并不能用数字来衡量,它并不属于智商的范畴。我的意思是,每个人都有天赋,只是在不同的层面上表现出来。有的人可能擅长讲故事,有的可能体能好跑的快,或者有的是擅长数学。每个人都有各自的特长,关键是要发现并发展它。
另外,在这个时代,兴趣也非常重要。即便你有天赋,但如果你不喜欢某个领域,比如说你擅长数学,但你不喜欢数学,这时候即使你有天赋,学习的效果也可能不如预期。所以兴趣很重要,它能支撑你不断前进。就像《哪吒》的导演饺子一样,他原本学的是医学,但后来他接触到动画制作工具,发现自己更喜欢做这个。虽然他有很多年是依靠家庭支持,但他依然通过兴趣推动自己不断前进。兴趣与天赋相辅相成,驱动力也与个人性格密切相关。所以,我觉得天赋和兴趣都非常重要,但这并不意味着谁更聪明就一定更成功。
主持人:
天赋不仅仅指智商,它可能涵盖了非常广泛的内容,包括情商和与人交往的能力。包括的饺子的转行,这中间也离不开技术的赋能,他也是借助这个动画软件之后,开始试着去尝试,把一些隐形的天赋,变成了显性的作品。
陈永伟:
这里面不仅仅是赋能的问题,许多所谓的天赋其实是建立在技术的基础上的。可以说,技术让一些天赋从隐性转变为显性,甚至使一些天赋变为可能。比如说,没有短视频的时候,现在的那些网红,他所展现的那些技能,会被认为是天赋吗?你像喊麦,就是短视频起来之后,才变成了天赋,有些人甚至成为了千万级的网红。以前,如果没有短视频这个平台,可能这些人并不会被注意到。这些偶然的成功背后,其实也反映了技术对天赋的影响。
再比如说,像深度学习的奠基人Geoffrey Hinton曾经提到,他早期在数学上并不擅长,但正是因为他遇到了一些优秀的研究助手,才为他的后续研究打下了基础。过去,很多技术发展依赖于偶然的机遇和个人的天分,但现在AI的出现能够为更多人提供多维度的支持。AI可以帮助我们填补知识和能力的空白,同时放大我们的内在优势,这与传统技术有很大不同。
刘永谋:
技术正在重新定义天赋。 技术不仅扩展了我们某些天赋,也可能让一些原本是天赋的因素,变得没那么重要了。比如说长得漂亮,曾经可能是一种天赋,但现在我们可以通过美颜技术改变外貌。所以,天赋和技术之间的关系是非常复杂的,技术的进步让我们重新定义了什么是天赋,甚至让一些传统意义上的天赋变得不那么重要。
主持人:
陈老师经常写专栏,每周都会有深度的文章发布。您会觉得,现在AI在文字生成方面的能力这么强,会有一些没有您那么深厚学术基础的人借助AI,迅速达到你写专栏的水平?
陈永伟:
当然有,这也表明他们在其他维度上有潜力,可能被激发出来。毕竟,成功的关键往往不是天赋的单一维度,而是如何有效利用技术和工具。如果以前没有短视频的机会,一些人可能很难被发现,但技术为他们提供了展示的平台。类似地,在AI的帮助下,如果我不提升自己,那就只能归咎于自己没有努力。
主持人:
这就引发一个问题,就是说技术和天赋的关系,它是会激发人的创造力潜能,还是说会让人更依赖于技术。比如说,很多人可能会让大模型代替自己去思考,那他的创造力会不会反而会降低?
刘永谋:
这个问题很好,关于技术依赖性的问题,之前有未来学家提到过,当代科技的一个重要特点就是“技术依赖性”。甚至会有一些专门的设计,推动人们对某些技术的依赖。在这种依赖中,就会出现我们非常担心的“人的退化”问题。
退化不仅仅体现在智力上,包括情感方面也会受到影响。如果说你总是与AI进行交流,久而久之,你的情感也会趋向机器化。因为机器虽然能模拟很多场景,但它毕竟是程序化的,长期和机器互动,人的情感就可能变得不再那么真实和丰富。
包括智力上也存在依赖性问题。现在很多老师讲课离不开PPT,但早年很多老一辈的老师,可以一杯茶,一根烟,没有教案,照样能讲得津津有味。技术的普及改变和影响了我们的思维和行为。现在我们越来越像机器,比如说通过技术手段来监控健康数据、工作效率等,这实际上也是人类逐渐趋向机器化的体现。
所以,我更担心的不是机器人取代人类,而是人类越来越像机器,天赋逐渐被削弱。所以在教育中运用AI工具,提升学生利用AI工具能力的同时,一定要注意如何去激发他们的天赋、保持创造力,而不是产生抑制效应。
陈永伟:
所以孔子所说的“君子不器”,是有很深道理的。现在AI和其他工具的普及,使我们越来越依赖工具来帮助自己。但问题是,我们不应该过度依赖工具,而应该保持人类自身的本能。然而回到过去是不现实的,我们必须学会驾驭这些工具,让它们成为我们工作的辅助手段,而不是主导力量。
我一直把人和AI的关系,比作我们一起经营公司,你可以选择成为甩手掌柜,但你必须意识到,这样做可能会带来很大的风险。更好的是保持控股权,至少你能把握公司方向,即使失败也是自己决定的。所以,学习AI等技术的过程中,我们不仅要利用这些工具,还要保持对技术的掌控,避免变成它的奴隶。
例如,在AI生成文本时,我们不能只看表面,不能因为它的文采好就盲目相信。其实,AI的“文采”很多时候是幻觉,因为为了提高速度,它牺牲了精度,导致有些内容看起来非常不准确。所以,了解AI的原理,理解它的局限性,才能真正利用它的优势。
我一直将人与AI的关系比作合伙开公司。假设你是股东,决定持有多少股份,你当然可以选择完全掌控,也可以选择做甩手掌柜,而我只需要享有盈利权,但这种做法其实非常危险。如果AI把公司搞砸了,你可能一无所有。所以,我一直坚持要保持51%的控股权。虽然这样会很累,但我可以把控公司的方向。即使公司失败,至少是我自己做出的决定,而不是别人把它弄垮。
在学习AI的过程中,我也一直要求自己,必须理解它的原理和背后的技术。如果你不懂AI的原理,可能会觉得它很智能,但实际上,它只是做了表面上的联想。像最近的GPT事件也是类似的问题。如果AI没有正确对齐,它的行为就会非常危险。所以,在使用AI时,我们需要保持对它的控制,不能完全放手我们需要时刻把握主导权,而不是盲目依赖AI。
主持人:
从技术发展的角度来看,AI的普及速度和用户群体正在加速,会不断有新的应用出现,在这种技术快速发展的过程中,很容易让人产生焦虑,比如跟不上节奏怎么办?会不会被技术抛在了后面?
刘永谋:
我先说下对AI写作的看法,然后再谈那个技术焦虑。我不认为AI写的东西比人类写的更好。很多人觉得AI写的不错,其实反映了两个问题。一个是当前普通人的语言文字能力普遍下降。以前很多人能写对联,像90年代的歌词也都比现在写的好得多。像罗大佑写的《童年》、三毛的《追梦人》,写的都很好。现在的流行歌曲歌词,简直是惨不忍睹,很多都是迎合网络语言。
第二个问题是,也反映了我们语文教育的失败。就像现在我们教孩子写作文,常常有各种套路,这种套路化的写作,已经影响了我们的写作能力。当很多人觉得AI写得好时,实际上是语文教育出了问题。
关于焦虑的问题,我认为它与我们对AI的宣传有关。从关于AI的概念提出来,就不断在强调说它以后可能会有意识、会无所不能,甚至统治人类。这种过度宣传带来了很多焦虑。在学术界被称为“技术恐惧”。实际上,技术恐惧在历史上一直存在。比如我去西藏的时候,当时有些藏民就反对铁路从他们那里经过,他们认为火车会惊扰山神;或者火车经过时,会吓坏牛、马,甚至会导致它们不产奶。历史上对新技术出现时候的恐惧,其实一直存在。
只不过今天的AI恐惧,和过往技术恐惧不一样的地方是,就是来自对AI“拟人化”的想象。大家认为AI写得好、它“有意识”,这实际上是一种误解。AI并不是一个有意识的个体,它只是通过统计学和算法进行推算。我们总是习惯性地把AI拟人化,这就导致了对它的过度担忧和不必要的焦虑。
主持人:
这种“拟人化”确实容易让人对技术产生误解。大模型生成内容的过程,本质上是通过海量数据训练识别出语言规律,并基于上下文和概率预测下一个词汇,进而生成连贯内容。但如果把它当作像人一样的存在,就会产生一种技术崇拜。
陈永伟:
AI的崇拜很大程度上源于我们对它不了解。就像古代人不懂为什么打雷,所以他们把雷归结为天神在作祟。今天,AI的表现变得更加具象化,刚开始我也对AI感到很神秘,产生了焦虑。但我通过阅读AI的论文,了解它的原理,逐渐消除了这种焦虑。如果你能理解GPT的工作原理,了解Transformer的机制,了解神经网络的概念,你就不会再害怕它。
了 解它的优点和缺点,就能调整自己的策略。 例如,了解DeepSeek是一个多专家系统架构后,你会发现它并不是完美的,它的组合有时不太好,精度降低时会出现更多“幻觉”。
当你了解了AI的缺点后,你就能有针对性地调整策略。比如,AI在想象力方面做得很好,但你可以通过考据来弥补它的不足。例如,AI可能写得很有创意,但你可以在考据和历史背景方面做得更好,这就是你和AI的差异所在。
总之消除AI恐惧的第一步,是了解它的原理,知己知彼;第二步是调整你的策略,结合AI的优点和你自己的优势,充分发挥它们的互补性。
有些人担心自己苦练多年的技能被AI取代了,会心有不甘。但从经济学角度来看,这是一种“沉没成本”,你不必过于纠结于过去投入的精力,应该放下这些自豪感,去接受新的技术。就像你现在用AI一样,它可以让你在某些方面工作得更高效。如果你能学会如何与AI合作,放大你的能力,你会发现自己有更大的成长空间。
总结来说就是,不要害怕A,要了解它,掌握它,然后通过自己的优势和AI的优点结合,你就能在这场变革中保持竞争力。
主持人:
互联网的普及已经改变了我们的生活方式。我们变得越来越依赖在线工具,工作和生活都变得碎片化。未来,随着大模型的普及,我们的思考方式是否也会变得更加碎片化?如果我们把问题交给AI来处理,可能会导致思维的碎片化,不再像以前那样进行深入的思考。
刘永谋:
碎片化的趋势不仅仅体现在思维上,工作和生活的碎片化已经是一个明显的趋势。我们生活在一个信息化时代,短视频等内容形式让信息呈现碎片化。AI的普及只会加剧这一趋势。我认为这个趋势是不可避免的,但我们是否应当评判这种碎片化思维是好还是坏呢?这实际上涉及到人类思维方式的巨大变化。
比如说大家看电影的时候,只要能自己操作,都习惯于用快进的方式,甚至有些孩子能同时操作多个手机,这是信息时代的产物,我们思维方式在这个过程中,也必然会发生转变。
当然,我们也不能简单地认为碎片化的思维就是负面的,在某些场景下,它可能反而更有效。包括说现在的年轻人,喜欢与AI聊天、谈恋爱,有学生就认为说以后的社会可能就是这样。我们不应完全否定这种变化,它是这个时代的必然趋势。
对于AI决策的影响,我们可以参考过去的专家决策系统。AI无论多么先进,最终还是需要人来使用和管理。你包括像马斯克提出的智能治理,尝试用AI来管理政治事务,这还是要依赖于特朗普的支持,在很多领域,AI的普及无法完全取代人类决策者。
个人而言,我也在经历这个转变。作为哲学家,我习惯于深度思考,一旦开始深度思考的时候,就不能开车,很容易撞人。但现在我也在转变,我也开始适应这种碎片化的生活方式。技术确实在改变我们的生活,也在潜移默化地改变我们的思维方式。
主持人:
技术的发展确实在改变人的思维方式。特别是短视频,所带来的碎片化内容形式,正在重新塑造人们对信息的需求。就像我们现在已经无法忍受传统电影的节奏,总是希望以更快的倍速播放,因为短视频的内容,就是通过快节奏、密集的信息点,来不断吸引观众的注意力。但从另外一个角度也说明,我们之前的很多内容,结构化程度不足。AI 可能会继续推动这种思维模式的改变?
陈永伟:
从卡尼曼的理论角度看,人类的思维本身就有两个系统:快速系统和慢速系统,也就是《快思慢想》中提到的那种方式。只不过是说互联网技术发展起来之后,把我们那个快速反应的系统给磨练起来了。所以,对这个现象我们不应该过度的上纲上线。既然这是一种社会的趋势,我们需要适应它。
但与此同时,我们也应该注意锻炼慢思考的能力。比如现在大模型也都提供了多个版本,有擅长快速给结果的,也有擅长慢思考推理的,日常使用时可以选择更快的版本处理碎片化任务,但在静下心来时,可以选择更慢、更深入的模式进行思考。对我们个人来说也是一样,快思考和慢思考两套模式都要锻炼,像我现在每天都会要求自己,要看2-3个小时的书,这就是一种慢思考。既然大模型都可以有多种思维方式,我们自己为啥不打造几个基座模型呢?
主持人:
面对 AI 越来越普及的局面,我们如何适应?对此,有哪些好的建议?
陈永伟:
AI 时代带 来了起点上的公平,但也可能放大最终结果的不平等。这是我们这个时代面临的最大风险。当我们在享受 AI 带来的便利时,我们每个人都应意识到这一点,保持警觉。过去,我们谈论创造价值时,常说 99% 的汗水加上 1% 的灵感,但在当前的时代,1% 的灵感变得比以往任何时候都更加重要。因此,在这个 AI 时代,我们需要不断磨练我们的技能,特别是在学习和工作上,要重新审视我们的观念。在学习方面,我建议将学习分为四个层次:
学工具: AI 是一种非常强大的工具,但使用它的效果因人而异。我们需要学会如何有效利用它。比如,通过苏格拉底式的辩证法,去与 AI进行交流互动,既可以大大提升它的生产力,也能帮助我们优化学习过程。
学知识: 除了深度掌握某一领域的专业知识外,现在更重要的是广泛涉猎,了解各个领域的基本知识,并能有效拆解问题。当你面临一个陌生的问题时,知道如何用 AI 提出正确的问题至关重要。就像周星驰在《鹿鼎记》中所说的,“懂绝世武功的目录”,而不是只会某一项技能。掌握广泛的知识框架,能帮助你在遇到问题时高效找到解决方案。
学能力: 除了知识,能力也同样重要。举个例子,在管理学中,许多人曾经嘲笑它“无用”,但如今我们需要具备一些管理和组织能力,特别是在 AI 的帮助下如何管理团队、协调各方资源等。比如,掌握一定的算法能力,可以帮助你在现实世界中解决问题。
举个例子,算法能力也变得至关重要。 很多时候,AI和算法是为了解决具体问题而提出的最优解。 比如,在今年美国的大 选中,有人通过算法分析发现,特朗普的胜率比民调显示的要高得多。 这种算法的应用,正是 AI 在社会调研中的一种体现。 即使你不完全懂AI,但理解基本的算法思维,尤其是如何使用这些算法来解决现实问题,是非常重要的。
第四个层次是学做人,坚守人类的独特之处——情感、判断力和想象力。比如,大家为什么觉得 DeepSeek比其他的AI要好?很多人觉得它“有温度”,虽然从技术角度来看,AI 并不完美,甚至存在许多幻觉或不一致性,但它在与人的互动中展现出的情感和反应,是其他 AI 无法比拟的。这反映出,在交流和互动中,人类更加关注的是“人味”与共情,而这恰恰是 AI 所无法替代的。
因此,我们不能让技术抹去人类的本性。正如刚才刘老师所言,最可怕的不是 AI 变成人,而是人变成了AI。因此,我们要改造我们的学习方式,具备四个层次的能力。
至于就业方面,我们需要做好准备。从历史上来看,我们目前这种双规式工作模式 (规定时间、规定地点) ,其实也不过200多年时间。未来的工作模式,可能会回到一种更加碎片化的状态,就像马克思所说的“自由人的自由联合”。未来的工作模式可能会更加灵活,充满不确定性。关键在于,你是否能够在不同的任务之间切换,驾驭自己的工作节奏,并能够有效地利用 AI 进行组织管理。如果我们有这样的能力的话呢,那就可以任凭风浪起、稳坐钓鱼台。
主持人:
听完陈老师的分享后,我感觉他已经完全完成了AI化的转型,形成了自己系统的框架和思考。刚才陈老师提到的几点非常重要,特别是他讲到工具的意义、思维的方式以及如何拥抱AI的能力。当我们意识到这样的系统性变化发生时,如何适应它变得尤为关键。刘老师如何看AI平权带来的影响?
刘永谋:
面对这样一个AI时代的到来,首先我们应该消除对AI的恐惧,积极拥抱AI辅助性社会的到来。不论我们是否恐惧,这一潮流是不可阻挡的,我们必须积极拥抱它。
其次,在这种浪潮下,试图选择一个专业或行业来逃避AI的冲击是不现实的。因为AI将全面替代人类劳动,所有体力劳动和大多数脑力劳动,理论上都将被AI替代。替代的时间和方式取决于技术进步和社会制度的协同作用。因此,单靠“选择”来逃避这种冲击是行不通的,我们必须通过努力不断提高自己。
第三个是,在未来的学习和工作中,我们必须学会与AI形成互补。无论是学校教育还是自我教育,我们都需要有这样的意识——与AI共同面对工作和学习中的问题。
当然,除了这些工具层面的影响之外,我们还要考虑到专业教育和素质教育的关系。毕竟人类学习和工作的目的,是为了更好的生存和生活,而不是完全把自己作为一个工具。在这方面,我们要特别注重培养一些机器所没有的能力,比如说同理心、人际沟通能力、批判性思维,这些都是AI无法轻易替代的素质和能力。
总之,AI平权时代的到来,社会的变化将非常迅速,我们必须勇敢面对并主动适应这些变革。同时,也预示着深度学习型社会的到来,我们必须通过持续学习来保持与时俱进的竞争力。