2小时思想碰撞,10000字深度思考:人类会被AI淘汰吗?
17 小时前 / 阅读约25分钟
来源:36kr
科学技术的发展不会必然带来权利、权力的平等。

开源大模型能力的提升,正在加速AI平权时代的到来。

“大模型辅助撰写论文”、“智能体批量撰写文案”、“智能医生问诊开方”,AI的使用门槛正在以肉眼可见的速度被拆除。

北京某医院神经外科主任尝试用DeepSeek诊断脑瘤后表示,其回复相当明确和专业,水平至少相当于一个省级三甲医院专家;但也有医生认为,并非所有患者都能得到科学、全面的回答,提问的完整性、专业性,也在很大程度上决定了AI回复的准确性。

不过,看似人人皆可触达的“技术平权”背后,一些新的矛盾正在出现:当AI能写出逻辑缜密的论文,教育的意义是否会被解构?当算法能批量炮制“爆款”,创意的价值是否会贬值?当AI工具足够强大时,人类的核心竞争力究竟该锚定何处?

2月13日,腾讯科技、腾讯研究院发起的《AGI之路系列直播》第二期,邀请中国人民大学吴玉章讲席教授刘永谋、经济观察报专栏作家《比较》研究部主管陈永伟,全面解读以DeepSeek为代表的大模型,所推动的这场“平权运动”。

在刘永谋看来,技术并不会必然带来平权或不平等,他援引“电子圆形监狱”的经典论述强调,DeepSeek的低成本让更多人能够使用它,将带来机会平等;但技术的普及也会带来“马太效应”,导致资源最终集中在少数头部人手中。

刘永谋总结说,“技术的影响要与制度结合,关键在于如何使用技术。”

陈永伟则认为,当前讨论的AI平权主要指“起点上的平权”,即让所有人都拥有使用AI工具的机会,因此这波开源模型的浪潮无疑将人工智能“从少数巨头的竞争领域,扩展为全民参与的创新平台”。但他同样认同技术普及后的马太效应,即最终可能出现”强者愈强,弱者愈弱”的现象。

而在“90%的文科面临淘汰的风险”这个教育、学科问题上,刘永谋与陈永伟则达成了共识。

正如陈永伟所说,“技术进步后,文科的作用反而更加重要......在一个技术高度发展的社会中,如何进行资源分配,确保公平和正义,这些社会伦理问题也正是文科能够处理的重要领域。”

而在刘永谋看来,文科的教育未来很可能会经历范式转型,“与AI结合的过程中,学科之间的界限可能会逐渐模糊。”

当AI与各行各业深度融合的时候,效率将得到大幅跃升,人的天赋也在不断被拓展,但这也引发了另一重思考——当人类过度依赖技术的时候,会不会越来越像机器,最终,人的天赋又逐渐被削弱?

就像刘永谋教授的担忧一样,这场对谈促使我们思考一个问题:在这个算法解构一切的时代,究竟需要防止AI取代人类,还是避免人类在长期的技术依赖中“AI化”?

孔子说“君子不器”,这句两千多年前的箴言,时至今日依然有它的价值。

核心要点提示(省流版)

  • AI平权包括接入AI的权利平等和从AI的使用中获利的平等,目前的AI平权主要体现在起点上的平等机会。
  • 科学技术的发展不会必然带来权利、权力的平等。当技术普及时,可能会出现“马太效应”——资源最终集中在少数头部人物手中。
  • 不管是ChatGPT还是DeepSeek,它就像使用计算器,用得好不会成为一个人的竞争优势,真正的竞争力来自你如何掌握和驾驭它。
  • AI的冲击并不局限于文科领域,包括编程、化学、法律等很多学科也都面临不同程度的挑战,这是一个全面的冲击。
  • 技术正在重新定义天赋,它让一些天赋,从隐性转变为显性。当代科技的一个重要特点就是“技术依赖性”,过度依赖可能会出现“人的退化”问题。
  • 关于AI会有意识、无所不能甚至统治人类的说法就不断被强调,这种过度宣传带来了很多焦虑,在学术界被称为“技术恐惧”。

以下为直播分享实录精华(在不改变原意的情况下有删减、调整):

“AI平权”的理想国

Q:如果参照互联网的发展,人人可用、人人可以分享,那么现在大模型已经实现了使用和创作的平权。如果从人工智能的角度来看,大模型的发展,离实现AI平权还有多远,它对社会发展会带来什么样的影响呢?

刘永谋:AI平权是很多人工智能研究者,包括自然科学、社会科学的研究者,一种先天的理想情结。当我们说平权的时候,我们不是暗示AI本身是不平等的,而是在讨论一种理想状态,一种研究者的乐观预期。

AI平权由两个方面组成:第一是接入AI的权利平等,第二是从AI的使用中获利的平等。

加尔布雷斯在《富裕社会》中曾提出,科学技术发展到一定程度,能够让每个人都过上平等富足的生活。因为可以从物理学角度计算出维持每个人的基本生活所需的能量和物质。根据他的判断,上世纪六七十年代的生产力条件已经可以支持这种生活,但事实上贫富差距依然存在。

这揭示了一个重要观点:科学技术的发展,包括人工智能,并不会必然带来权利、权力的平等;只有与具体的制度相结合,才能实现预期的效果。

举个例子,互联网的发展中,关于权力问题有一个典型的议题,那就是所谓的“电子圆形监狱”。

1975年,福柯在《规训与惩罚:监狱的诞生》中提到了“全景圆形监狱”,这一概念最早来自哲学家边沁

许多人认为,拥有权力的主体可以利用互联网监控和控制每一个人,从而迅速增强他们的权利、剥夺个人自由。然而最新的研究表明,这样的“电子圆形监狱”也可以被反转——普通人同样可以利用技术来监督拥有权力的主体。例如,马斯克带领的几个工程师团队,就把美国的一些部门查了个遍。

所以,技术本身并不必然带来平权或不平等,它的影响要与制度结合,关键在于如何使用技术。就像DeepSeek,随着它的成本降低,使用变得更加普及,这将带来机会平等。

但是,当技术普及时,可能会出现“马太效应”——资源最终会集中在少数头部人物手中。

陈永伟:从经济普惠的角度来看,我认为这波开源模型最重要的意义之一,是将人工智能从少数巨头的竞争领域,扩展为全民参与的创新平台,它带来的影响可以分为两个方面:

一方面是开源模型显著降低了技术的成本,使得更多的C端和B端客户可以直接参与其中。

以ChatGPT为例,虽然它的功能强大,但此前高昂的费用让很多人无法使用,而如今通过DeepSeek等工具,虽然性能上可能有些差距,但普通人同样能够享受到类似的技术。

另一方面是,开源模型降低了创新的门槛。很多原本需要大量投入的研发工作,借助开源模型,创新者可以本地部署技术并加以调整,从而实现自己的创新成果。

因此,不仅是用户获得了平等使用权,创新者也能平等参与到技术研发中,从而带来创新上的平等。

数字鸿沟漫画,来源:网络

Q:过去,我们讨论过“数字鸿沟”,现在是否会有“AI鸿沟”,AI是否能够缩小这些鸿沟?

刘永谋:最近我接触一些科技、经济类的主播。他们很主动地学习AI技术,当工作忙不过来的时候,通过AI来处理很多问题,实际上就是通过AI放大了自己的工作效能,如果粉丝基础比较大,AI能够大幅提升工作效率,乘数效应非常明显。

我的个人感受是,这种现象确实符合“马太效应”,强者愈强,弱者愈弱。

陈永伟:目前的AI平权主要体现在起点上的平等机会——几乎每个人都能接触到这些技术,特别是像DeepSeek这样的开源工具。但在实际的结果上,我也认为可能会导致“强者愈强,弱者愈弱”的现象。

很多人都用过DeepSeek,网友可能用它来写春联或搞笑段子,这样使用其实没有对生产力产生多大提升。

相反,如果你是一个科研工作者,尤其是那些原本理论知识很强,但编程能力较弱的人,AI的帮助就能显著提高他们的工作效率。

因此,同样的技术,不同人在使用时,效果差异是巨大的。就像数学中,两个不同的数,乘上同样的倍数后,它们的差距可能不仅没有缩小,反而会被进一步放大。

计算与计算器,苏格拉底与“奴隶小孩”

Q:乘数效应本身依赖个体的能力,能力越大,放大效应就越强。从具体场景来看,比如说学习,使用AI工具之后,是否会进一步拉大不同学生之间的成绩差距?另外,在教育场景下,假设老师借助AI备课,学生借助AI完成作业,老师再借助AI评判作业,会对传统的师生学习模式产生什么影响?

刘永谋:这个问题我在工作环境中认真地去思考过,主要是教育本身的价值——要教给学生什么,以及如何帮助学生适应社会,培养他们的社会适应能力。

大模型的出现对教育影响巨大的,大家现在都在探索如何将AI技术应用到教育中,还没有一个明确的战略性顶层设计,但有一个明确的方向——主管部门、学校和老师都希望学生能够适应未来AI辅助下的工作环境。随着各个领域和AI紧密程度提升,如果不让学生使用这些工具,他们在进入社会后就会处于劣势。

这也带来一些问题,比如学生用AI做作业、写论文,这是否会影响到他们传统的听、说、读、写等基础能力的培养?

假如我们培养的学生进入社会,写作能力还不如DeepSeek,那他们的竞争力何在?所以我现在经常跟同学们说,过去上课你们低头看手机,不交流、不互动,也不参与讨论,以后走向社会怎么跟AI竞争?

Nature此前发文称允许使用大模型写论文,但不能列为作者

与跟AI竞争只有两方面:1)第一个是AI能做的,人能否做得更好。如果你写文章跟DeepSeek一个水平,那肯定就没有机会了。2)另外一个就是AI做不了的部分,人能不能做。AI毕竟不是人,涉及情感与社交的工作还是要由人来完成。

解决“与AI竞争”的问题,现在挑战还是很大——一方面,AI的“猫鼠游戏”让教育变得更加复杂;另一方面我们还需要思考教育的核心价值,如何确保学生在未来社会中具备不可替代的能力。

Q:具体到学科上,随着AI的工具属性越来越强,像经济学这种学科,哪些内容会被AI取代掉?当大模型普及后,重点大学和普通学校之间,学生们的差距是会扩大,还是会缩小?

陈永伟:我去年在人大苏州校区教过的一门课,我和学生们聊,我并不反对他们使用AI。作为工具,AI的使用是不可避免的,但使用工具是为了提高自己的能力,而不是依赖它成为自己的竞争力。

不管是ChatGPT还是DeepSeek,它就像使用计算器,计算器用得好不会成为一个人真正的竞争优势,因为没有谁的数学能力是靠计算器来决定的。

工具只是辅助,而真正的竞争力来自你如何掌握和驾驭它,成为一个能独立思考、创造的人。这一点,在大模型的使用普及以后,也同样成立。当所有人都可以使用大模型的时候,它本质上和计算器就没有区别。

说到经济学的问题,坦率地说,经济学家永远不会失业。

尽管AI确实能够很快构建出经济学模型,但经济学家的核心价值并不在这些技术层面的工作——经济学家背后真正的价值在于思想的深度和对复杂问题的思考。

去年我就开始转向思想史的研究了,因为在经济学等学科中,思想和理论的深度可能会比纯技术更为重要,后者的价值可能会大幅度降低。

Q:计算器的例子非常形象,那么随着大模型推理能力的提升,是否会让一个没有学过哲学的人,具备与专业人士相当的逻辑思考能力?

刘永谋:刚才提到用计算器计算和自己计算的差别,它的核心就在于学习能力。我们不应该只是学习如何使用计算器,而是要学会计算的原理与方法。

未来社会,我们很可能无法在一个领域连续工作很多年,而是随时需要借助AI的辅助,快速切入新领域,并成为这一领域的胜任者。这时学习迁移能力就变得很重要,这意味着我们不仅要学习特定的知识,还要学会如何通过学习过程获得通用的学习能力。

说到哲学,其实完全不需要怕,它的特征就是不断地开拓新的领域。很多学科,如自然科学、经济学、心理学和社会学,都是从哲学中分出来的。

哲学关注的从来不是已知问题,而是开辟新的领域。当某一领域探索到一定程度时,其他学科就会接手,因此哲学的价值从来不会消失。其实不止哲学,真正具有创造性的科学都不会有这样的担忧。

陈永伟:我补充一下刘老师的观点。如今的AI,可以比作是《美诺篇》中的奴隶小孩。这个小孩本身并未学过几何学,但通过苏格拉底的引导,借助提问的方式,小孩逐渐发现了几何问题的答案。

苏格拉底认为,这个小孩其实有“前世记忆”,所有的知识都储存在他那里。现在的AI也是如此,尽管它几乎掌握了人类的所有知识,但它并不懂得这些知识的真正含义。

苏格拉底要做的,就是引导他回忆这些知识,这就是教育的意义。

今天的技术提供了一个便捷的工具,但它并不能代替我们对知识的理解与创造。所以,现如今的教育不是要培养我们成为一个“奴隶小孩”,而是要培养我们成为像苏格拉底那样,具有引导思考、深度理解能力的个体,这种能力比单纯掌握知识更加重要。

“文科要被淘汰”的误解

Q:去年底有一个讨论比较多的话题是,AI的发展、特别是大模型能力的提升,可能会让90%的文科面临淘汰的风险,两位老师又如何看待这个问题?

刘永谋:作为文科人,不管是学生还是老师,都感受到了真真切切的压力。这个压力不仅是来自技术本身,实际上是全球范围内对文科教育的一种反思。

当前的文科教育体系,在全球范围内,包括中国、美国、日本等地的高校,都在面临类似的挑战。尤其是在一些传统的学科设置和教学模式上,确实相对滞后于时代发展。

实际上,AI的冲击并不局限于文科领域,包括编程、化学、法律等很多学科也都面临不同程度的挑战,这是一个全面的冲击。

至于文科是否还有存在的必要,我个人认为文科教育仍然有它独特的价值,尤其是在情感教育和社会互动方面,AI难以完全替代人类的情感共鸣和社交能力。

文科的教育,未来很可能会经历一个范式转型,尤其是与AI结合的过程中,学科之间的界限可能会逐渐模糊,出现更多以问题为视角的跨学科整合,而不是传统的学科划分。

最近观察到,美国一些大学的哲学系逐渐在萎缩,大量的哲学教师岗位来自工学院、理学院,学哲学的人去计算机学院去当老师。

可以说,教授批判性思维和思维方法的东西,又创造了不少岗位。

陈永伟:现在的文科教育方式确实是有问题,但文科的内容和文科本身并不会消亡。技术进步后,文科的作用反而更加重要。

春节档电影中,有些电影特效做得很好、技术没有问题,但为什么有的票房好,有的票房不好呢?比如饺子导演,虽然他不是文科出身,但他的创作是文科的工作。

如果文科生创作不出这样的作品,那只能说明是文科教育出了问题。

文科能够为技术产品赋予文化和情感价值,使其更具吸引力。在一个技术高度发展的社会中,如何进行资源分配,确保公平和正义,这些社会伦理问题,也正是文科能够处理的重要领域。

文科的角色并不仅仅是与AI配合,而是提供了一种批判性思维和深度分析的工具,帮助我们理解AI生成的内容及其对社会的影响。

技术重新定义天赋,也加速人的退化

Q:站在工作视角,实现AI平权之后,因为有了相同的工具,大家回到了拼天赋的阶段?

刘永谋:拼天赋这个说法有一定的道理,但要记住,天赋每个人都有,它只是表现形式不同。有的人可能擅长讲故事,有的可能体能好跑得快,或者有的是擅长数学,每个人都有各自的特长,关键是要发现并发展它。

在这个时代,兴趣也非常重要。即便你有天赋,但如果你不喜欢这个领域,那么学习的效果也可能不如预期。

就像《哪吒》的导演饺子一样,他原本学医,接触到动画制作工具后,他发现自己更喜欢做这个。虽然有很多年依靠家庭支持,但他依然凭借兴趣推动自己不断前进。

兴趣与天赋相辅相成,驱动力也与个人性格密切相关,所以我觉得天赋和兴趣都非常重要,但这并不意味着谁更聪明就一定更成功。

陈永伟:这里面不仅仅是赋能的问题,许多所谓的天赋其实是建立在技术的基础上的。可以说,技术让一些天赋,从隐性转变为显性,甚至使一些天赋变为可能。

比如喊麦,就是短视频兴起之后,才成为一种“天赋”,有些人甚至因此成为了千万级粉丝的网红。这些偶然的成功背后,其实也反映了技术对天赋的影响。

再比如,深度学习的奠基人Geoffrey Hinton曾经提到,他早期并不擅长数学,但正是因为遇到了一些优秀的研究助手,才为他后续的研究奠定了基础。

杰弗里·辛顿与其学生,左边为伊利亚·苏茨克韦尔,右边为亚历克斯·克里热夫斯基

过去,很多技术的发展依赖于偶然的机遇和个人的天分,但现在AI能够为更多人提供多维度的支持,填补知识和能力的空白,同时放大我们的内在优势,这与传统技术的影响有很大不同。

刘永谋:技术正在重新定义天赋。它不仅扩展了我们的某些天赋,也可能让一些曾经被视为天赋的因素变得没那么重要了。例如外貌曾经可能是一种天赋,但现在我们可以通过美颜技术改变外貌。

Q:关于技术和天赋的关系,究竟技术会激发人的创造力潜能,还是会让人更依赖于技术,例如让大模型代替自己去思考,是否会导致创造力下降?

刘永谋:之前有未来学家提到过,当代科技的一个重要特点就是“技术依赖性”。甚至某些设计会刻意推动人们对特定技术的依赖。在这种依赖中,可能会出现我们所担心的“人的退化”问题——不仅体现在智力上,情感方面也会受到影响。

如果长期与AI进行交流,久而久之,人的情感也会趋向机器化,因为机器虽然能模拟很多场景,但它毕竟是程序化的。

现在,很多老师讲课离不开PPT,但早年很多老一辈的老师,仅凭一杯茶,一根烟,没有教案,照样能讲得津津有味,这是技术带来的智力依赖性问题。

现在通过技术手段来监控健康数据、工作效率等,这实际上也是人类逐渐趋向机器化的体现。我更担心的不是机器人取代人类,而是人类越来越像机器,天赋逐渐被削弱。所以在教育中运用AI工具,提升学生利用AI工具能力的同时,一定要注意如何去激发他们的天赋、保持他们的创造力,而不是产生抑制效应。

陈永伟:孔子所说的“君子不器”有很深刻的道理。现在AI相关工具普及,人越来越依赖这些工具,其实我们应该保持人类自身的本能,但回到过去是不现实的,所以必须学会驾驭这些工具,让它们成为我们工作的辅助手段,而不是主导力量。

我一直把人和AI的关系比作一起经营公司,你可以选择成为甩手掌柜,但这样做可能会带来很大的风险。更好的做法是保持控股权,至少你能把握公司方向,即使失败也是自己决定的。

“技术恐惧”的根源:AI拟人化

Q:AI的普及速度和用户群体正在迅速增长,这种技术快速发展的过程很容易让人产生焦虑:跟不上节奏怎么办,会不会被技术抛在后面?

刘永谋:关于技术焦虑的问题,与我们对AI的宣传有关。从AI概念最初被提出开始,关于AI会有意识、无所不能甚至统治人类的说法就不断被强调,这种过度宣传带来了很多焦虑,在学术界被称为“技术恐惧”。

技术恐惧在历史上一直存在。过去,少数民族地区民众认为火车会惊扰山神,或者会吓坏牛、马,甚至影响产奶。今天人们对AI恐惧不一样的地方在于——它来自对AI“拟人化”的想象。

大家认为AI写作写得好,认为它“有意识”,这实际上是一种误解。AI并不是一个有意识的个体,它只是通过统计学和算法进行推算。我们总是习惯性地把AI拟人化,这就导致了对它的过度担忧和不必要的焦虑。

陈永伟:对AI的崇拜很大程度上源于我们对它不了解。

如果你能理解GPT的工作原理,了解Transformer的机制,了解神经网络的概念,就不会再害怕它。例如,了解DeepSeek是一个多专家系统架构后,你会发现它并不是完美的,它的组合有时不太好,精度降低时会出现更多“幻觉”。

而当你掌握了AI的缺点后,你就能有针对性地调整使用策略,通过考据来弥补它的不足,这就是你和AI的差异所在。

有些人担心自己苦练多年的技能被AI取代了,心有不甘。但从经济学角度来看,这是一种“沉没成本”,你不必过于纠结于过去投入的精力,而应该放下这些自豪感,去接受新的技术。

Q:在线工具已经让人的工作和生活碎片化,如果把问题都交给AI来处理,碎片化是否会加重,我们也不再像以前那样进行深度思考?

刘永谋:我们生活在信息化时代,AI的普及只会加剧这一趋势,这是不可避免的。问题在于,我们是否需要评判这种碎片化思维,给它做好与坏的定性?这牵涉到人类思维方式的巨大变化。

大家看电影的时候,往往习惯于用快进和倍速,有些孩子能同时操作多个手机,这是信息时代的产物,我们思维方式在这个过程中,也必然会发生转变,所以不能简单地认为碎片化的思维就是负面的,在某些场景下,它可能反而更有效。

Q:技术的发展确实在改变人的思维方式,但这也反映出我们之前的很多内容结构化程度不足,AI时代可能会有什么改变?

陈永伟:从卡尼曼的理论来看,人类的思维本身就有两个系统:快速反应系统和慢速思考系统,互联网技术发展起来之后,强化了快速反应系统的使用,既然这是一种社会的发展趋势,我们就需要适应它。但同时,我们也应该注意锻炼慢思考的能力。

卡尼曼双系统思维模型示意图

现在大模型就是这样,有擅长快速给出结果的,也有擅长慢速思考推理的。既然大模型都可以有多种思维方式,为何不要求自己也尝试构建几个不同的基座模型呢?

Q:面对 AI 越来越普及的局面,我们应该如何适应?

陈永伟:AI 时代带来了起点上的公平,也可能放大最终结果的不平等。这是我们这个时代面临的最大风险。当我们在享受 AI 带来的便利时,我们每个人都应意识到这一点,保持警觉。

过去,我们谈论创造价值时,常说 99% 的汗水加上 1% 的灵感。现在,1% 的灵感变得比以往任何时候都更加重要。因此我们需要不断磨炼我们的技能,重新审视我们的观念。

在学习方面,我建议将学习分为四个层次:学工具、学知识、学能力、学做人,不能让技术抹去人类的本性。对我们来说,最可怕的不是 AI 变成人,而是人变成了AI。

至于就业,从历史上来看,我们目前这种双规式工作模式(规定时间、规定地点),其实也不过200多年时间。我们需要做好准备,将来可能会回到一种更加碎片化的状态,更加灵活,充满不确定性,就像马克思所说的“自由人的自由联合”,关键在于能否在不同的任务之间切换,驾驭自己的工作节奏,有效地利用 AI 进行组织管理。

刘永谋:面对AI时代的到来,首先我们应该消除对AI的恐惧,积极拥抱AI辅助型的社会。

在这种浪潮下,试图选择一个专业或行业来逃避AI的冲击是不现实的,因为AI将全面替代人类劳动。理论上所有体力劳动和大多数脑力劳动都将被AI替代,替代的时间和方式则取决于技术进步和社会制度的协同作用。因此,单靠“选择”来逃避这种冲击是行不通的,我们必须通过努力不断提高自己。

在未来的学习和工作中,我们必须学会与AI形成互补,与AI共同面对工作和学习中的问题。

除了这些工具层面的影响之外,我们还要考虑专业教育和素质教育的关系。毕竟人类学习和工作的目的是为了更好的生存和生活,而不是让自己成为一个工具。

在这方面,我们要特别注重培养一些AI不具有的能力,例如同理心、人际沟通能力和批判性思维。

结语

从ChatGPT到DeepSeek,人工智能的使用门槛不断被拉低,越来越多的人获得了通往“新世界”的钥匙。

在这一过程中,“技术普惠”也延伸出了“AI依赖症”的问题,进而侵蚀人类的独立思维。一个核心矛盾在于——技术的发展既可能成为解放人类的阶梯,也可能沦为加剧分化的陷阱。

换一种方式来表达,每个人手中通往新世界的钥匙都一样,但由于依赖程度和使用方式的差异,人们各自打开的大门又不尽相同。

所谓的AI平权,现阶段反应的只是起点的平权,而从蒸汽机到埃尼阿克再到移动互联网,技术的发展一再说明:“马太效应”不会缺席——资源最终会集中在少数头部人物手中,但这并不意味着大众享受不到技术进步带来的红利。

一定程度上说,使用AI和使用计算器,并没有本质的区别——计算器用得好,不会成为一个人真正的竞争优势,人的价值与竞争力,就来自如何掌握和驾驭技术。

如果把时间线拉得更长,人类的历史,也是一个“焦虑”的历史,人总是在反问,我们未来会被取代吗?过去,人类担心的是蒸汽机,后来计算机也成为人们担忧的对象,现在它转换成了人工智能,而过往的担忧,也并未被时间应验。

这是因为,当学者竞逐AI的火种,总需要有人为技术系上缰绳;当人们探寻与AI相处的边界,也总需要有人划下人性的界碑。

我们或许可以大胆预测,这场技术革命或许将催生新的学科与社会范式,然后带来更多的机会。

不要忘了,人类的优点在于其自我思考的决心。