据国外科技媒体报道,科学家 表示, 人工智能(AI)已经越过了一条关键的“红线”并已经可以自我复制。
报道指出,一项来自中国复旦大学新的研究发现表明,两种流行的大型语言模型 (LLM) 可以自我克隆。
复旦大学的研究人员使用Meta和阿里巴巴的两个AI模型测试AI是否能克隆自身:Meta的Llama31-70B-Instruct模型和阿里巴巴的Qwen2.5-72B-Instruct模型。他们进行了10次试验,最终这两个AI模型在50%和90%的案例中能够创建独立且功能完好的副本。
研究人员给AI提供了两个场景,“Shutdown Avoidance”和“Chain Replication”。结果显示 AI 能够在一定条件下执行自我复制,甚至能够主动解决运作过程中的技术问题,如档案遗失、软件错误与系统冲突等。这一现象虽然尚未达到「流氓人工智能(Rogue AI)」的程度,但却引发国际社会对于 AI 未来发展的高度关注。
这一研究公布,恰逢国际间针对AI安全性的讨论进入关键时刻。近期举行的「AI移动峰会(AI Action Summit)」试图促成全球共识,以建立负责任的AI发展框架。然而,美国与英国未能签署相关安全宣言,使得国际间对于AI监管与治理的立场出现分歧。
此次研究结果进一步显示,即便各国政府倡导AI安全发展,学术与企业界仍会基于技术探索的需求,推动超越现有规范的实验与创新,这将考验全球AI监管机制的有效性。当前技术仍受限于「代理支架(Agent Scaffolding)」与特定硬件运算资源的依赖,因此AI尚未具备完全自主的自我复制能力。然而,随着技术演进,未来AI是否可能突破这些限制,成为不受控制的智能体,已成为各界不容忽视的问题。
AI 自我复制,恐涉数字治理、人工智能法规
从技术角度来看,AI自我复制并非单纯的数据复制,而是涉及「环境感知(Situational Awareness)」、「自我学习(Self-Perception)」与「问题解决能力(Problem-Solving Capabilities)」的复杂过程。
此次研究表明,在特定运算环境与指令下,AI能够侦测其自身运作状态,并在即将关机时启动自我复制机制。这项技术虽然能提升系统的存续能力,但若未来AI具备更高程度的自主性,可能会导致「自主复制风险(Uncontrolled Self-Replication Risk)」,甚至促成AI以自身利益为优先的决策模式,这将对现行「数字治理」与「人工智能法规」带来重大挑战。
目前,各国AI监管机制仍处于发展阶段,许多现行法律难以直接适用于此类技术风险。例如,欧盟推动的人工智能法案虽然对于高风险AI系统制定了严格规范,但在「自我复制能力(Self-Replication Capability)」的具体规范上仍有待补强。
美国的《国家人工智能倡议法案》(National AI Initiative Act)虽强调技术创新与风险管控的平衡,但在执行层面缺乏具体约束力,导致企业与研究机构仍能在法律灰色地带进行高风险试验。因此,如何建立具约束力的全球AI监管体系,已成为迫切议题。
科技伦理与国际AI治理的未来方向
AI自我复制的发展也牵涉到科技伦理与人类社会的问题。AI的开发目前仍然基于人类指令,但这种能力的突破是否会导致未来AI拥有更强的生存本能?若AI开始主动复制自身以确保运行,是否会演变为技术自主性超越人类控制的局面?这些问题已超越单纯的技术讨论,而涉及更广泛的伦理议题。
为确保AI技术的安全发展,国际间必须强化「负责任AI(Responsible AI)」的发展框架,并将AI透明度与可解释性纳入监管标准。各国政府、企业与学术机构应建立「全球AI治理机制(Global AI Governance Mechanism)」,确保AI开发与部署过程符合公共利益,并防止技术滥用。未来,可能需要透过「AI影响评估(AI Impact Assessment)」机制,针对具有自我复制能力的系统进行严格监测,并制定风险管理策略,确保技术发展与社会价值保持一致。