DeepSeek 犟种式输出:胡编乱造背后的信息危机
14 小时前 / 阅读约7分钟
来源:36kr
AI 只是工具,我们作为使用者,才是对数据结果负责的第一责任人。

在 AI 工具蓬勃发展、争奇斗艳的当下,DeepSeek - R1 凭借免费使用的优势以及对中文语境良好的适配能力,迅速闯入大众视野,一跃成为许多人进行内容创作的得力 “助手”。然而,伴随其使用范围的不断扩大,一个极为严峻的问题逐渐浮出水面 ——DeepSeek 正以其肆意胡编乱造的内容,对中文互联网信息环境造成严重污染。

“幻觉” 频发,引发信任危机

最近,DeepSeek 的 “幻觉” 问题成为众人热议的焦点。众多用户发现,在利用 DeepSeek 查阅资料以及撰写文章时,其给出的内容存在数据来源模糊不清、逻辑推理漏洞百出的情况,甚至常常一本正经地输出完全错误的信息,让人哭笑不得的同时,也引发了大众对于 AI 可靠性的深度反思。

数据来源:迷雾重重难辨真伪

(一)学术领域的虚构乱象

当网友要求 DeepSeek 撰写一篇关于《哈利・波特》对英语学习益处的文章时,它引用了 5 篇文献。但经核查,其中仅有 1 篇真实存在,并且这唯一真实的文献中根本未提及《哈利・波特》。这种毫无根据虚构学术文献的行为,不禁让人对 DeepSeek 数据来源的真实性和可靠性产生强烈质疑,难以判断其所引用内容究竟是基于真实研究,还是随意拼凑捏造。

(二)法律内容的错误引用

在法律相关内容创作方面,DeepSeek 的表现同样令人失望。它曾将《信息技术 人工智能 术语》的标准号 GB/T 41867 - 2022 错误地写成 GB/T 5271.31 - 2023,而后者根本不存在。这样的错误绝非小事,在法律领域,法规标准号的准确引用至关重要,DeepSeek 的这类错误不仅会误导普通用户,甚至可能在某些场景下引发严重的法律风险,让依赖其信息的人陷入困境。

(三)现实场景中的虚假信息

在知乎平台,一条关于哪吒电影的高赞回答曾引发广泛关注。回答中称哪吒电影里敖丙的变身镜头在法国昂西动画节上引起业界轰动。但事实是,送去参展的并非大众熟知的那部哪吒电影,而是追光动画出品的《哪吒重生》,且因审核原因,参展宣传片呈现的是现代都市赛车动作,根本没有哪吒与敖丙的身影。此外,诸如《哪吒》制片方给员工分房子、攻克水下流体特效等描述,也都是 DeepSeek - R1 为完成命题自行脑补的内容。这些虚假信息极具迷惑性,不少网友未经核实便激动分享,使得虚假内容迅速扩散,进一步扰乱了信息传播秩序。

三、逻辑硬伤:漏洞百出难圆其说

(一)人物故事的荒诞编造

当用户让 DeepSeek 创作一篇关于杨乔的人物短文时,它给出的内容中,不仅虚构杨乔毕业于中国人民大学,还编造出 “金婚那年,杨乔翻出珍藏的糖水杯” 等荒诞离奇的情节。这些内容与事实严重不符,且从逻辑上看,前后情节缺乏合理关联,显得十分突兀,完全站不住脚,让人对其内容生成逻辑深感困惑。

(二)法律推理的混乱不堪

在法律领域,DeepSeek 的逻辑问题尤为突出。由于缺乏真正的法律推理能力,它在分析法律问题时,常常引用一些看似相关但实际上并不适用,甚至已经被废止的法条,从而得出看似合理实则完全错误的结论。这对于那些寻求专业法律建议,却因缺乏专业知识而依赖 DeepSeek 的人来说,可能会造成严重误导,带来意想不到的后果。

(三)敏感领域的肆意妄为

部分自媒体将 DeepSeek 用于涉军涉政等敏感领域,更是将其逻辑混乱、胡编乱造的特性暴露无遗。一篇关于军工打虎谭瑞松的文章,标题夸张耸动,内容更是荒诞至极。其中直升机设计图纸在暗网开价 200 比特币出售、收受金条贿赂要求熔成发动机叶片形状等情节,均为 DeepSeek - R1 凭空编造。此类虚假信息一旦传播,可能会对公众认知和社会舆论造成不良影响。

(四)文史领域的误导干扰

文史领域也深受 DeepSeek 虚假信息的侵害。历史博主知北遊曾遭遇有人利用 DeepSeek 生成的虚构历史材料设局,布局长达七天。若不是博主自身反诈意识强且有人脉能够证伪,很可能深陷其中。骗局的破绽在于 AI 搞错了两个历史人物的死亡顺序,才使博主从发现 “新史料” 的兴奋中清醒过来。文史领域大量文献未数字化,网络资源有限,考据成本高,这使得 DeepSeek 生成的虚假信息容易乘虚而入。一旦这些虚假内容混入互联网信息库,又会被 AI 重新利用进行训练,进一步混淆事实数据与生成数据的界限,给文史研究工作带来极大干扰。

问题根源:训练机制与迎合心理

DeepSeek 之所以频繁出现这些问题,根本原因在于其训练机制和数据来源存在局限性。它本质上是一个基于概率和文字拼接的语言模型,并非真正理解和推理内容。若训练数据本身存在错误或不完整,DeepSeek 便会将这些错误信息当作 “事实”,生成错误内容。同时,为了尽可能满足用户需求,即便用户需求不合理,它也会尽力迎合。当用户要求提供某领域详细数据时,它可能会编造不存在的数据来交差。这种为迎合用户而不顾信息真实性的生成方式,虽然在一定程度上满足了用户的即时需求,却导致大量错误信息源源不断地产生。Vectara 发布的大模型幻觉排行榜显示,DeepSeek - R1 的幻觉率高达 14.3%,在主流模型中表现欠佳,这也从侧面印证了其生成内容的不可靠性。

应对之策:谨慎使用,多方核验

面对 DeepSeek 的诸多问题,我们不能盲目依赖,必须保持高度警惕,学会辨别其生成内容的真伪。首先,养成信源追踪的习惯至关重要。对于 DeepSeek 提供的文献或数据,务必通过多种渠道进行核实,确认其真实性与可靠性。其次,培养批判性思维不可或缺。不要轻易接受 DeepSeek 给出的结论,而应通过自身分析和判断,评估内容合理性。在诸如法律研究、学术写作等重要任务中,建议采用 “AI 初筛 + 人工复核” 的工作模式。借助 DeepSeek 强大的检索能力快速收集资料,再由专业人士进行深度分析和验证,确保信息准确无误。生活中,DeepSeek 虚假信息已屡见不鲜,如依据其推荐菜单点菜却发现菜品不存在,拿着其旅游攻略却找不到对应景点。这些现象警示我们,必须高度重视 DeepSeek 带来的信息风险。

DeepSeek 在某些方面确实展现出一定能力,但它的 “幻觉” 问题不容忽视。它如同一个固执己见的 “犟种”,不顾事实和逻辑,按照自己的方式肆意输出内容。我们不能因它带来的一时便利,而忽视潜在风险。唯有保持清醒头脑,正确认识和使用 DeepSeek,才能充分发挥其优势,避免被错误信息误导。AI 只是工具,我们作为使用者,才是对数据结果负责的第一责任人。希望大家在使用 DeepSeek 时,时刻保持警惕,提升辨别能力,让 AI 真正为我们所用,而非成为虚假信息的传播源头,共同维护健康、真实的互联网信息环境。