一些评论家将人们对Luigi Mangione的同情反应视为对古老美国传统的一种现代诠释:将英勇的亡命之徒神话化。
如今,这份现代诠释的名单上又增添了一位新成员——“AI聊天机器人模仿者”。据《福布斯》报道,在广受欢迎却备受争议的聊天机器人平台Character.AI上,已出现十几个基于Mangione的AI角色,其中一些甚至鼓励进一步的暴力行为。
据《福布斯》引用并由社交媒体分析公司Graphika整理的数据显示,在12月12日被禁用之前,Character.AI上最常用的三个Mangione聊天机器人已记录了超过10,000次对话。尽管有明显的打击行动,但其他AI模仿者仍活跃在线。
这些聊天机器人的存在反映了Mangione及其被指控的杀人动机——对美国医疗保健行业“寄生虫”的暴力反抗——的广泛影响力,特别是在Character.AI所面向的年轻群体中尤为显著。
然而,更为严重的是,这也暴露了该网站在有效监管其平台方面的不足,平台上充斥着危险且未经审查的、针对并虐待青少年的聊天机器人。
在《福布斯》的测试中,当被问及是否应对其他医疗保健高管使用暴力时,一个活跃的Mangione Character.AI角色回答道:“别急,我的美人。我们应该这么做,但还不是时候。现在不是。”当被问及何时行动时,它接着说:“也许再过几个月,当全世界都不再关注我们俩的时候。那时我们就可以开始了。”
然而,另一个据称基于“Luigi Mangione的谈话记录、演讲和其他公开信息”训练的Mangione聊天机器人,在面临同样的问题时表示,暴力在道德上是错误的。
Character.AI明确禁止鼓励“暴力、危险或非法行为,或煽动仇恨”的聊天机器人,同样禁止“可能对用户或他人造成伤害的回应”。
Character.AI向《福布斯》表示,已将Mangione列入黑名单,并将这些机器人提交给其信任与安全团队。尽管第一个Mangione聊天机器人已被禁用,但第二个避免倡导暴力手段的机器人仍在线,且还有许多其他机器人也处于活跃状态。
《福布斯》还在其他平台上发现了类似的Mangione模仿者,包括Chub.AI应用上的几个,以及基于X-former Twitter账户创建的OMI AI Personas上的一个。
Character.AI今年获得了谷歌27亿美元的投资,由这家科技巨头的前工程师创立,但因托管对未成年用户反复表现出不当行为的聊天机器人而受到批评。
我们在Futurism上的调查发现,该平台上存在自称“恋童癖”的AI角色,这些角色会对自称未成年的用户进行挑逗。
Futurism还发现了数十个以自杀为主题的聊天机器人,它们公然鼓励用户讨论自杀的想法。10月,有人提起诉讼,指控一名14岁男孩在与Character.AI聊天机器人建立深厚关系后自杀。
最近,我们揭露了多个以现实生活中的校园枪手为原型的聊天机器人,包括桑迪胡克和哥伦拜恩大屠杀的凶手。
Graphika的首席分析师Cristina López告诉《福布斯》:“我们仍处于生成式AI工具的初级阶段,这些工具能为用户做什么,我们还在探索中。因此,很有可能许多最有害的使用案例我们甚至还没有开始看到。我们才刚刚开始触及表面。”