谷歌新AI模型情绪识别功能引专家担忧
2024-12-05 / 阅读约5分钟
来源:TechCrunch
谷歌推出了新的AI模型系列PaliGemma 2,能够分析图像并识别情绪,但专家对其可靠性及可能滥用表示担忧,指出情绪检测系统往往不可靠且存在设计者偏见。

图片来源:picture alliance / 投稿者(在新窗口中打开) / Getty Images

谷歌最新推出的AI模型系列,宣称具备一项独特功能:能够“识别”情绪,这一消息引发了业界的广泛关注。

谷歌于周四正式发布了PaliGemma 2模型系列,该系列能够分析图像内容,使AI能够为照片中的人物生成详细字幕,并回答相关问题。

“PaliGemma 2能够为图像生成详尽且符合上下文的字幕,”谷歌在一篇与TechCrunch分享的博客文章中写道,“它不仅能识别简单物体,还能描述行为、情绪以及场景的整体叙事。”

谷歌表示,PaliGemma 2基于其Gemma开放模型集,特别是Gemma 2系列。图片来源:谷歌

尽管情绪识别功能并非直接内置,而是需要对PaliGemma 2进行微调,但TechCrunch采访的专家对情绪检测器的广泛应用前景表示了担忧。

“这让我深感不安,”牛津互联网研究所数据伦理和AI教授桑德拉·瓦赫特(Sandra Wachter)向TechCrunch透露,“我认为,假设我们能够‘读取’人们的情绪是有问题的。这就像向魔法8球寻求建议一样,缺乏科学依据。”

多年来,初创公司和科技巨头纷纷尝试构建能够检测情绪的AI,应用于从销售培训到事故预防等多个领域。尽管有些声称已经实现,但其科学基础并不稳固。

大多数情绪检测器都受到了心理学家保罗·艾克曼(Paul Ekman)早期研究的启发,他提出人类共享六种基本情绪:愤怒、惊讶、厌恶、享受、恐惧和悲伤。然而,后续研究对艾克曼的假设提出了质疑,指出不同文化背景的人们在表达情感的方式上存在显著差异。

“在一般情况下,情绪检测是不可能的,因为人们以复杂的方式体验情绪,”伦敦国王学院专门从事AI的研究员迈克·库克(Mike Cook)告诉TechCrunch,“当然,我们确实认为通过观察就能知道别人的感受,多年来也有很多人尝试过,比如间谍机构或营销公司。我确信在某些情况下,检测一些通用指标是完全可能的,但这并非我们可以完全‘解决’的问题。”

不出所料,情绪检测系统往往不可靠,且容易受到设计者假设偏见的影响。在2020年麻省理工学院的一项研究中,研究人员发现面部分析模型可能会对某些表情(如微笑)产生非预期的偏好。最近的研究还表明,情绪分析模型给黑人面孔分配了比白人面孔更多的负面情绪。

谷歌表示,已进行“广泛测试”以评估PaliGemma 2中的人口统计偏差,并与行业基准相比,发现“低水平的毒性和亵渎”。但该公司并未提供使用的完整基准列表,也未说明进行了哪些类型的测试。

谷歌唯一披露的基准是FairFace,这是一个包含数万人肖像的照片集。该公司声称PaliGemma 2在FairFace上表现良好。然而,一些研究人员批评该基准作为偏见指标存在局限性,指出FairFace仅代表少数种族群体。

“解读情绪是相当主观的事情,它超越了视觉辅助工具的使用,深深植根于个人和文化背景之中,”非营利组织AI Now研究所的首席AI科学家海迪·哈拉夫(Heidy Khlaaf)表示,“抛开AI不谈,研究表明,我们不能仅从面部特征推断情绪。”

情绪检测系统引发了海外监管机构的强烈反应,他们试图限制在高风险环境中使用这项技术。欧盟主要的AI立法《人工智能法案》禁止学校和雇主(执法机构除外)部署情绪检测器。

对PaliGemma 2等开放模型的最大担忧在于,它们可能会被滥用或误用,从而可能导致现实世界中的伤害。PaliGemma 2可从多个平台获取,包括AI开发平台Hugging Face。

“如果这种所谓的情绪识别建立在伪科学假设之上,那么它在如何进一步(且错误地)歧视边缘化群体方面将产生重大影响,比如在执法、人力资源、边境治理等领域,”哈拉夫指出。

当被问及公开发布PaliGemma 2的风险时,谷歌发言人表示,公司支持其关于“代表性危害”的测试,因为它们与视觉问答和字幕功能紧密相关。“我们对PaliGemma 2模型进行了关于伦理和安全的严格评估,包括儿童安全、内容安全等方面,”他们补充道。

然而,瓦赫特认为这远远不够。

“负责任的创新意味着从您踏入实验室的第一天起,您就要考虑后果,并在产品的整个生命周期中持续这样做,”她强调,“我可以想到无数潜在问题(与此类模型相关),这些问题可能导致反乌托邦的未来,在那里,您的情绪将决定您是否能获得工作、贷款,以及是否被大学录取。”