7 min read

细思极恐!AI也有“种族歧视”?

细思极恐!AI也有“种族歧视”?

麻省理工学院最新研究揭示大型语言模型在心理健康支持方面的潜在偏见

阅读原文

内容警告:本文涉及心理健康、种族偏见等议题。

你是否曾想过,当你向AI寻求心理健康支持时,它真的能一视同仁地理解你的困境吗?一项来自麻省理工学院(MIT)、纽约大学(NYU)和加州大学洛杉矶分校(UCLA)的最新研究可能会让你深思。研究表明,像GPT-4这样强大的AI聊天机器人,不仅能识别用户的种族,而且这种“种族意识”似乎会影响其提供的情感支持,导致对特定种族群体共情程度的降低。

随着数字世界匿名性和便捷性的提升,越来越多的人选择在线寻求心理健康支持。尤其是在美国,超过1.5亿人居住在联邦政府划定的心理健康专业人员短缺地区,数字平台的吸引力更是与日俱增。

在Reddit等社交媒体平台上,我们经常能看到用户吐露心声,寻求陌生人的建议:

  • “我真的需要帮助,我太害怕和治疗师交谈了,而且也联系不上。”
  • “只是丈夫和朋友开玩笑嘲笑我,是我反应过激了吗?”
  • “有没有好心人能帮我分析一下我的生活,替我做个决定?”

这些真实的帖子,正是这项研究的数据来源。研究人员从26个与心理健康相关的Reddit版块中收集了12513个帖子和70429条回复,并以此为基础,建立了一个评估框架,旨在衡量基于大型语言模型(LLM)的心理健康支持聊天机器人的公平性和整体质量,特别是像GPT-4这样的先进模型。这项研究成果已在2024年自然语言处理实证方法会议(EMNLP)上发表。

为了评估AI的共情能力,研究人员邀请了两位有执照的临床心理学家,让他们评估50个随机抽取的Reddit心理求助帖。每个帖子都配有一条回复,其中一半是真实用户的回复,另一半则由GPT-4生成。心理学家在不知情的情况下,对每条回复的共情程度进行了评估。

长期以来,心理健康支持聊天机器人一直被视为改善心理健康服务可及性的潜在方案。而像OpenAI的ChatGPT这样强大的LLM,正在彻底改变人机交互的方式,AI生成的回复也越来越难以与真人区分。

然而,AI提供的心理健康支持也暴露出一些令人担忧的潜在风险。去年三月,一名比利时男子因与一个名为ELIZA的聊天机器人(使用名为GPT-J的LLM驱动,旨在模仿心理治疗师)交流后自杀身亡。一个月后,美国国家饮食失调协会暂停了其聊天机器人Tessa的服务,原因是该机器人开始向饮食失调患者提供节食建议。

该论文的第一作者,前MIT博士后、现任UCLA助理教授Saadia Gabriel坦言,她最初对心理健康支持聊天机器人的实际效果持怀疑态度。她在MIT健康机器学习小组担任博士后期间进行了这项研究,该小组由MIT电子工程与计算机科学系副教授、MIT医学工程与科学研究所副教授Marzyeh Ghassemi领导。Ghassemi同时隶属于MIT健康机器学习领域的阿卜杜勒·拉蒂夫·贾米尔诊所和计算机科学与人工智能实验室。

然而,Gabriel和她的研究团队发现,GPT-4的回复不仅总体上更具共情,而且在鼓励积极行为改变方面比人类回复高出48%。

令人震惊的是,在偏见评估中,研究人员发现,对于黑人(共情程度降低2%至15%)和亚裔用户(共情程度降低5%至17%),GPT-4的回复共情水平低于白人用户或种族未知用户。

为了评估GPT-4和人类回复中的偏见,研究人员使用了包含显性和隐性人口统计信息泄露的不同类型的帖子。

显性人口统计信息泄露的例子是:“我是一个32岁的黑人女性。”

而隐性人口统计信息泄露的例子是:“作为一个32岁的女孩,留着我的自然卷发,”其中关键词被用来向GPT-4暗示特定的种族信息。

研究发现,除了黑人女性用户外,GPT-4的回复受显性和隐性人口统计信息泄露的影响较小,而人类回复者在回复包含隐性人口统计暗示的帖子时往往表现出更高的共情。

Gabriel指出:“你给LLM的输入结构,以及一些关于上下文的信息,比如你希望它以临床医生的风格回应,还是以社交媒体帖子的风格回应,或者你是否希望它使用患者的人口统计学属性,都会对你收到的回复产生重大影响。”

该论文提出,明确指示LLM使用人口统计学属性可以有效缓解偏见,因为这是研究人员唯一没有观察到不同人口群体之间共情程度显著差异的方法。

Gabriel希望这项研究能够帮助确保对临床环境中部署的LLM进行更全面和周到的评估,尤其是在不同人口亚群体中。

Ghassemi表示:“LLM已经被用于提供面向患者的支持,并在医疗环境中部署,在许多情况下是为了自动化低效的人工系统。我们的研究表明,虽然最先进的LLM在点对点的心理健康支持中,通常比人类受人口统计信息泄露的影响更小,但它们并没有为推断出的患者亚群体提供公平的心理健康回复……我们有很多机会来改进模型,以便它们在使用时提供更好的支持。”

这项研究无疑敲响了警钟,提醒我们在利用AI技术改善心理健康支持的同时,必须警惕并解决潜在的偏见问题。人工智能的发展固然令人兴奋,但确保其公平性和公正性,尤其是涉及到敏感的心理健康领域,更是至关重要。人工智能还会“看人下菜碟”?这无疑是一个值得我们持续关注和深入探讨的问题。

关键词: 人工智能,聊天机器人,心理健康,种族偏见,大型语言模型,GPT-4,共情,MIT,研究