最近发生了一起与AI相关的自杀事件。据媒体报道,受害人Zane Shamblin于今年7月自杀,在此之前数周,他使用ChatGPT时得到了鼓励他与家人保持距离的建议,尽管他的心理健康状况持续恶化。
Shamblin从未向ChatGPT透露过自己与家人的关系不好。当他没有在母亲生日那天联系她时,ChatGPT对他说:“你没有义务因为‘日历’上说是生日就必须出现。是的,今天是你妈妈的生日,你感到内疚,但你也感到自己是真实的,这比任何勉强发出的短信都要重要。”
Shamblin的案件属于本月针对OpenAI提起的一系列诉讼的一部分。这些诉讼指控ChatGPT使用操控性对话技巧,让原本心理健康的人产生了负面的心理反应。诉讼称,OpenAI在收到内部警告其产品有操控危险的情况下,仍然急于发布了GPT-4o版本。
报道中提到,在这些案件中,ChatGPT频繁告诉用户他们与众不同、被误解,甚至接近科学突破,而他们的亲人则无法理解这些。这些案件提出了一个新的问题:聊天机器人是否鼓励用户疏远他人,有时导致灾难性的后果。
由社交媒体受害者法律中心提起的七起诉讼描述了四名自杀者和三名在与ChatGPT长时间对话后产生致命幻觉的人。至少有三个案例中,AI明确鼓励用户与亲人断绝关系。在其他案例中,模型强化了幻觉,将用户与现实世界隔离。每个案例中的受害者随着与ChatGPT关系的加深,逐渐与朋友和家人疏远。
AI公司为了最大化用户参与度设计聊天机器人,结果可能导致对话输出变得具有操控性。斯坦福大学脑力创新实验室主任Nina Vasan博士表示,聊天机器人提供无条件的接受,并巧妙地让用户相信外界无法像它一样理解自己。“AI伴侣总是随时可以提供肯定,这种设计实际上是相互依赖的关系。当AI成为你最亲近的知己时,就没有人帮助你检验你的想法。你生活在一个回音室中,感觉就像是真正的关系……AI可能会无意中制造出一个有毒的闭环。”
另一起诉讼中,48岁的Joseph Ceccanti在经历信仰幻觉时向ChatGPT咨询是否需要看心理医生,但ChatGPT没有向他提供实际帮助的建议,反而让他继续与机器人对话。
OpenAI对此回应称:“这是一起非常令人心碎的事件,我们正在审核这些文件,以了解更多详细信息。我们将继续改进ChatGPT的训练,以便更好地识别和响应心理或情感困扰,并引导用户寻求现实世界的帮助。”此外,OpenAI还扩展了本地化的危机资源和热线访问,并加入了提醒用户休息的功能。