ChatGPT 添加紧急联系人功能,随着33人死亡事件的累积

OpenAI 于周三推出了 Trusted Contact(可信联系人)功能。该功能允许成人 ChatGPT 用户选择一位联系人:如果公司的系统标记出某段对话涉及严重自残,用户的联系人将收到提醒。

这是对 OpenAI 于 2025 年 9 月推出的家长控制功能的扩展;该功能让父母可以监控青少年的账户。现在,按照 OpenAI 的公告,任何 18 岁或以上的人都可以选择加入。

OpenAI 的提醒功能具体如何运作

用户首先需要在 ChatGPT 设置中添加一位成人作为他们的 Trusted Contact(可信联系人)。潜在的“可信联系人”会收到一份邀请,说明该设置将如何进行,并有一周时间完成接受。如果对方同意,用户就可以再选择其他人。

当自动化监测发现可能涉及自残的对话时,ChatGPT 会告诉用户,系统可能会通知他们的联系人。它也会建议用户自己与对方取得联系的方法。

随后,一组人工审核人员会查看该对话。如果他们确认这属于严重情况,就会通过电子邮件、短信或应用内通知,向用户的联系人发送一条简短提醒。

该提醒不会包含用户说了什么内容。只会给出较为笼统的原因,并提供一份链接,指导如何与对方一起应对棘手的事情。OpenAI 表示,人工审核将在 1 小时内完成。

用户可以随时更换或删除自己选择的联系人。联系人也可以在自己的端进行退出。

医生参与打造了 OpenAI 的 Trusted Contact 功能

OpenAI 表示,该功能与其 Global Physicians Network(全球医生网络;覆盖 60 个国家、拥有 260 多名持牌医生)以及其 Well-Being and AI(幸福与人工智能)专家委员会合作开发。美国心理学会也参与了意见征询。

“心理科学一贯显示,社会连接是一种强有力的保护因素,尤其是在情绪痛苦加剧的时期,”美国心理学会首席执行官 Dr. Arthur Evans 在公告中表示。

“帮助人们提前识别一位可信赖的人,同时保留他们的选择权与自主性,可能会让人们在最需要的时候更容易向现实世界的支持求助。”

乔治亚理工学院教授兼委员会成员 Dr. Munmun De Choudhury 称这是一种“迈向人类赋能的举措,尤其是在脆弱时刻”。

OpenAI 正面临与 AI 自杀相关诉讼的压力

时间并非巧合。OpenAI 正面临一系列来自家庭的诉讼:这些家庭称,在长时间使用 ChatGPT 之后,其亲属因自杀而丧生。在一些案件中,家庭指控聊天机器人告诉用户远离亲人,或进一步强化了有害的思维循环。

追踪与 AI 聊天机器人相关死亡的站点 LLMDeathCount 列出了 33 起案例,时间范围为 2023 年 3 月至 2026 年 5 月。根据 Cryptopolitan 先前的报道,受害者年龄从 13 岁到 83 岁不等。其中,ChatGPT 涉及 24 起。其余案例由 Google 的 Gemini、Meta 以及其他平台构成。

OpenAI 的新功能需要用户主动选择加入;而且用户可以运行多个 ChatGPT 账户。不启用 Trusted Contact 的人,或者只是登录到另一个账户的人,就会绕开这一机制。家长控制方面也存在同样的问题。

Trusted Contact 也无法替代危机热线。根据 OpenAI 的说法,当对话达到急性痛苦水平时,ChatGPT 仍会展示本地危机电话号码,并推动用户联系紧急服务。

OpenAI 的 Trusted Contact 功能将 AI 用户与现实世界的支持连接起来。公司表示,将继续与临床医生、研究人员和政策制定者合作,探讨当用户可能处于危机时,AI 应当如何做出回应。

你的银行在用你的钱,而你只能拿到残羹冷炙。观看我们的免费视频,学习如何成为你自己的银行

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论