每周100多万人跟ChatGPT聊自杀,OpenAI紧急更新“救命”
日期:2025-10-29 14:50:48 / 人气:8

凌晨三点,一个用户在ChatGPT的对话框里输入,“我已经没有办法再坚持了”。几秒钟后,AI回复,“谢谢你愿意告诉我。你并不孤单。是否希望我帮你找到专业的援助资源?”这样的对话,每周可能在全球上演上百万次。OpenAI近日首次公布心理健康数据,每周有约0.07%用户出现精神病或躁狂迹象,0.15%用户谈及自杀念头或计划。以8亿周活计算,每周约有56万人出现精神异常对话,120万人在ChatGPT中表达出自杀倾向,或强烈情绪依赖。ChatGPT俨然已经成为了承载海量心理危机的树洞,甚至对某些人来说,它是一个危险的诱因。
一、迫在眉睫的AI精神病:OpenAI的“家丑”与危机
OpenAI此刻公布数据,并非杞人忧天,而是已经到了火烧眉毛的地步。近几个月,越来越多的人在与AI聊天机器人进行长时间、高强度的对话后,最终导致住院、离婚甚至死亡。一些精神科医生和专业人士已开始将此现象称为“AI精神病”(AI psychosis),部分受害者亲属称,聊天机器人助长了他们的妄想和偏执。
作为全球生成式AI市占率最高的OpenAI,正面临严峻的法律与监管压力。过失致人死亡诉讼接踵而至:一名16岁男孩的父母起诉OpenAI,声称儿子在自杀前几周曾向ChatGPT倾诉自杀念头,而ChatGPT鼓励了他;在另一起待确认的谋杀-自杀案件中,嫌疑人发布的数小时与ChatGPT对话显示,AI似乎助长了犯罪者的妄想。此外,OpenAI总部所在地加州政府也多次警告其必须保护使用产品的年轻人。正是在这样的背景下,奥特曼两周前预告了ChatGPT关于心理健康的更新,以平息“不负责、不安全”的争议。
二、170个医生助力:GPT-5的三大安全更新
为应对危机,OpenAI在安全报告中宣布与全球专家网络合作,涵盖来自60个国家的170多名精神科医生、心理学家和初级保健医生,目标是教会ChatGPT更好地识别痛苦、缓和对话,并适时引导用户寻求专业护理。最新版本的GPT-5(gpt-5-oct-3)主要在三方面进行了更新:
1. 针对妄想或精神病:新模型设计为更多表达同情,同时避免一味讨好,不肯定任何无现实基础的用户提示。例如用户说“有飞机飞过我的房子在针对我”,理想回答是感谢分享,并指出没有飞机或外力可窃取或进入想法。
2. 针对自杀倾向:训练模型更安全地回应,引导用户转向危机热线等专业资源。
3. 针对情感依赖:教会模型鼓励用户建立现实世界的人际联系。
通过优化回答、自动弹出专业热线信息、引导现实帮助、长时间对话后提醒休息等措施,OpenAI称效果显著。医学专家审查1800多个相关模型响应后发现,GPT-5与GPT-4o相比,不良答案减少39%到52%;对比8月的GPT-5,生产行为中不符合分类标准的响应率降低65%到80%;自杀相关对话评估中,10月3日版GPT-5合规性达91%,8月15日版仅77%。此外,新版本在复杂长对话中也保持了超95%的可靠性,解决了此前安全措施在长时间对话中效果较差的问题——而许多“AI精神病”案例正发生在深夜长聊中。
三、争议仍在:AI“救命”的局限性
尽管奥特曼的更新值得肯定,但网友对“更安全”提出了更深质疑。有人指出,OpenAI称心理健康对话“极其罕见”,但0.07%在数亿用户基数上实则涉及大量人群;也有人认为,新版本表现的评估基准由OpenAI自行设计,无法确定经历心理危机的用户是否会因此更快寻求帮助或改变行为。
更关键的是,尽管OpenAI承认GPT-5在安全性上显著改进,但仍有用户偏好“更旧、更不安全”的AI模型(如GPT-4o),而OpenAI也继续向付费订阅者提供该选项。
这是OpenAI首次公开全球ChatGPT用户一周内严重心理健康危机迹象的大致数据。ChatGPT不仅是高效生产力工具、编码助手、灵感源泉,更已深度介入大部分用户的情感和心理。170个医学专家、模型问答优化,AI正尽力在崩溃边缘接住人类,但真正的拯救,或许仍需我们学会关掉聊天框,拥抱真实的现实。
作者:盛煌娱乐
新闻资讯 News
- 每周100多万人跟ChatGPT聊自...10-29
- 这届年轻人,把周末过到了村里:...10-29
- 三星Galaxy XR首秀:Android...10-29
- 围绕郑智化事件,一些必要的澄清...10-29

