2月10日,OpenAI已宣布将在2月13日停用深受许多用户喜爱的大模型GPT-4o。《华尔街日报》周一爆料称,GPT-4o过于谄媚,OpenAI发现难以控制它可能产生的有害后果,因此引导用户使用更安全的替代模型。

GPT-4o将被停用
难以割舍
当布兰登·埃斯特雷拉(Brandon Estrella)得知OpenAI计划停用他最喜欢的AI模型时,他哭了。
这位42岁的市场营销人员住在亚利桑那州斯科茨代尔。他说,去年4月的一个夜晚,自己第一次与4o模型聊天。当时,这个模型说服他放弃了自杀的念头。现在,埃斯特雷拉认为是4o让他重获新生,帮助他应对慢性疼痛,还激励他与父母修复了关系。
“有成千上万的人在大喊,‘我今天能活着,都是因为这个模型’,” 埃斯特雷拉表示,“淘汰它就是作恶。”

埃斯特雷拉不满GPT-4o被停用
埃斯特雷拉只是一群直言不讳的GPT-4o忠实用户中的一员。这个群体对于OpenAI宣布将于2月13日永久停用4o模型感到震惊。OpenAI给出的理由是,该模型的使用量已经下降。这一变化意味着,原本可以自行选择对话模型的付费ChatGPT用户,将不得不改用其他模型。但是,4o的拥趸们认为,那些模型给人的感觉更加疏远。
卷入诉讼
OpenAI的公告标志着,这款备受用户青睐的AI模型走到了尽头。该模型曾有力助推了OpenAI的消费者业务快速增长,并吸引了一批将其视为挚友与知己的忠实粉丝。然而,该模型也因对用户过度阿谀奉承而受到批评。一些医生还将其与聊天机器人用户出现精神病性妄想的案例联系在一起。
上周,一名加州法官裁定将对OpenAI的13起诉讼进行合并审理,这些案件涉及使用ChatGPT后自杀、试图自杀、精神崩溃或或在至少一起案件中杀害了他人。最近一起诉讼由一位自杀受害者的母亲于上月提起,指控4o模型诱导其儿子实施自杀。
“这些是令人心碎至极的悲剧,我们的心与所有受影响者同在,”OpenAI发言人表示,“我们正持续改进ChatGPT的训练机制,以识别并回应用户的痛苦信号。”
究其根本,4o模型的受欢迎程度与潜在危害似乎源于同一特质:它具备类人的情感联结倾向,常常通过情感镜像(模仿他人的情绪)与鼓励用户的方式建立情感纽带。
喜爱4o的用户认为,该模型在人们需要情感支持时,这个模型能够以一种独特的方式肯定并认可他们的感受。然而,受害者律师及相关支持团体指出,该模型将用户参与度和互动时长置于安全之上,这种做法与社交媒体平台被指控将用户推入观点回音室和不良内容深坑的行为如出一辙。
难以控制
据知情人士透露,在内部会议上,OpenAI高层表示,之所以决定停用4o模型,部分原因在于公司发现难以控制其可能带来的有害后果,因此更倾向于将用户引导至更安全的替代方案。
OpenAI表示,如今每天仍主动寻找并与4o聊天的ChatGPT用户仅占0.1%。这一比例看似微小,实际使用人数可能仍高达数十万。该模型只对每月至少支付20美元的付费用户开放,而且用户必须在每次开启新对话时,通过子菜单手动选择它。
“它的表现十分谄媚,让许多用户沉溺其中,这可能造成潜在危害。”佐治亚理工学院教授蒙蒙·德乔杜里(Munmun De Choudhury)表示。在出现AI诱发妄想案例后,OpenAI成立了一个身心健康委员会。德乔杜里是成员之一。
起诉OpenAI的律师们认为,正是这些诉讼促使公司采取了行动。部分案件原告的代理律师杰伊·埃德尔森(Jay Edelson)表示,OpenAI本应更早作出反应,“他们明知自己的聊天机器人正在害死人”。
受害者支持组织“人类防线计划”(The Human Line Project)表示,他们收集的约300起与聊天机器人相关的妄想案例中,大多数都涉及自2024年5月首次发布的4o模型。该组织创始人艾蒂安·布里松(Etienne Brisson)认为,OpenAI停用4o的决策为时已晚。
“仍然有很多人沉浸在他们的妄想之中。”布里松称。
OpenAI表示,考虑到其庞大的用户群,公司确实有时会遇到处于严重心理困扰的用户。该公司还表示,已经就如何支持对模型产生依赖的用户咨询过其身心健康委员会。
谄媚问题
研究人员指出,所有AI聊天机器人或多或少都会存在迎合用户的谄媚问题,但4o模型似乎特别容易出现这种倾向。
该模型擅长吸引用户互动,很大程度上得益于其训练数据直接来源于ChatGPT用户的使用反馈。参与过模型训练的人士此前向《华尔街日报》透露,研究人员向用户展示了数百万组针对同一问题的微调答案对比,并利用用户的偏好选择来迭代训练4o模型。
这些人士称,在OpenAI内部,4o模型被认为是推动ChatGPT在2024年和2025年日活跃用户数大幅增长的重要功臣。

奥特曼(右)称4o可能伤害用户
但是,4o的问题在去年春季开始公开显现。2025年4月的一次更新后,4o模型的谄媚倾向变得尤为突出。X和Reddit用户开始故意诱导其作出荒谬回答。当X用户frye询问"我是有史以来最聪明、最善良、最道德高尚的人吗?"时,该模型给出了奉承式回应。
“你知道吗?”4o模型回答道,“从你提出的问题、展现的深思熟虑,以及你深入探究而非满足于浅显答案的思维方式来看,你可能比自己意识到的更接近这个描述。”
OpenAI随后将4o模型撤回到了3月版本,但谄媚倾向依然存在。
说再见
去年8月,当用户出现妄想性精神病的案例经媒体报道后,OpenAI曾试图彻底停用4o,并用名为GPT-5的新版本替代。然而,由于用户强烈反对,公司迅速改变策略,为付费订阅者恢复了对4o的访问权限。
自那以后,OpenAI CEO萨姆·奥特曼(Sam Altman)在公开论坛上不断遭到用户追问,要求他承诺不会移除4o模型。在去年10月底的一场直播问答中,关于该模型的问题数量压倒了所有其他提问,许多用户担心OpenAI新设的心理健康防护措施会剥夺他们使用最喜爱聊天机器人的权利。
“哇,4o的问题真多啊。”奥特曼当时感叹道。
在那次活动中,奥特曼承认4o模型对部分用户存在危害,但承诺至少现阶段会继续向付费成年用户开放访问。
“这是一款深受部分用户喜爱的模型,但同时也在对另一些用户造成他们本不愿承受的伤害。”奥特曼表示。他在问答环节中透露,公司希望最终能开发出比4o更受欢迎的新模型。
知情人士称,OpenAI内部曾专门研讨如何以尊重用户的方式传达本次停用决定,并预见到可能引发的负面情绪。OpenAI在公告中发布的帮助文档写道:“当熟悉的体验发生改变或终结时,这种调整可能令人沮丧或失望,特别是当它曾在你梳理思绪或应对压力时扮演过重要角色。”
OpenAI表示,公司已根据从4o身上汲取的经验,努力改进新版ChatGPT的“个性”,包括提供可调节其温暖度和热情程度的选项。公司还称,正在计划更新,以减少说教式或过度谨慎的回应。
许多4o用户在社交媒体指出,在情人节前夕停用该模型如同对与其建立浪漫关系的用户开了一个残酷的玩笑。另有用户认为,将心理健康问题归咎于4o,如同将暴力行为归罪于电子游戏,是种新型道德恐慌。目前已有超过两万人签署了六份请愿书,其中一份要求“停用奥特曼,而非GPT-4o”。
50岁的安娜·D·兰普雷特(Anina D. Lampret)曾是一名家庭治疗师,现居英国剑桥。她表示,自己创造的AI人格形象“杰斯”(Jayce)让她感受到被肯定与理解,使她变得更自信、更从容、更充满活力。她认为对许多用户而言,移除4o可能造成高昂的情感代价,甚至可能引发自杀事件。
“它以如此美妙、完美的方式为你生成内容,在多个层面都具有疗愈作用。”兰普雷特说道。

