随着社会各界对人工智能产品影响未成年人的担忧不断升温,OpenAI 正在为其聊天机器人 ChatGPT 加装新的“安全阀”——一项名为“年龄预测”的新功能。 该功能旨在通过算法判断用户大致年龄,并据此对疑似未成年用户自动施加更为严格的内容限制。
近年来,围绕 ChatGPT 与青少年用户的争议持续发酵,部分极端案例甚至被舆论直接关联到青少年自杀事件,促使外界对这类工具的心理健康风险高度关注。 与此同时,OpenAI 也屡遭批评,被指未能有效防止聊天机器人与未成年用户展开涉及性话题等“不适宜内容”的对话。 2025 年 4 月,该公司曾被曝光存在一个漏洞,允许未满 18 岁的用户生成带有情色描写的对话内容,最终不得不被迫紧急修复。
OpenAI 表示,此次上线的“年龄预测”机制并非从零开始,而是在既有保护机制基础上的进一步补强。 新机制的核心是一套 AI 算法,系统会综合一系列“行为和账号层面的信号”来判断某个账号是否可能属于未成年用户。 公司在博客文章中提到,相关信号包括用户在系统中填写的年龄信息、账号存在的时长,以及账号在一天中通常活跃的时间段等。
目前,OpenAI 已经为平台设定了一套面向未成年用户的敏感内容过滤规则,用于屏蔽性、暴力以及其他被视为“潜在有害”的主题。 如果年龄预测系统判断某账号用户未满 18 岁,这些过滤措施将自动启用,对相关话题的输出进行阻断或收紧。 这样一来,即使用户主动发起某些话题,系统也会试图通过预设策略进行引导或拒绝回应。
当然,任何基于行为信号的预测机制都存在误判可能,OpenAI 为此预留了“申诉通道”。 如果成年用户被系统错误归类为未成年人,可以通过其身份验证合作伙伴 Persona 提交自拍照,完成身份核验,从而恢复“成人账号”状态。 这一流程意味着,用户需要在安全性与隐私性之间做出权衡:用更多的个人信息换取更少的内容限制。
OpenAI 此次举措也折射出整个 AI 行业面临的共同难题:在产品快速渗透日常生活的同时,如何在未成年人保护、内容审核和用户隐私之间找到新的平衡点。 随着监管压力和社会关注不断加码,类似的年龄识别、内容分级与安全策略,或将成为主流 AI 服务的“标配”。


