美国犹他州一份由人工智能辅助生成的警务报告近日闹出笑话:系统在记录执勤过程时“幻觉”出一名警官变成青蛙的情节,原因则是误把背景播放的迪士尼动画片《公主与青蛙》当成真实口供,整段内容被严肃地写进了执法记录草稿中。

这起事件发生在犹他州希伯市警局,涉事软件为执法记录仪厂商 Axon 推出的 Draft One 工具。该系统会将随身摄像机采集到的英语和西班牙语音频转写成文本,再利用 OpenAI 的 GPT‑4 大模型自动生成事件叙述,并在录制结束后将草稿上传云端,供警员校对补充后正式提交。 警局方面此前声称,Draft One 与普通聊天机器人不同,被限制为“只写它听到的内容”,以避免生成凭空捏造的文字。
然而,这次“青蛙事件”表明,系统在区分执法现场人声与预先录制的影视音轨时存在明显缺陷。由于随身摄像机收音范围内正在播放《公主与青蛙》,AI 将片中情节机械纳入“事实叙述”,导致报告中赫然出现“警官变成青蛙”的荒诞描述,所幸编辑报告的警员在提交前发现并删除了这一错误。 法律专家和民权团体指出,这类“幻觉”一旦未被及时纠正,可能影响案件记录的准确性,甚至在司法程序中引发争议。
近年来,全美多地警方陆续试用或部署 AI 转录和报告生成工具,理由是提升效率、减轻文书负担。希伯市警局有警员表示,借助这类系统,撰写报告所需时间可缩短一半以上。 该局还在测试另一款名为 Code Four 的工具,由两名 MIT 辍学生创办的公司开发,除了生成报告外,还支持视频自动打码和基于录像内容的分析,据称每周可为一名警员节省 6 至 8 小时工作时间。
与只处理音频的 Draft One 不同,Code Four 会综合分析随身摄像机画面和声音,将更多细节纳入 AI 生成的文本之中。 不过,视频分析的准确性目前仍有待检验。检察官和法律学者担心,如果此类自动生成的报告被直接引入法庭,任何识别错误、偏见放大或情节“润色”都有可能对案件事实认定产生不当影响。
警方方面则强调,这些系统在实际应用中“总体准确”,还可能捕捉到人类在高压环境下容易忽略的细枝末节,有助于还原现场全貌。 但维权人士警告,过度依赖 AI 生成的执法记录,既可能让一线警员在审阅时产生惰性,也可能在不知不觉中将社会偏见编码进执法文本之中,而“青蛙警官”的荒诞一幕,正是这一潜在风险的生动注脚。

