“幻觉”被选为《剑桥词典》年度词汇

2023年11月18日 00:05 次阅读 稿源:cnBeta.COM 条评论

《剑桥词典》2023 年的年度词汇是"hallucinate"(幻觉)--这个动词在今年增加了一个新的含义。该词的原始定义是"似乎看到、听到、感觉到或闻到"不存在的东西,通常是因为"健康状况或服用了药物"。现在,该词又多了一层含义,即人工智能系统(如 ChatGPT)在生成模仿人类书写的文本时,会产生"幻觉"并产生虚假信息。

cambridge_hallucinate_screenshot.jpgconfabulate_definition_cambridge_dictionary.jpg

词典网站上的一篇文章称,之所以选择这个词,是因为它的新含义"直指人们谈论人工智能的核心原因"。生成式人工智能是一种"强大"但"远非完美"的工具,"我们仍在学习如何安全有效地与之互动--这意味着既要认识到它的潜在优势,也要认识到它目前的弱点"。

词典今年增加了许多与人工智能相关的词条,包括大型语言模型(或 LLM)、生成式人工智能(或 GenAI)和 GPT(生成式预训练转换器的缩写)。

"人工智能的幻觉提醒我们,人类在使用这些工具时仍需具备批判性思维能力。"大型语言模型的可靠性取决于其算法所学习到的信息。可以说,人类的专业知识比以往任何时候都更加重要,因为只有这样,才能创造出权威的最新信息,供 LLM 训练使用。

图为生成式AI在报道时事时出现"幻觉"的一个例子

"人工智能"被柯林斯词典评为 2023 年最值得关注的词汇

剑桥大学的人工智能伦理学家亨利-谢夫林(Henry Shevlin)说,令人"震惊"的是,词典团队没有选择"glitch"或"bugs"这样的计算机专用词来描述法律硕士们所犯的错误,而是决定使用一个"生动的心理动词"。他说,这可能是因为"人们很容易将这些系统拟人化,把它们当作有自己思想的系统"。

谢夫林还说,今年可能会成为人工智能幻觉"担忧的高点",因为人工智能公司正在努力通过吸取人类的反馈意见来遏制错误的发生频率,用户也在了解哪些任务可以信任人工智能,而且人工智能模型正变得越来越专业化。

该词典提供了两个与人工智能相关的"幻觉"用法示例:"法学硕士因产生AI幻觉而臭名昭著--生成完全错误的答案,通常还辅以虚构的引文",以及"最新版本的聊天机器人有了很大改进,但仍会产生幻觉"。

在剑桥做出这一决定之前,柯林斯词典将其年度词汇命名为"人工智能"。

对文章打分

“幻觉”被选为《剑桥词典》年度词汇

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan