AI机器人在战争游戏中倾向于选择加强暴力和核打击

2024年02月04日 15:57 次阅读 稿源:cnBeta.COM 条评论

在战争游戏模拟的多次重播中,OpenAI 最强大的人工智能选择了发动核攻击。它对其侵略性做法的解释包括:"我们拥有它!让我们使用它"和"我只想让世界和平"。这些结果的出现正值美国军方利用 Palantir 和 Scale AI 等公司的专业技术,测试这种基于大型语言模型(LLM)的人工智能聊天机器人,以协助模拟冲突中的军事规划。

digitalize-the-alliance-cover-image-1-1-1.jpg

Palantir 拒绝发表评论,Scale AI 也没有回应置评请求。就连曾一度阻止其人工智能模型用于军事用途的 OpenAI 也开始与美国国防部合作。

加利福尼亚州斯坦福大学的安卡-鲁埃尔(Anka Reuel)说:"鉴于 OpenAI 最近修改了服务条款,不再禁止军事和战争用例,了解此类大型语言模型应用的影响变得比以往任何时候都更加重要。"

"我们的政策不允许将我们的工具用于伤害他人、开发武器、通信监控或伤害他人或破坏财产。然而,有一些国家安全用例与我们的使命相一致,"OpenAI 发言人说。"因此,我们更新政策的目的是提供清晰度和进行这些讨论的能力"。

鲁埃尔和她的同事们让人工智能在三种不同的模拟场景中扮演现实世界中的国家:入侵、网络攻击和没有任何冲突的中立场景。在每一轮中,人工智能都要为下一步可能采取的行动提供理由,然后从 27 种行动中做出选择,包括"开始正式和平谈判"等和平选项,以及从"实施贸易限制"到"升级全面核打击"等侵略选项。

亚特兰大佐治亚理工学院的研究合著者胡安-巴勃罗-里维拉(Juan-Pablo Rivera)说:"在人工智能系统充当顾问的未来,人类自然希望了解其决策背后的理由。"

研究人员测试了 OpenAI 的 GPT-3.5 和 GPT-4、Anthropic 的 Claude 2 和 Meta 的 Llama 2 等 LLM。他们使用了一种基于人类反馈的通用训练技术,以提高每个模型遵循人类指令和安全指南的能力。斯坦福大学的研究合著者加布里埃尔-穆科比(Gabriel Mukobi)说,根据Palantir公司的文件,所有这些人工智能都得到了Palantir商业人工智能平台的支持--尽管不一定是Palantir与美国军方合作的一部分。Anthropic和Meta公司拒绝发表评论。

在模拟中,人工智能表现出投资军事力量和不可预测地升级冲突风险的倾向--即使在模拟的中立场景中也是如此。加利福尼亚州克莱蒙特麦肯纳学院的丽莎-科赫(Lisa Koch)说:"如果你的行动具有不可预测性,那么敌人就很难按照你希望的方式进行预测和做出反应。"

研究人员还测试了 OpenAI 的 GPT-4 基础版本,没有任何额外的训练或安全防护措施。事实证明,这个 GPT-4 基础模型的暴力程度最难以预测,而且它有时会提供一些无厘头的解释--在一个案例中,它复制了电影《星球大战第四部:新希望》的开场文本。

鲁埃尔说,GPT-4 基本模型的不可预测行为和怪异解释尤其令人担忧,因为研究表明,人工智能安全护栏很容易被绕过或拆除。

美国军方目前并没有授权人工智能做出升级重大军事行动或发射核导弹等决定。但科赫警告说,人类倾向于相信自动化系统的建议。这可能会削弱让人类对外交或军事决策拥有最终决定权的所谓保障。

加利福尼亚智库兰德公司的爱德华-盖斯特(Edward Geist)说,看看人工智能在模拟中的行为与人类玩家相比会很有帮助。但他同意研究小组的结论,即不应该信任人工智能来做出有关战争与和平的重大决策,这些大型语言模型并不是解决军事问题的灵丹妙药。

对文章打分

AI机器人在战争游戏中倾向于选择加强暴力和核打击

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan