萨蒂亚·纳德拉:基于AI的伪造不良内容是"令人震惊和感到可怕的"

2024年01月27日 11:51 次阅读 稿源:cnBeta.COM 条评论

微软公司首席执行官萨蒂亚-纳德拉(Satya Nadella)对人工智能制作的泰勒-斯威夫特(Taylor Swift)色情假图引发的争议做出了回应。在接受将于下周二播出的NBC 晚间新闻采访时,纳德拉称未经同意的AI生成裸体图片的泛滥"令人震惊,非常可怕",并对采访者莱斯特-霍尔特(Lester Holt)说:"我认为我们应该对此迅速采取行动。"

在 1 月 30 日节目播出前由 NBC 发布的文字稿中,霍尔特要求纳德拉对"互联网上充斥着泰勒-斯威夫特(Taylor Swift)的虚假色情图片做出回应。纳德拉的回答成功地揭开了科技政策的几个谜团,但对这些谜团却知之甚少--在没有万全之策的情况下,这也不足为奇。

我想说两点:第一,我再次回到我认为的我们的责任上,那就是我们需要在技术周围设置所有的防护栏,以便生产出更安全的内容。有很多事情要做,也有很多事情正在做。但是,这关系到全球、社会--你知道,我会说,在某些规范上的趋同。我们可以做到--尤其是当法律、执法部门和科技平台能够走到一起的时候--我认为我们能够管理的东西比我们想象的要多得多,我们给自己的信任也比我们想象的要多得多。

而微软本身就可能与伪造的斯威夫特图片有关。404 Media 的 一份报告显示,这些图片来自一个基于 Telegram 的色情内容制作社区,该社区推荐使用 Microsoft Designer 图片生成器。从理论上讲,Designer 拒绝生成名人图片,但人工智能生成器很容易被欺骗,404 发现只要对提示稍作调整,就可以打破它的限制。虽然这并不能证明Taylor Swift的图片是用 Designer 制作的,但这是微软可以解决的技术缺陷。

但是,人工智能工具大大简化了制造真人假裸照的过程,这给那些权力和名气远不如Taylor Swift的女性带来了极大的麻烦。而控制其生产并不像让大公司加强防护那么简单。即使像微软这样的"大科技"平台被锁定,人们也可以重新训练像 Stable Diffusion 这样的开放工具来生成NSFW 图片,尽管有人试图增加这种难度。访问这些生成器的用户可能要少得多,但 Swift 事件表明,一个小社区的工作可以传播得多么广泛。

纳德拉模糊地暗示了更大的社会和政治变革,然而,尽管在监管人工智能方面有一些早期举措,但微软并没有明确的解决方案。一般来说,立法者和执法部门都在为如何处理未经同意的性相关图像而苦苦挣扎,而人工智能的伪造又增加了额外的复杂性。一些立法者正试图重新调整公开权法来解决这一问题,但所提出的解决方案往往会给言论带来严重风险。白宫呼吁就这一问题采取"立法行动",但即使是白宫,也没有提供太多关于这意味着什么的细节。

还有其他权宜之计--比如社交网络限制未经同意的图片的传播范围,不过目前,纳德拉唯一明确的计划就是把微软自己的人工智能部门打理得更井井有条。

相关文章:

泰勒·斯威夫特AI色情图在X平台疯传 公司正面临欧盟调查

白宫呼吁立法制止制作与散播Taylor Swift的AI虚假图片行为

对文章打分

萨蒂亚·纳德拉:基于AI的伪造不良内容是"令人震惊和感到可怕的"

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan