2024年美国总统大选后,大量用户因不满X平台(前Twitter)的党派攻击性言论转向去中心化社交媒体Bluesky。Bluesky未使用算法推荐内容,初期确实减少了极端言论和错误信息。但不到一年,该平台仍出现了回音室效应(Echo Chamber Effect)。
阿姆斯特丹大学的研究人员通过AI模拟实验发现,即使没有复杂算法,仅凭发帖、转发和关注等基本功能,社交媒体仍会自然分裂为封闭圈子,形成极化现象。他们构建了一个500名虚拟用户的简化平台,基于美国国家选举研究数据设定用户特征,并利用ChatGPT、Llama和DeepSeek等大语言模型模拟用户行为。实验运行1万次交互周期后,平台均出现了回音室、影响力集中和极端言论三大问题。
研究人员尝试了六种干预措施,如按时间顺序展示帖子或推送对立观点,但均未完全解决问题,部分措施甚至加剧了负面现象。华盛顿大学的学者认为,这一结果反映了“人性与社交媒体注意力动态之间的共振”,即使移除算法,系统架构仍可能保留毒性。
印第安纳大学的专家提出质疑,认为AI训练数据本身可能已包含社交媒体毒性,导致实验结果先天偏向极化。纽约大学的研究者则认为,尽管没有简单解决方案,但用户发布更中立的内容可能有助于缓解极化。
这项研究揭示了社交媒体极化的内在机制,表明仅靠技术调整难以根除问题,需结合多方策略应对。