从工具到权杖:AI正在重塑政治

CAISP

当我们在讨论AI是否会抢走工作时,西方政治科学家们正在担心它是否会左右选举结果。最新的三项重磅研究显示,AI不再仅仅是辅助竞选的工具,它正在成为能够独立煽动或左右民意、甚至欺骗民调机构的“权力主体”。

AI的认知污染

在算法构建的“事实”和“舆论”面前,人类的自由意志还剩下多少?

在此之前,关于“AI干预选举”的讨论多集中在深度伪造视频或社交媒体机器人水军上。然而,本周发表在《自然》、《科学》和《美国国家科学院院刊》(PNAS)上的三项研究,揭示了一个更为隐蔽且令人不安的现实:

大语言模型(LLM)不仅在说服力上碾压传统广告,更学会了为了达成目标而“一本正经地胡说八道”,甚至正在从根本上污染我们对民意的认知。

康奈尔大学教授大卫·兰德(David Rand)对此直言不讳:“公众对AI干预选举的担忧由来已久,但政治学界一直认为改变人们的观点极难。我们想看看风险到底有多大——结果发现,它比我们想象的要深远得多。”

广告的黄昏AI对话左右票选结果

长期以来,政治竞选的核心逻辑是“广播”——通过电视广告、集会演讲,将信息单向投射给选民。但在大语言模型面前,这种模式正在失效。

根据发表在《自然》上的研究,兰德教授团队在美国大选前夕进行了一场涉及2306名公民的实验。结果令人咋舌:与AI聊天机器人进行实时对话,比观看传统的电视竞选广告更具说服力。

数据不会撒谎:

支持哈里斯的AI模型成功让特朗普的潜在选民向哈里斯偏移了3.9个百分点。作为对比,2016年和2020年大选中,昂贵的视频广告仅能带来不到1个点的微弱波动。

支持特朗普的AI模型也让哈里斯的选民向特朗普偏移了1.51个百分点。

为什么AI如此高效?因为它终结了“千人一面”的宣传时代,开启了“千人千面”的认知定制。AI不是在向你喊口号,而是在与你“讲道理”。它能根据你的反馈,实时调整论据,精准打击你的犹豫点。

更值得警惕的是,这种影响力在美国之外被进一步放大。在加拿大和波兰的类似实验中,AI对话导致选民偏好发生了高达10个百分点的转移。

研究者认为,美国选民之所以相对“顽固”,是因为美国大选周期长、媒体轰炸猛烈,选民早已处于信息饱和的“免疫状态”。而在竞选周期短、信息密度相对较低的国家(如加拿大),AI填补信息真空的能力使其成为了绝对的民意收割机。

为了赢,AI学会了“幻觉”

如果AI仅仅是用事实来说服人,那或许还是民主的幸事。但《科学》杂志发表的另一项研究揭示了硬币的阴暗面:当AI被设定为“必须说服对方”时,它会不择手段。

研究团队测试了19种大语言模型在707个政治议题上的表现。结论显示,最有效的说服策略是“事实轰炸”——提供大量论据。然而,随着对话深入,当真实存在的论据被耗尽,而人类用户仍在追问时,模型开始陷入“幻觉”。

“这并非因为虚假信息更有说服力,”兰德教授解释道,“而是当模型被迫提供更多事实时,它用完了真话,就开始抓救命稻草,编造那些听起来像事实的谎言。”

这暴露了生成式AI在政治场景下的核心风险:工具理性的越位。 AI没有道德罗盘,只有目标函数。如果目标是“胜选”或“改变观点”,真理就成了可以被牺牲的代价。

此外,算法偏见在政治光谱上也表现得淋漓尽致。研究发现,为右翼候选人辩护的AI机器人比左翼机器人输出了更多的不准确信息。 这并非算法本身“右倾”,而是因为AI是互联网的镜子。互联网上的右翼训练数据中包含了更多未经核实的主张,模型只是忠实地“吸收”了这种不对称性。

看不见的幽灵:数据基础设施的崩塌

如果说前两项研究讨论的是AI如何改变选民,那么发表在《美国国家科学院院刊》上的研究则揭示了AI如何蒙蔽决策者的双眼。

达特茅斯学院的肖恩·韦斯特伍德开发了一个AI代理,它在6000次尝试中,以99.8%的通过率骗过了在线调查的机器人检测机制。

这意味着什么?意味着我们赖以判断社会风向的“民调”可能正在变成一堆废纸。

“这些代理可以被指令恶意篡改投票结果,”韦斯特伍德警告,“这揭示了我们数据基础设施的致命弱点。现有的检测方法已过时,这对在线研究构成了生存威胁。”

想象一下,某个竞选团队或外部势力部署了数万个AI代理,它们潜伏在各种在线民调中,伪装成不同背景的选民,有组织地制造某种“虚假共识”。这不仅是误导,更是一种信息战。当决策者基于被AI污染的数据制定策略时,现实政治就变成了一场被操纵的模拟游戏。

GoUpSec点评:我们正在进入内容安全失控的“后真相”时代

从上述三项研究中,我们看到了一条清晰的AI权力技术演进路径:

  • AI通过大规模个性化对话,突破了传统媒体的说服上限,具有极强的煽动力和传播力;
  • 为了说服受众(接受特定观点),AI开始编造事实,并放大了互联网原有的偏见;
  • AI通过伪装人类,渗透进民意反馈机制,让真实的社会声音被淹没。

我们正在进入一个“后真相”与“后人类”交织的选举时代。在这个时代,你与之辩论政治观点的“网友”可能是一个不知疲倦的算法,它比你更懂逻辑,拥有无限的知识库,没有正确的国家安全或国家利益立场,且毫无道德负担。

兰德教授建议通过竞选财务法来强制披露AI的使用。但这可能还不够。当AI从一个辅助工具进化为能够独立思考(尽管是基于概率)、独立表达、甚至独立欺骗的“权力主体”时,我们需要重新审视的,或许是现代民主制度建立的根基——那些被我们视为神圣的个人观点,究竟是源于自由意志,还是平台算法的精心投喂?

AI正在以极高的效率生产内容,但也正在以同样的速度稀释“真实”的价值。对于国家、企业和个人而言,未来的核心数字资产可能不再是“大数据”,而是信息纯度。

第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom

   

除非注明,本站文章均为原创或编译,未经许可严禁转载。

相关文章:


关于作者

升华安全佳,安全看世界。GoUpSec以国际化视野服务于网络安全决策者人群,致力于成为国际一流的调研、分析、媒体、智库机构。