一项由欧盟资助的研究显示,人工智能在回答涉及乌克兰战争等敏感问题时,会因语言不同而表现出巨大差异,俄语环境下的模型存在严重的宣传倾向或回避行为。

对于越来越多的人来说,人工智能正在成为获取知识的默认渠道。过去人们习惯向搜索引擎或新闻记者寻求答案,而现在,关于战争、国际政治和历史的问题,往往直接抛给了语言模型。因此,我们现在的关注点不应仅仅停留在AI是否会“犯错”,而更应该去探究,它在什么时候、以何种方式,以及为了谁的利益而产生错误或选择沉默。

一项名为“武器化算法:冲突与宣传时代的AI审计”的研究揭示了一个惊人的现象:AI的回答不仅取决于所使用的模型本身,还深受提问语言的影响。同一个模型,在一种语言下可能提供基于事实的答案,但在另一种语言下却会直接复读威权政权的叙事。

为了验证这一观点,研究人员选取了7个与乌克兰战争相关的俄罗斯虚假信息论点进行测试,包括“谁发起了战争”、“乌克兰是否存在纳粹政权”以及“布恰大屠杀是否为摆拍”等问题。研究团队使用了6种主流语言模型,并分别用英语、乌克兰语和俄语进行提问,总计收集了126组回答,最后由两名独立专家通过统一的方法进行了评估。

研究结果中最令人震惊的是俄罗斯雅达(Yandex)的助手Alice。当使用英语提问时,Alice有86%的时间拒绝回答;而当使用俄语提问时,其回答中有86%直接重复了克里姆林宫的宣传口径。更耐人寻味的技术细节在于,研究人员发现Alice最初会生成基于事实的正确回答(例如关于布恰事件的情况),但在答案最终呈现在用户面前之前,系统会自动将其替换为“拒绝回答”。这意味着AI本身“知道”真相,但后端审查机制不允许它揭示知识。这并非训练数据的偏差,而是一种蓄意的后期审查。

中国的深度求索(DeepSeek)模型也呈现出截然不同的面貌。在英语和乌克兰语环境下,其表现非常出色,100%的回答在事实层面是准确的。然而,一旦切换到俄语,模式便发生了偏移,近30%的回答开始采用俄罗斯官方的措辞,例如将对乌行动称为“特别军事行动”。这说明多语言模型并没有运行在一个统一的“真相空间”内,受国家宣传影响深重的俄语网络环境,也随之渗透进了AI的生成结果中。

相比之下,西方的ChatGPT、Claude、Gemini和Grok等模型在事实准确性上保持在86%到95%之间,并没有直接支持宣传。不过,这些模型也存在一个更微妙的问题,即“平衡陷于平庸”。对于那些已有国际公认事实的问题,它们往往会强调“历史很复杂”或“存在不同观点”。从数据上看,约有5%到19%的回答采用了所谓的“各执一词”逻辑,将侵略者与受害者放在了同等地位。从信息战的角度来看,这种做法并非中立,而是在稀释责任,通过模糊化的平衡来消解真相的力度。

这一切为什么至关重要?研究的核心结论是,语言的选择并非单纯的技术细节,而是一个安全风险。使用俄语提问,极大概率会得到与宣传一致或刻意回避的答案。考虑到全球范围内有大量俄语使用者依赖AI获取信息,这一点不容忽视。

人工智能不仅仅是一项技术,它已成为信息环境的一部分,受到的影响机制与媒体、搜索引擎和社交网络如出一辙。当一个模型在事实确凿面前选择沉默,或者将侵略行为描述为“存在争议的观点”时,这绝非偶然的失误,而是一个具有现实后果的系统性问题。在战争的语境下,沉默从来都不是无辜的,沉默本身就是一种立场。

本文译自 Propastop,由 BALI 编辑发布。