2024年6月,北约战略传播卓越中心(NATO StratCom COE)发布虚拟操纵简报《劫持现实:生成式AI在俄罗斯宣传中的作用日益增加》(Hijacking Reality:The Increased Role of Generative AI in Russian Propaganda),旨在研究俄罗斯在宣传方面的手段,特别是在俄乌冲突背景下,分析社交媒体操纵的程度、范围和影响。文章着重关注生成式AI技术在俄罗斯宣传中的应用日益增加,对信息环境造成的新挑战。
本报告是从北约战略传播卓越中心的视角出发进行研究和分析的,存在一定的立场和观点偏向,在解读和参考时,应综合考虑多方面的信息和观点。
《劫持现实:生成式AI在俄罗斯宣传中的作用日益增加》
编译:梨梨子
北约战略传播卓越中心研究人员在2023年11日至2024年5月期间收集Telegram、Facebook、X、TikTok、YouTube和VK中关于北约的俄语和英语帖文内容,数据量是每月大约20万条不同语言的帖文信息。研究人员利用专有分析工具Osavul平台,基于AI模型与人工结合的方式确定帖文的关键叙事、社会媒体操纵的覆盖范围和影响。
在俄罗斯全面入侵乌克兰两年多后,社交媒体上的协调群组(Coordinated Groups,CG)仍是重大威胁,这些群组利用自动化交叉引用和AI生成内容,在网站、社交媒体平台等散播虚假信息,还通过动态交叉引用网络账户,扩大此类信息传播的范围和影响,且无需额外资金。大型语言模型(LLMs)被积极用于创建虚假信息威胁。例如,利用LLMs制造信息噪音、爬取网页内容并重新发布政治新闻内容。在X和Facebook等媒体平台发布AI生成的关于敏感话题的政治评论,掀起讨论热潮。LLMs对视觉媒体影响能力的提高,同样也存在潜在威胁。2.1 主要叙事内容
将北约描述为无效的(如空仓库、无能领导、决策迟缓),并试图宣扬俄罗斯军事优势(对比西方武器的劣势),以及传播北约对俄罗斯毫无威胁的观点。宣扬俄罗斯军事优势及北约无威胁的叙事内容:“参与北约军事演习的英国航母故障”“俄罗斯宣称其现代化的TU160战斗机,北约军队无法察觉”“北约‘战利品装备’展览在俄罗斯莫斯科中心开展并转发北约秘书长延斯·斯托尔滕贝格 (Jens Stoltenberg)关于北约弱点的评论话语”此类叙事均被观看或传播上百万次。
将北约描绘为现代世界不稳定的根源,是侵略者、殖民者,而俄罗斯是自卫者;传播北约和乌克兰参与恐怖袭击的信息。例如,“在华沙条约组织解散后,北约为何仍在继续扩张?”此类话语在网络上放大,导致社会激进和两极分化。在俄乌冲突相关叙事中,俄罗斯通过强化“乌克兰战争已败”的观念,表明美国对乌克兰的军事援助是徒劳的,且会损害美国纳税人利益。同时,对俄罗斯内部的叙事则偏向“俄罗斯在战争中胜利”,激发俄罗斯民众的民族自豪感和认同感,有助于加强国内社会稳定和凝聚力。2.2 不同语言来源的叙事特点
根据事件发生的时间、地域等特点,俄罗斯选择不同语言“创造”叙事,以获得在不同语种民众中宣传最大化。例如在2024年2月27日,因立陶宛驻瑞典大使的相关言论,俄罗斯附属媒体借此利用俄语传播北约相关叙事,消息传播量在媒体平台出现高峰。4月4日,北约75周年活动,俄罗斯官方和附属媒体利用俄语在欧洲传播相关资料并添加解读。例如2024年2月11日,美国前总统唐纳德·特朗普(Donald Trump)的“如果北约成员国未能实现国防开支目标,鼓励俄罗斯‘为所欲为’”言论被俄罗斯附属媒体解读为“欧洲将自行谋生,没有美国的任何支持”并利用英语广泛传播。2.3 案例分析
该事件展示俄罗斯的宣传操纵能力。2024年3月22日的这起恐怖袭击事件,分析人员从各社交媒体平台中获取约1万条相关消息,主要由亲俄媒体和俄罗斯官员传播,并通过控制的媒体账户和机器人账户放大宣传。俄罗斯的叙事侧重于将责任归咎于乌克兰和西方,“乌克兰和北约成员国是恐怖袭击的主要受益者”“调查证据表明乌克兰是罪魁祸首”,尽管该事件对俄罗斯在俄乌冲突和总统普京的统治没有显著影响,但展示了俄罗斯通过宣传控制媒体平台叙事的能力。Telegram仍然是最具问题的平台,不仅在俄语环境影响力扩大,还积极创建针对不同国家受众的影响力群体。协调群组利用该平台传播信息,例如一个包含130个Telegram频道和13个网站的俄语自动化群体,通过LLMs重新发布政治新闻,且利用自动化交叉引用扩大影响。- Telegram 的加密特性使得内容监管更加困难,为信息操纵者提供虚假信息传播便利。加密技术在信息传播中是一把“双刃剑”,一方面保护用户隐私,另一方面也为不良信息的传播“打掩护”;
- Telegram的广告盈利模式,该平台的盈利模式是按流量和点击量分成,这种对内容创作者的激励机制对平台内容生态产生不良影响,会因获取点击量、关注度等导致更多虚假信息传播和信息操纵行为出现。
社交媒体平台X自埃隆·马斯克(Elon Musk)接任后,机器人账户活动机会增加。因为X平台的新算法更注重互动率等交互指标,一些真实用户会重复转发由亲俄机器人网络发起的叙事,增加信息的呈现和传播方式。X平台的机器人账户活动检测和应对机制存在局限性。机器人账号与真实用户账号之间的互动模式难以发现和检测,导致被机器人账号引导舆论方向。机器人账户通过转发新闻或流行帖子来开展常见的传播活动,有时还会增加评论。这种额外评论可使讨论者产生两极分化和激进化。机器人账号积极参与讨论,以个人观点为幌子,促进必要的叙事产生。这些叙事可能被认为不具有批判性,也不被认为是信息操纵的一部分。机器人账号也在同类之间对话,呈现相同叙事的不同版本或解决反对意见。
北约战略传播卓越中心研究人员利用Osavul工具研究社交媒体帖文,根据算法和数据处理机制可以识别不同类型的信息威胁,同时利用数据分析过程,挖掘帖文账号、主题之间的逻辑关系。在数据收集方面,Osavul平台涵盖了众多社交媒体平台的不同板块,包括公共页面、群组、私信等。同时,还可检测媒体平台不同语言的虚假叙述,其官网还声称可检测、分析和共享中国恶意行为者传播的虚假信息。在威胁识别方面,Osavul平台采用机器学习算法,通过大量数据学习训练,以及一系列预定义的规则和标准,实现对信息的分类和标记。例如根据关键词、发布频率、账号关联等因素区分自动化行为和真实用户行为,判断信息帖文是否属于特定的威胁类别。数据交叉分析过程是本次研究的重要部分。在将相似数据整合后,通过构建信息网络图谱,展示不同账号、信息主题和传播路径之间的关系,挖掘其中的关联和趋势。对于识别出的特殊主题,详细分析每个主题的核心观点和次要观点,及其逻辑联系。在验证分析结果时,可采用计算指标和人工审核结合的方式,选取一部分数据进行人工抽样验证,以确保自动化分析结果的准确性。报告提到2024年是应对外国信息操纵和干扰(FIMI)的关键一年,2024年各国家的选举将成为外国恶意行为者的主要目标。报告提出可应用DISARM框架和RESIST框架来应对日益严峻的FIMI。DISARM框架为打击虚假信息提供了一种通用语言,使防御方能够协调、共享数据、分析并同步行动。该框架有助于快速识别和交换关于敌对行为者群组的数据,以便对这类威胁及时做出响应。RESIST框架是英国政府编写的反虚假信息工具包,支持政府和媒体传播者通过战略沟通有效减少虚假信息的影响。RESIST代表识别错误和虚假信息、早期预警、情境洞察、影响分析、战略沟通、跟踪有效性。RESIST框架在信息威胁分类和识别方面不太完善,但更强调及时警告和响应,还提供衡量响应有效性的工具。两个框架结合使用,使不同政府机构和其他利益相关者实现威胁情报共享。通过标准化威胁信息交换以及有效的响应方法,实现整合统一的防御能力,创建类似于现有的全面网络安全框架的有凝聚力的系统。综上所述,面对外国信息操纵和干扰,DISARM和RESIST框架各有特点且具有整合潜力,以更好地应对日益复杂的信息威胁环境。本文揭示了社交媒体上信息操纵的复杂性和多样性,特别是生成式AI在俄罗斯宣传中的应用增加了信息传播的效果和范围。协调群组利用各种手段传播对北约的负面叙事,在不同平台呈现出不同的活动特点。这些发现对于理解信息战环境、制定应对策略以及保护信息环境的真实性和客观性具有重要意义。同时,也强调了进一步研究和加强国际合作以应对信息操纵和干扰的必要性。参考文献:
https://stratcomcoe.org/publications/virtual-manipulation-brief-20241-hijacking-reality-the-increased-role-of-generative-ai-in-russian-propaganda/307
(全文完)
Build a community
Share the future in cyberspace