操纵舆论、炒作话题……网络水军为何仍隐蔽活跃?

时事   2024-11-30 08:19   北京  

来源 | 人民论坛网-人民论坛杂志
转载请注明来源

“网络水军”是个热词。但这个“水军”长啥模样,恐怕许多人并不清楚。比如,淘宝上的好评,可能是刷单;直播间的众人疯抢,可能是买来的流量;豆瓣上的高分电影,评论可能是假的;微博上的社会事件,可能隐藏了关键信息……几乎每个网络平台上,都有水军的身影。

近年来,随着信息传播技术的飞速发展,网络水军借助各种新技术、新手段、新平台,操纵舆论更隐蔽、更高效、也更难以辨别。人工智能时代网络水军带来哪些危害?如何彻底根治?一起来看!

网络水军的四个发展阶段

网络水军是指那些由商业利益驱动,为达到如影响网络民意、扰乱网络环境等不正当目的,通过操纵软件机器人或水军账号,在互联网中制造、传播虚假意见和垃圾信息等网络垃圾意见产生者的总称。网络水军是一种通过人为手段攫取网络影响力服务于私人目的的工具,其方式是充分利用UGC的机制和特点,通过各种手段,如针对网络情绪化消费需求编制特定内容,配以惊悚标题“博眼球”,从而吸引网络关注和流量,并不断“自我论证”最终达到攫取网络影响力的效果。随着互联网的迅猛发展,网络水军作为一个独特的现象,其演变与技术进步、媒体环境的变迁以及社会需求的演化紧密相连。网络水军从最初的粗糙操作逐渐演变成模式化、产业化的新趋势,这一过程不仅揭示了技术与社会需求相互作用的结果,还反映了互联网时代信息传播的复杂性和多样性。以时间线为脉络梳理网络水军的演进历程与特点如下:

初始阶段(2005-2009年):论坛时代兴起,影响力有限。早期的网络水军源于2005年前后在网络论坛和社区中活动的网络推手,他们主要通过创建管理多个账号进行定向发帖或回帖、散布虚假信息、恶意传播信息等手段以达到某种目的。这一时期,网络水军的操作相对简单,主要依赖数量取胜。因其在网络论坛和社区有一定的影响力,开始有人雇佣他们推广产品或服务。但由于当时的互联网用户相对较少,加之技术限制,网络水军的活动并未形成大规模影响,相关报道和公众的关注都比较少。

发展阶段(2009-2010年):社交媒体时代兴起,开始组织化和商业化运作。随着技术的不断发展和微博等社交媒体平台的兴起,网络水军开始利用辅助软件实现账号的批量注册、自动发布、管理多个账号等功能,在微博等平台进行操作。这一阶段的网络水军逐渐走向组织化,形成专业的团队和公司,开始被更多商业利益所利用,除了发帖和回帖,还通过转发、评论、点赞等方式迅速扩散信息或观点,如通过刷好评提升产品销量,或通过散布负面信息打击竞争对手等,为客户提供全方位的网络推广和舆情管理服务。他们还招募大量普通网友或收买控制某些实名认证账号代为发帖,在网络上发布虚假信息、刷评论等,以达到某种目的。比起初始阶段,这个阶段的水军模式成本低、客户范围广。

爆发性增长阶段(2011-2015年):社交媒体深度应用,开始专业化和协同化运作。2011年至2015年期间,社交媒体平台的功能不断丰富和优化,尤其微信的启用和普及,为网络水军提供了更加多样化的操作手段。例如,通过策划话题、发起投票、组织线上活动等,有效吸引网民参与并操纵舆论方向。在这个阶段,网络水军开始呈现出更明显的专业化和协同化特征,越来越多的网络营销公司提供专业的网络水军服务,业务范围涵盖品牌推广、形象塑造、舆情控制等多个方面。同时,网络水军的操作手法也更为精细,包括制造假新闻、使用僵尸粉等手段,其隐蔽性和迷惑性也大大增强。

产业化发展阶段(2016年-至今):AI技术介入,开始产业化和模式化运作。大数据和人工智能技术的应用,使网络水军的行动更为精准和高效。网络水军开始采用更加隐蔽的手段操控网络流量,如通过模拟正常用户行为规避平台监测,或是利用AI生成的内容进行互动,其危害性和隐蔽性都显著提高。通过使用AI技术,网络水军能够生成更加逼真的账号、自动产生大量具有针对性的内容,甚至模拟人类的情感和反应进行互动。这种技术的使用大大降低了人力资源的需求,同时提高了操作的效率和隐蔽性,使得对网络水军的检测和管理变得更加困难。这个阶段的网络水军活动呈现产业化、模式化的趋势,从事网络水军服务的公司提供从内容制作到发布、推广的全链条服务。随着全球化的推进,网络水军的活动也逐渐跨国化,一些组织开始面向国际用户提供服务,参与全球范围内的信息战和舆论争夺。

人工智能时代网络水军的特征及其危害

人工智能时代,网络水军呈现出新的特点和发展趋势,不仅影响信息的传播方式,也对网络生态和社会秩序产生深远的影响。

自动化与智能化助推产业化发展。随着人工智能技术的发展,网络水军开始使用更加复杂的算法和自动化工具来模拟真实的用户行为,如使用人工智能生成的内容、自动化脚本以及程序化账户来模拟真实用户的活动,从而提高其活动的隐蔽性和效率。无论是在日常养号期间,还是在执行大规模网络任务时期,网络水军需要大量文本支撑其操作,而纯人工编写不仅成本高昂,效率也难以保证。利用AIGC(人工智能生成内容)技术,网络水军能在极短的时间内产出风格多样、表述丰富的文本,不仅降低了成本,还提升了整体的工作效率。AIGC(人工智能生成内容)通常具备多种强大能力,诸如文本生成、风格迁移、摘要提炼、语言翻译等。其显著特性是对自然语言交互的支持,网络水军只需输入简单的提示要求,就能引导模型生成各种类型的文本。这些模型在语义理解方面的准确性极高,能够依据输入的指令生成高度相关的内容,极大降低了专业门槛。更值得一提的是,它们还能利用背后庞大的语言模型,汲取海量知识,为生成的文本提供详实的数据说明和精准的文献引用。因此,智能化与自动化使得网络水军的产出低成本高效能,而且数量庞大,助推网络水军的产业化发展,同时极大地增加了辨别的难度和成本。

AI自动生成虚假评论和帖子,溯源和识别难度大。为了逃避监控和审查,现代网络水军采用高度隐秘的操作模式和更高级的身份伪装技术和策略,比如使用虚拟身份、动态IP地址切换、以及模仿正常用户行为模式等方法来隐藏自己的真实意图和来源,使得侦测和追踪变得更加困难。利用先进的AI技术,如循环神经网络(RNN),网络水军可以通过模拟人类行为模式来操作社交媒体账户,使这些账户看起来像是由真人操作的,这项技术使网络水军可以自动生成几乎无法被检测出的虚假评论和帖子,从而绕过平台的自动监测系统。他们还使用Deepfake(深度伪造)技术制作看起来非常真实的视频或音频内容,这些内容可以用来冒充知名人士发表的言论,影响公众意见,也可以冒充普通民众发表观点,主动或跟风造势。

精准目标用户定位和投放,规避平台检测。人工智能时代的网络水军成员通常具备较高的网络技术和营销能力,能够熟练运用各种工具和平台,借助大数据分析和营销技术精准地识别和定位受众目标,并根据受众的兴趣和行为习惯实现信息的定向传播,从而更有效地影响特定群体的观点和行为。同时,他们使用高度发达的工具和软件,配合自动化脚本和程序,能够迅速且频繁更改其IP地址,或使用临时账号和一次性手机号码等,在众多设备进行操作,有效规避平台检测。

内容及行为模式多样,影响舆论。除了传统的评论、点赞等行为外,人工智能时代的网络水军操作手法变得更加多样化,不仅发布原创内容,还能迅速模仿热门话题或流行格式,吸引流量和增加用户参与度。他们可以生成各种类型的内容,从简单的状态更新到复杂的互动评论,内容多样化且针对性强,并且能够根据目标群体的兴趣和关注点进行调整。通过精心策划一系列相互关联的帖子,使用特定的标签和话题,主动吸引和引导公众的注意力,从而在短时间内将某一内容推至热门,实现对网络舆论的操纵和影响。

没有既定立场,随意操纵舆论。网络水军往往受经济利益驱动,通过制造虚假的热度和趋势影响消费者或民众的观点与决策。因此,网络水军本身并没有既定的立场,他们的行为完全取决于特定的利益。通过产生大量的虚假信息和评论,网络水军极易扭曲公众对真实情况的理解,导致错误的判断和决策。在产品和服务评价方面,虚假的正面或负面评论都可能误导消费者,影响他们的购买决策,损害消费者权益;在政治立场方面,网络水军还可能基于某种价值观,推动特定议题的舆论导向,甚至通过制造大量的虚假信息和评论,影响公共意见的形成。

聚合效应强,负面影响大。网络水军通过大规模的信息传播,能够在短时间内形成强大的舆论压力,影响公众事件的发展和社会观点的形成。

第一,网络水军的行为往往缺乏公正性和客观性,他们的言论和行为主要是为了迎合雇主的需求而刻意制造出来的,这使网络上的信息变得混乱和不真实。

第二,网络水军的存在使一些原本应该被公众关注和讨论的问题被淹没在大量的水军帖子中,从而导致公众对这些问题的关注和讨论程度大大降低。

第三,网络水军的行为对互联网的影响力造成负面影响,当公众发现网络上的大量信息是由水军制造出来的,他们对于网络信息的信任度会大大降低。

第四,在媒介平台各种信息营造的拟态环境中,持续的虚假信息和负面言论的传播可能逐渐侵蚀社会信任和公民的道德标准,导致公共空间的讨论质量下降,尤其年轻人和不成熟的用户容易受到网络水军生成内容的欺骗和影响,对其价值观和世界观产生不良影响。

如何治理网络水军?

人工智能时代,网络水军的治理和应对策略面临新的技术挑战和机遇。人工智能技术的利用使得网络水军活动更加高效、隐蔽,传统的治理方法已难以完全应对,必须结合先进技术和社会法规进行多维度的治理与应对。

加强监管和惩治力度,完善相关法律法规。目前有关部门已经开始采取措施打击网络水军的行为,但由于技术的快速发展,现有的法律法规存在一定的滞后性。与此同时,网络水军的行为引发了关于信息真实性、商业诚信等方面的道德讨论,加剧了社会对这些基本价值的担忧和反思,道德问题的复杂性凸显。首先,加强针对网络水军活动的立法,明确网络空间中的合法与非法行为界限,增加公正性和透明性,确保所有措施都在法律和道德的框架内执行,避免滥用权力和侵犯人权的情况发生;其次,加强监管和惩治力度,让网络水军为其行为付出高昂代价,加大执法力度,提高其违法成本;再次,政府和相关机构应加强联合,促进网络安全、信息监管和执法部门的协调与合作,共同打击网络水军活动,确保网络空间的清朗,让真正的社会热点得以呈现,维护健康的传播生态和公共讨论环境。

不断创新技术,优化现有识别工具和技术。随着人工智能和机器学习的发展,要不断研发和创新技术,并优化现有工具,对网络水军的行为进行识别和监控。这就要求改进现有的监控和分析工具,使其能够更精准地识别和处理网络水军产生的各种形式的内容。一方面,利用机器学习算法对网络行为进行模式分析,准确识别社交机器人及其背后的网络水军。另一方面,进行实时监控,及时发现并阻止恶意信息的扩散。与此同时,社交媒体平台和搜索引擎可以改进推荐算法,减少虚假信息的传播,优先展示高质量、可信度高的内容。

引入区块链技术,提升信息溯源能力。区块链技术的去中心化特征意味着没有单一的权威机构控制整个系统,这有助于建立更加公平和透明的网络环境,其分布式账本技术允许所有参与者访问相同的数据副本,这增加了数据的透明度,使得任何试图操纵信息的行为都更容易被发现,比如,其不可篡改性确保信息的一致性和准确性,从而有助于防止网络水军通过伪造数据误导公众,使新闻和评论更加真实可信。与此同时,通过多重数字签名等技术,区块链技术可以有效地验证参与方的身份,减少匿名行为,并确保只有授权用户才能访问敏感信息或执行特定操作,这能有效提升抑制不诚实行为、打击网络水军的匿名活动、针对不实信息和敏感信息的溯源、建立可靠的信任网络的能力。

平台应加强实名验证和用户行为分析。社交媒体平台应加强实名验证和用户行为分析,强化内容审核机制,及时发现和处理虚假信息及不当言论。实施更严格的身份验证机制,如实名制可有效减少匿名账户的滥用。而通过分析用户行为模式,识别其包括短时期内集中大量发帖或发表评论的异常行为,标注和识别可疑账户,同时建立高效的内容审核机制,确保用户发布的内容符合社区准则,及时移除违规内容。平台可定期公开平台规则,以及处理网络水军的具体措施和惩罚规则,让用户了解什么样的行为会被视为不当,并公布处理网络水军的最新情况进展。

完善和简化用户举报机制,及时反馈。鼓励公众积极参与打击网络水军的活动,简化举报流程,提供便捷的举报机制,让用户能够快速报告可疑行为,并给予及时反馈。建立有效的激励机制,鼓励公众和网络平台积极举报网络水军活动,鼓励用户参与监督,通过正规渠道反映问题,支持正面的声音,通过社会力量的广泛参与共同净化网络环境。

提升公众媒介素养与意识。在学校和社区开展媒体素养教育,教授公众如何辨别虚假信息,了解和认识网络水军的危害,培养批判性思维能力,并提供防范建议。除了教育,还可通过公共宣传等活动提高公众的网络素养及其对于网络水军的认识,培养辨识并抵制网络水军信息的能力,减少其影响。同时,鼓励个人在分享信息之前核实其真实性,对信息来源进行审视和筛选,避免无意中传播虚假信息或卷入网络水军信息流。

强化企业社会责任意识,制定危机管理计划。强化企业社会责任意识,对雇佣网络水军进行不正当竞争的行为坚决制止和惩戒,鼓励企业专注于提升自身产品和服务的质量,注重品牌建设和口碑营销,通过提供优质的产品和服务赢得消费者的信任,减少水军的负面影响。同时建立健全的危机管理体系,一旦遭遇网络水军攻击,能够迅速作出反应,及时澄清事实,挽回公众的信任。



上文略有删减
选自 | 《人民论坛》杂志2024年第21期
原标题 |
网络水军的发展演进及其特征研究
作者 | 中国社会科学院大学新闻传播学院教授、中国社会科学院新闻与传播研究所研究员 雷霞
新媒体编辑 | 赵光菊

原文责编 | 李一丹





欢迎关注人民论坛网视频号

近期精彩视频↓






点点赞

人民论坛网
人民日报社人民论坛智库全媒体平台,中央重点理论(新闻)网站,提供有价值的思想!
 最新文章