文章介绍
内容摘要:当前以ChatGPT为代表的生成式人工智能等高新技术迭代发展的影响大幅提升,但背后“黑箱”化的算法及数据处理给数据安全带来极大风险。随着深度伪造信息对政府信息解读权的解构,视频信息生产与传播权力对个体的开放以及生成式人工智能无序使用,主流意识形态面临着各种侵袭,管制难度进一步加大。分析生成式人工智能发展机理蕴含的意识形态属性,能够深度揭示其对主流意识形态安全造成的冲击。新形势下推动人工智能产业健康发展,必须以主流价值观为基础,不断完善规章制度,规制产业发展方向、创新宣传模式,从而有力保障国家意识形态安全。
作者:黄日涵,华侨大学国际关系学院教授、博士研究生导师,数字经济智库执行院长;姚浩龙,华侨大学国际关系学院研究助理。
来源:《国家安全论坛》2024年第6期。
关键词:国家安全;意识形态安全;安全风险;生成式人工智能
新一轮信息革命正蓬勃兴起,特别是以云计算、大数据、人工智能等为代表的前沿技术多维创新、多点突破,在更广范围推动着思想、文化、信息的传播和共享。科技发展不仅给主流意识形态提供引领平台与传播阵地,也为某些消极乃至恶性思考提供生存与传播空间。特别是随着以ChatGPT为代表的生成式人工智能出现,相关技术通过革新人机交互模式、知识传播渠道等,开始颠覆式地影响信息传播。如OpenAI公司在推出颠覆式应用ChatGPT之后,其新产品Sora再次吸引了来自科技从业者与投资者的目光。作为一款能够依照提示词生成包含充分细节与色彩在内的影片的生成式人工智能,相较此前类似应用,Sora成功地在画质、长视频生成、多镜头一致性、学习世界规律、多模态融合等方面实现了突破,并能在一定程度上模拟物理世界中的物体运动和交互,被视为是朝着通用人工智能(AGI)迈出的重要一步。至此,生成式人工智能影响的信息领域囊括文字、图片、音视频等主要载体,对涉及信息传播的多个领域尤其是国家安全产生了巨大冲击。
信息作为价值观念的基本载体,其意识形态内涵会因传播主体的意志而产生变动,但技术发展能为这种变动提供适当伪装,使信息成为“特洛伊木马”,暗中撬动思维防线。因此,对新形势下技术赋能信息传播的路径及其可能具有的意识形态风险进行研判、预警和处理变得极为重要。全面贯彻落实总体国家安全观,坚持以政治安全为根本。意识形态关乎旗帜、关乎道路,是政治安全的核心内容。目前,既有研究已经关注到新兴技术的意识形态属性、对意识形态安全治理的影响等方面,其中少量文献对文生视频技术蕴含的意识形态影响进行了总结研判,但其归纳仍存在不足,且多集中于文本信息所带来的风险,未能预见到视频生成乃至元宇宙对意识形态安全的影响。因此,本文从生成式人工智能机理入手,探讨其对意识形态安全的影响,尝试探寻规制其运转的路径。
从文本到视频:生成式人工智能的意识形态风险来源
查探生成式人工智能对意识形态安全的影响,必须充分剖析技术背后的风险来源。
(一)产出信息的多元化:生成式人工智能影响能力增强
近年,以ChatGPT为代表的技术发展,推动生成式人工智能参数规模快速膨胀,能力边界不断扩张。从早期的自然语言理解对话能力、逻辑推理能力,再到后来文生图、文生视频,生成式人工智能能力不断涌现(图1)。如从最开始用以识别手写数字,再到后来各种卷积网络技术、深度学习的进步,Transformer模型大幅提高了模型规模和参数,拥有1750亿模型参数的GPT-3模型展现出极强的自然语言处理能力,DALL·E与Stable Diffusion展现出极强的图像生成能力,Sora更是大幅提高了大模型文生视频能力。
随着生成内容从图片迈入视频,技术的全息化与社会应用的全能化趋势逐步显现,生成式人工智能的影响能力大幅提高。一方面,从ChatGPT到Sora,生成式人工智能生成内容的质量、效率大幅提高,展露出朝着通用人工智能进步的美好前景。在此之前,视频生成往往是在给定材料的基础上进行时间维度的前后延伸,文生视频的质量较粗糙,对现实世界的还原度较差,通常只能生产静态短视频片段,用途极为有限。但OpenAI基于扩散型变换器模型(Diffusion Transformer),通过压缩Sora所要进行训练的视觉数据规模,降低训练难度,让模型一次“看到”许多帧,释放出卓越的扩展性能,并使其能够针对不同可变持续时间、分辨率和纵横比的视频图像展开充分训练,实现了生产画幅和构图质量的大幅提高。由此,Sora以类似模拟现实物理世界的方式,大大提高了视频生产的质量与篇幅规模,不仅能实现动态视角展开视频内容,更能对视频内物体进行长期追踪,以满足现实世界的物理规律需要;不仅缩短了通过人工智能制造视频甚至电影的效率,更为将来开发高效世界模拟器与数字世界打下了坚实基础。尽管当前Sora的生成内容仍会出现物理规律理解错误等问题,但在可预期的未来,生成式人工智能将在发展元宇宙、沉浸现实等方面拥有用武之地,通过全感官感知、多视角影响的方式,大幅提高对使用者认知的影响力,甚至以技术方式直接搭建除使用者外一切近乎真实的“楚门的世界”,从而导致现实与虚拟间的“第四面墙”被完全打破。
另一方面,“短视频社会”的时代背景为生成式人工智能发展提供了极大便利,深度链接社会发展过程。相较文本或图片,视频不仅搭载了更多信息,其沉浸感和代入感的提高令使用者更容易接纳所传递的信息,对认知的影响更加明显。报告显示,81.40%的受访者认为短视频已经成为人们获取知识信息的便捷方式,已然成为大多数人选择的信息搭载方式,而Sora等应用的出现正迎合了当前“信息碎片化”的社会潮流。首先,便捷的生成程序和碎片化的生成内容与年轻人的思维模式相吻合,生成式人工智能的人性化表达方式更能充分调动公众情绪、回应其诉求,加速人们思考的“去逻辑”倾向,导致理性思考被感性情感所淹没。其次,Sora的出现标志着视频生产权力的进一步扩散与下放,个体能够根据自身需要生产既定主题和规范的视频,信息传递变得更加便利,“感同身受”“身临其境”逐步成为现实。最后,生成式人工智能在文生视频、图生视频模式上的突破性进展,不仅能够大幅降低不同媒介之间信息转换的消耗成本,实现多媒介、多版本内容间生产和转化的智能化、传播与扩散的自动化,使公众传递信息的媒介选择更加多样,加速了新媒体产业的智媒化发展。
(二)数据处理的隐蔽化:生成式人工智能恶化数据保护态势
与传统技术机理相悖的是,采取深度学习等机器方式进行训练的人工智能大模型,其内部决策过程与结果输出模式十分复杂,缺乏可解释性与对应的透明度,被称为“黑箱”。这种“黑箱”式不透明的算法与数据处理模式带来许多问题。首先,可解释性的缺乏降低了恶意行为成本。“黑箱”中的算法和数据不仅提高了开发人员微调人工智能运转的难度,更让模型的国别化适配难度大幅提高:训练数据中蕴含的社会文化信息使其运转过程难以与使用者自身相吻合,难以避免输出“政治不正确”信息,这为意图通过该应用展开文化渗透的恶意行为提供了天然掩护。其次,不透明的数据处理来源不易追查,加大了跨境数据流动监管难度。随着大模型被用以开发生成式人工智能基底,其处理的数据规格与种类愈发繁杂,数据规模逐步扩大,带来的问题与隐患随之增多。当前,许多企业使用的数据来源不明确、内容不透明,数据清洗算法不规范,用户使用数据流向不明晰,部分企业更是通过第三方技术服务商搭建模型,或接入来源外国企业的应用编程端口(API)等形式获取专属服务,导致企业在训练和使用数据方面存在数据跨境流动与违规使用风险,增加了隐私数据泄露概率,各国数据跨境流动治理的低合作度更让监管难度大幅提高。最后,隐私数据保护困难诱发意识形态渗透。尽管各方陆续围绕人工智能企业的数据处理方式设立标准,尽量避免个人或机密数据泄露,如欧盟出台《人工智能法案》,要求企业时刻更新训练大模型的最新信息、遵守欧盟版权法以及报告用于训练其模型的数据信息,但并不能完全规避风险,大模型的自身漏洞已经成为导致隐私保护“溃堤”的“蚁穴”。研究发现,大模型在运行过程中可能出现输出部分私人数据的情况,获得模型访问权限的攻击者在某些情况下甚至可以直接提取私有数据。这些被提取的隐私数据不仅用以直接牟利,某些机密数据更可能成为境外势力刻画心理画像、对重要个体针对性展开策反的重要数据来源,导致数据安全荡然无存。
(三)资本影响的放大化:生成式人工智能成为资本竞争“战场”
人工智能产业发展的高成本为资本扩大影响提供了更便利途径。一方面,生成式人工智能产品成为资本竞争新战场,一些逐利资本大规模开发应用大模型激发行业乱象。《中国AI大模型创新和专利技术分析报告》显示,软件业、制造业及服务业等是中国大模型创新主体专利布局较多的行业,专利布局数量分别高达3.6万件、3.4万件、2.8万件。但其中有的大模型被吐槽是“翻译版ChatGPT”,输出内容不符合中文语境;有的大模型充斥偏见,甚至提供不客观的事实。一些资本控制下“跟风”草草上架的大模型尚未达到成熟标准,更未经历长时间的运转和检验便开放使用,极易出现回答内容失准、失实、失真等情况,甚至成为毒害正常认知的工具,潜藏风险难以根除。另一方面,尽管“人工智能+”与其他行业的适配度极高,但资本的逐利性会诱使企业研发诱导性应用,使用户过度依赖生成式人工智能,从而失去与不同观点的交流,甚至失去对主流意识形态的信任。生成式人工智能技术与应用主要掌握在大型科技企业手中,不可避免地受到资本追求利益最大化观念的影响。从技术逻辑看,生成式人工智能进行人机问答的底层逻辑,是在与用户的长期重复性交流中不断微调回答风格和内容,令回答内容适配用户风格因而具备个性化特征。这也促使生成式人工智能针对不同用户群体建立信息茧房。例如,为提高用户依赖度和应用流量,资本主导下的生成式人工智能可以通过筛选信息、微调立场等方式,调整输出内容风格,使产出的输出内容适配用户立场偏向,让用户获得“认同感”,倾向于选择该渠道获取更多信息并决策,进而形成正向螺旋,最终使用户为获得满足感与认同而更加依赖生成式人工智能,以致生活中出现任何拿不定主意的问题都交予该技术定夺,产生路径依赖。
技术预设价值观的亲资本特征,让用户陷入譬如消费主义等西方价值观的围攻当中,引导用户无节制消费。这一结果毫无疑问将为企业厂家带来极为庞大且忠实的用户群体,产生丰厚利润。同时,也为西方价值观的渗透提供了渠道。特别是在涉及意识形态方面的诸多问题时,生成式人工智能可能特别强调某一解释逻辑的正确性,并基于此前建立的信赖感,引导用户忽略背后蕴藏的错误思想而产生认可,最终影响用户失去对主流意识形态的认同。生成式人工智能高额的研发应用成本与要求可能进一步拉大地区间、群体间的“数据鸿沟”,加剧信息不对称、大数据杀熟、算法歧视等情况。从群体特征来看,特殊群体使用生成式人工智能应用频次相对较少,因而逐利性资本可能在应用研发与推广中忽略这部分群体的需求,致使该群体或地区不仅无法享受技术变迁带来的便利,更被阻挡在社会发展潮流之外,成为“数字难民”无法获取适配应用。伴随而来的是主流意识形态在这些群体中的扩散与影响被现实条件所限,价值引领能力难以发挥,致使相关群体或区域滋生不良情绪。
从表征到内涵:生成式人工智能诱发多重意识形态风险
技术从来都不是独立于意识形态而自主存在,技术与意识形态密不可分,与社会、传播和政治深度绑定。从技术研发到最终应用是一个政治的过程,即社会权力参与其中为实现自身的意图展开斗争的过程。人工智能技术发展与其他技术进步一样,也是一把“双刃剑”。要使正在发展中的人工智能技术服务社会发展,不致造成“反噬”,必须提前预判其对意识形态发展的影响。
(一)激化国家信息对抗,解构真相解读权
面对新媒体时代伴生的“后真相”乃至充斥引导性的“伪造真相”情况,真相或事实解读是政府引领社会舆论和意识形态保持正轨的重要方式。“后真相”现象泛起侵蚀、挤占主流价值观传播的空间与资源,通过煽动情绪、刻意贬低事实等方式,干扰主流价值观传播。因此,对社会信息进行真实性解读是摒除他国意识形态攻击的重要抓手。但生成式人工智能带来冗杂信息指数级爆发,给社会造成不可预估的信息污染,销蚀政府真相解读权,使得国家间信息对抗愈发激烈。
一方面,随着视频生成摆脱材料限制,“眼见不一定为实”,“代码化”的视频正成为信息伪造的新宠,仿真信息的自动化全天候生产与多样式传播将为信息“武器化”提供多样路径,国家间围绕真相解读权的斗争愈发激烈。当前,国家间舆论斗争愈发表现为技术之间的博弈。当优势方通过智能技术发展与互联网连接,围绕他者敏感议题持续不断地生成充斥意识形态色彩的视频、图片,展开信息战时,技术落后国通常只能“被动挨打”,对事件真相的解读将被数量庞大、难以辨别的视频信息所解构,从而深陷意识形态斗争泥沼。以Sora为代表的视频生成技术与人工智能驱动的语音克隆相结合,可能开辟一条全新的信息战线。如今,美西方国家不断通过深度伪造技术批量产出不实信息,并借助其国际传播主导权持续“捂嘴”中国的澄清言论。而生成式人工智能的出现很大程度上为其恶意攻击行为“助长火焰”,这使得中国意识形态安全防护受到严峻考验。
另一方面,在社会内部,极度仿真视频生成能力摆脱了物理硬件限制和平台限制下放至每个个体,将给公共舆论传播和引导带来新的挑战。信息时代,公众长期接受碎片化信息,大幅弱化了思考能力与辨别能力。随着信息冲击愈发娱乐化,公众思想极易被网络舆论所左右。大模型赋能下,深度伪造产品的质量精度越来越高,使用者可以通过恶意编造人物与场景信息,达到损害他人声誉、引领舆论发展乃至干扰选举等目的。例如,不久前美国总统大选期间,有民主党人冒充总统拜登致电选民,劝阻他们参加新罕布什尔州的民主党总统初选投票,以此为另一个民主党候选人争取优势。此外,还出现过伪造恶意视频抹黑拜登声誉的事件。考虑到技术与信息限制,平台和政府有关网络舆情视频的辟谣往往具有滞后性,特别是在短期热点舆情上更是如此,这给网络意见领袖情绪化、感性化解读舆情提供了可乘之机。公众作为旁观者,无法参与特定规则价值问题的讨论,只能在有反对意见出现时,通过参与某一方的意见来参与制定规则与影响公共事务。作为以受众本位诠释事件、具备重塑社会心理和集体认知能力的群体,网络意见领袖能够产生“意见气候”来引导舆情,更能通过信息的个性化表达和议程设置把持事实解读权,进而挑起社会敏感话题、掀起节奏。这将形成另类的“意识形态叙事”,而通过对视频文本材料进行主观注解与片面解读,歪曲甚至扭转特定信息的真实含义,将不断瓦解民众对主流意识形态和政府的信任,使其成为无法清晰意识到自己行为目的的“心理群众”中的一员。在缺乏引领的情况下,这些民众极易成为外国意识形态操纵的目标,成为瓦解主流意识形态叙事的“傀儡”。
(二)造成社会立场撕裂,侵袭意识形态主阵地
社会内部通常存在多样文化与多元立场,数字空间为不同思想提供了发声场地与交流渠道。实际上,意识形态与技术发展存在相关性,即遵循一定意识形态的个体必然偏向贴近相应观点的传播平台,传播平台也会选择性容许部分观点流转,通过推流进而获得更多流量与曝光度。而舆论纵向深度融入其他国家安全领域,舆论安全的丧失将直接或间接催生出意识形态对立等态势。因此,意识形态、技术与平台间的“默契”使得本身无害的技术会无意中承载乃至放大社会内部存在的偏见与裂隙,造成新一轮不同社会文化对立,进而冲击主流意识形态。该情况在生成式人工智能出现后更加恶化。一方面,作为依靠数据训练与以往沟通交流得出回答内容的程序,如果围绕同一问题得到的内容存在歪曲内涵或暗藏偏向性立场,被记录后这些“龌龊”便会通过“提问—回答”方式继续传递,呈现“全自动污染”情况。倘若蕴含偏向性意识形态的内容被大模型再学习,其模型训练将进一步被污染,输出的错误信息会回流至网络,成为未来再度被纳入训练的错误素材,最终造成观点的极端化与思维的偏激化,撕裂社会共识。另一方面,群体的不同立场必然导致他们围绕生成式人工智能的内容输出表达存在立场差异,从而难以凝聚共识,影响不同群体开展合作。
从社交平台运转逻辑看,虚假事件广泛传播背后的原因通常都是所载平台的逐利性扩散,但事件辟谣却难以获得同等关注与热度。“造谣”“传谣”与“辟谣”三者在投入与影响力上的极不对等让网络空间谣言传播难以遏制。而生成式人工智能进一步拉大了不对等性:造谣者训练制造谣言的人工智能机器,围绕热点议题产出涵盖视频与文本且具有一定逻辑的故事链条的信息,基于事件中的矛盾关系激化民众对热点议题特别是社会恶性议题的愤怒情绪。在缺乏信息交叉验证的情况下,这类舆情难以被迅速遏止,甚至可能成为“真相”被广为流传。随着“造谣”能力深化,人工智能甚至能根据事件内容中不同地域的社会矛盾,选择性地展开实时引导、热点引爆、“火上浇油”等行为,短期内制造多重谣言,不断挤占政府辟谣空间,最终侵蚀民众对政府的信任。一旦该技术被用于政治诋毁和操弄裂隙等行为,将进一步放大社会内部的消极乃至负面情绪,损害大众对主流意识形态的理解与接纳。
同时,生成式人工智能的信息生成特征与其设计依据的算法模型与数据细节紧密相关,从根本上决定了生成式人工智能应用并非“放之四海而皆准”。这类生产信息很难避免立场的偏向性,即围绕同一问题不同的生成式人工智能仍极有可能通过既定立场产生不同回答,其信息生产存在极强的社会文化色彩乃至意识形态色彩。跨国文化间的思维差异通常更为显著,但某些差异深埋在其向外输出的文化产品当中难以明察,会潜移默化地改变个体乃至社会组织对某些重要问题的看法。如美国曾推行的“文化帝国主义”,以西方主义为内核,以貌似道义至上的合法性为掩饰,基于知识性统治的叙事视角,以政治修辞作阐述,意在进行意识形态与文化渗透。而先进技术所具备的公共产品特质使高科技跨国公司的利益与其母国国家利益深度捆绑,进而在国家层面形成了“政企互赖”的基本结构。受国家属性影响,跨国企业必然在社会文化影响下,在旗下人工智能产品中嵌入既定的信息筛选标准与信息输出规则,从而实现类似公共外交的效果。考虑到不同国家生成式人工智能研究应用领域进度不同,倘若西方国家优势方在“黑箱”般应用中埋藏一定的思维路径导向,以用户使用语言、使用习惯为标注,通过特定的算法推荐针对性散播偏向性思考,将“文化帝国主义”数字化、智能化,构建“立场围墙”乃至“立场陷阱”,针对性培育乃至“圈养”固化思维群体,使其思想保守化、观点极端化,并通过歪解概念等方式恶意解构主流意识形态话语,辅之以算法全方位推送信息洪流,就可能形成对他国原有意识形态的冲击,掀起智媒时代又一次“阿拉伯之春”。
(三)强化资本逐利动机,加大全面监管难度
随着各高科技企业逐步瞄准大模型与人工智能赛道,应用生产效率与规制法律出台效率之间的不平等使生成式人工智能管制相对落后,无法及时应对可能的风险问题。当前,Sora和以GPT等大模型为根基的生成式人工智能的生产能力、应用能力正逐步从高科技企业扩散到国家、其他企业乃至有能力的个体手中,应用发展与运行的多元化使政府和企业的管控愈发困难,复杂度指数级上升,给主流意识形态带来结构性风险。
首先,作为一款以人机交流为基本模式的大模型,其能力外延仍在不断发展,但与用户间无限制的对话频率必然触发新的漏洞与危险,导致人工智能所生产的内容具有难以根除的危险性。生成式人工智能如今正朝着“多模态”“便携化”“普及化”方向发展,对应不同应用场景和需求变化的应用代码、数据库及外界物理结构让生成式人工智能不断产生新数据和新能力。但这种能力产生在时空上的不确定性让监管失去了预警作用,常常是用户触发应用漏洞或造成不利影响后,企业与研发团队才可能对其进行修正。
其次,随着大模型普及,生成式人工智能正逐步嵌入网络应用的各个角落,每时每刻都有难以统计的信息流在人机互动中产生、流动并成为又一轮人机交互的“基石”。但这些信息的特征、内涵偏见乃至错误言论难以被政府实时监控或清理,更遑论网络中充斥的“反串”言论增添了政府筛选清除恶意与违规信息的难度。个性化模型训练能力从高科技企业往个体的下放,使信息产生端口数量呈爆炸性增长,每个组织都能围绕自身信息建立对话大模型,其隐蔽性与可转移性不仅让线上数据管控难以为继,有限的政府监管与线下追踪也有心无力。
再次,巨大监管难度与隐藏的庞大利益让资本冒着风险牟利,甚至成为国家间信息对抗的重要组成。一方面,逐利性企业必然尝试“绑架”用户的使用倾向,通过在生成式人工智能应用的信息筛选、答案生成等流程中插入消费主义、攀比主义,影响使用者的购物选择、出行选择乃至认知倾向,借助使用者长时间建立的信任基础,恶意扭曲某些竞争企业的声誉,隐藏于己不利的消息,从而打造“良好”企业形象,为自身潜移默化地博取丰厚利润。另一方面,科技企业可能在部分应用中留下后门,即允许某些使用者绕过安全与身份信息审核,在未经用户允许的前提下,获取应用核心数据的路径。由此,看似开放共享的生成式人工智能可能沦为“特洛伊木马”。从信息流转路径看,用户在使用生成式人工智能时必然输出数据从而与电脑端实现交互。这种情况下,企业可以通过售卖后门或根据用户的使用信息获得其国籍、职业乃至身体状况等敏感信息并以此牟利。未来,生成式人工智能的物理形态将更加丰富,搭载相关技术的机器人必然成为教育、医疗等主力,在缺乏监管的情况下,可能成为西方意识形态渗透的路径。
最后,面对生成式人工智能,谁来监管与如何监管是重要问题。对于跨国界运营乃至传输数据的应用,不同国家围绕谁来监管与如何监管尚未达成一致,给应用过程中可能发生违规行为埋下了隐患。当前,不同国家对人工智能的监管程度有所不同,如美欧人工智能治理手段存在明显区别,前者施行“企业AI伦理自治”,展现出“企业友好型”及“弱治理”特征①;后者要求企业遵守官方规章制度,具有明显的“严治理”特征。这让人工智能使用数据的跨国流动合作面临障碍。尽管中国《生成式人工智能服务管理暂行办法》对在中国境内提供服务的人工智能提出了完备规范,但对源自国外的生成式人工智能的监管仍略显不足。同时,中国现有法律规章制度重点约束国内不良服务的应用,对跨国应用的全面监管还存在一些漏洞。
从规制到驯化:推动生成式人工智能发展与风险管控
习近平总书记强调:“必须把意识形态工作的领导权、管理权、话语权牢牢掌握在手中,任何时候都不能旁落,否则就要犯无可挽回的历史性错误。”面对迸发式发展的生成式人工智能以及其对意识形态主阵地、意识形态监管体系和意识形态引领权的挑战,可以通过价值引领产业发展、完善监管条例、规范化产业发展模式等路径,多措并举地实现发展风险可控、产业发展健康与价值实现。
(一)借鉴国际人工智能治理经验,确保科技与安全并行发展
平衡安全风险与维护技术创新环境,是推动人工智能发展平衡的重中之重。在这方面,欧美国家监管生成式人工智能、处理安全风险的做法值得进行借鉴。
欧盟强调以规则监管、规范引领人工智能企业发展,相继出台《人工智能法案》《通用数据保护条例》《数字服务法》等法案,从企业开发应用的透明度、对个人隐私的保护、强调信息披露等方面着手,明确企业不得在应用中预先设置价值偏好,尽可能摒除在应用设计层面存在的意识形态安全风险。同时,欧盟通过风险级别分类把握不同类型人工智能的监管力度,要求各成员国共同分享高风险人工智能的相关信息,包括关注公民过度依赖高风险人工智能系统,特别是决策者依赖提供信息或建议的高风险人工智能系统的可能情况。在促进人工智能发展方面,欧盟在各成员国建立人工智能监管沙箱(AlRulatorySandbox),尽量规避法律风险。此外,监管机构还可就具体规则如何适用于新产品向技术开发者提供指导,加速培育创新和竞争力,促进人工智能生态系统发展。
美国的监管观念较欧盟偏松,在人工智能监管方面更倾向于采用鼓励创新和事后监管的模式。美国政府认为,过于繁琐的法规只会被国内创新资源视为障碍并采取转移到海外等做法,因而通常让不同监管机构制定分散的监管措施,专注于提高企业的创新能力。但随着人工智能发展进入新阶段,美国政府也开始出台行政命令,尝试在联邦层面整合各方力量,推动人工智能创新与安全发展。相较欧盟注重整体监管,美国较少出台对私营企业的监管措施,而是注重解决安全风险与提高技术创新能力。如美国商务委员会通过《人工智能创新未来法案》,以公私合作等方式,在美国国家科学基金会、能源部和私营部门之间创建测试平台项目,共同开发人工智能模型,并允许科研机构向公众提供精选数据集等,最大化地激发民间的科研潜力,甚至调查美国科技巨头公司对人工智能企业的投资是否违反反垄断法,从而为中小型企业的创新行为提供广阔空间。
总的来看,美西方国家主张通过规范治理和多元共同治理两种路径应对人工智能安全风险,而《中国关于加强人工智能伦理治理的立场文件》明确以“以人为本”和“智能向善”为基本理念确保人工智能发展安全可控。为此,可尝试建立“中央统筹、多点开花”的监管机制,以平衡确保安全风险可控与助推人工智能企业创新之间的矛盾。一方面,可制定人工智能监管和研发标准,设立人工智能监管部门,制定模型研发、应用开发、应用运转流程对应规则,压实责任到研发企业和应用主体,并注重数据透明和隐私保护等,将监管落实到流程每一步,对可能的安全风险进行提前预警并加以解决。另一方面,应大力鼓励人工智能创新与发展,探索优化应用发展路径,积极搭建创新生态,强化人工智能的底蕴与能力。
(二)运用主流价值引领技术发展,切实保障内容生成安全可控
考虑到生成式人工智能的影响,在其发展过程中应强调价值引领、思维引领,以价值理性主导工具理性,从根本上降低其沦为意识形态武器的可能。
在算法训练方面,聚焦大模型搭建与训练过程,在不影响内容真实性与有效性的前提下,相关企业应当提高算法对主流价值观的训练与输出等级,嵌入主流价值观内容的算法推荐,强调科技伦理与“以人为本”的价值观念,避免生成式人工智能输出有害信息甚至伤害人类。同时注重在算法层面对输出内容进行立场侦测,设立反馈机制,直接核查输出信息的立场,提高模型安全等级。
在数据使用方面,应对生成式人工智能的训练数据进行高标准筛选,重点设立与主流意识形态相关的数据集,政企共建通用性质的高质量科学数据库。在高质量数据材料的基础上,企业应将主流意识形态材料作为人工智能的必要训练数据,并由政府建立督察小组,对企业使用的模型及数据展开监督与核查,在不影响企业发展方向的前提下,以维护国家核心价值观为标准,清理数据内的不良倾向。同时,政府与企业共同设立测试小组与检测标准,不定时地模拟外源式、饱和式攻击,检查模型是否有数据泄露情况,预防模型产生信息泄露乃至模型崩溃。此外,还可考虑发挥网络“意见领袖”的正向作用,合作产出视频,精细化传播受众,生活化传播内容,模范化传播模式,在新技术加持下打造全新的主流意识形态价值观传播渠道。
(三)完善制度规范产业发展,促进技术发展合理合规
目前,我国已出台《生成式人工智能服务管理暂行办法》《数据安全法》和《网络安全法》等一系列法律,对人工智能的训练和应用作出了详细规范,更对包括境外生成式人工智能服务、分级分类监管等此前缺少的内容作了补充性说明。但这些监管法规仍需要进一步完善。如欧盟出台的《人工智能法案》不仅依据人工智能应用对个体与社会的风险进行分级监管,对高风险的人工智能系统提出一系列合规性要求,并对不同的违法行为进行分类处罚,以避免打击初创企业或小微企业的创业热情。参考已有经验,未来制定关于人工智能意识形态属性的法律法规可从三个方面入手:首先是明确人工智能大模型合规的边界与具体细节,围绕训练数据中的主流意识形态内容比例、算法工程师的资格审查等内容进行详细规定,从根源上禁止使用恶意意识形态内容;其次是细化对境内外生成式人工智能服务的监管细则,进一步明确违规违法行为的类别与处罚标准,对内可通过搭建政企合作的监管联盟对可能的违规行为进行提前预判和提前处理,对外在联合国人工智能高级别咨询机构等国际组织中继续倡导全球人工智能倡议,推动各国共商共建共享人工智能发展与治理秩序,必要时可考虑推动建立地区性人工智能机构;最后是对境内外数据流动进行分类分级处理。
(四)善用大数据与人工智能,上下同心共宣主流意识形态
技术的“双刃剑”特性让生成式人工智能在开展意识形态工作方面拥有用武之地,能够在内容输出的个性化和宣传策略的灵活化方面实现突破。一方面,公众是信息的接收者,也是意识形态宣传的目标,但人们的差别认知与主观观念影响着意识形态宣传的实际效果。过往的算法大都只能通过简单的信息收集针对性展开信息推送,而触及个体的生成式人工智能可通过内容交互总结使用者的社会文化背景、价值观念取向等个性化习惯,从而形成独立的“用户画像”。在此基础上施行个性化、定制化宣传,将消融接收者的心理屏障。若辅之以灵活的宣传形式,如与受众社会文化属性更贴切的故事或习俗为蓝本,借助角色设定输出宣传视频或文本,则其内化信息将更自然。另一方面,生成式人工智能能够帮助政府更好地统筹社会意识形态发展方向,灵活调整宣传策略与内容形式,提高宣传效率。应进一步促进大数据与人工智能的深度融合,结合平台运转时的热点或爆点,总结出不同平台的运行模式及受众喜爱的内容传播特色,基于生成式人工智能的多模态生产能力,为不同平台打造独特的意识形态宣传内容和形式,增强传播效能。
促进人工智能服务意识形态,必然需要提高公民数字素养及对意识形态风险的抵抗能力。一是强化对弱势群体的特别保护,弥合数字鸿沟,推动数字平权。政企应合作共同开发适配不同人群的应用,开发适用弱势群体的应用模式,通过提示适用群体、强制信息验证精准识别使用者。网络信息平台应广泛使用动画演示、家长监护等方式,提高用户群体对可能的意识形态风险的预警。二是引导公民健康使用生成式人工智能,加大道德引领力度。教育场所与公职单位应首先就生成式人工智能风险开展教育,并将技术与应用中可能出现的意识形态风险警示放置在应用主界面中,以提高警觉度。三是建立风险信息监控中心,开通数字信息举报平台。为充分提高预警与检举能力,企业或平台可将意识形态风险举报作为兑换平台奖励或平台使用的电子虚拟货币的途径之一,并建立人机协同的风险信息审核机制进行核实。
如需下载,请点击阅读原文链接,跳转至知网
排版 | 赵兴岳
本文来源于《国家安全论坛》2024年第6期,本文转发内容为公益分享,服务于科研教学,不代表本平台观点。如有疏漏,欢迎指正。