试论述生成式人工智能(AIGC)对互联网信息内容生态带来的风险挑战及治理路径丨真题直击

文摘   2024-11-14 20:30   北京  

#真题直击  #互联网信息内容生态


题目解析

生成式人工智能(AIGC),是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,它可以凭借自主学习和自我优选的技术能力,实现较好的内容生成效果,在各个领域提供专业化、个性化内容生成服务。

然而,由于生成式人工智能的学习数据来源、训练方式路径、使用场景等问题,使其对互联网信息内容生态带来一定的风险挑战,以下将详细阐述及其治理路径:

①生成式人工智能不是一个默会的概念,需要有一两句话的阐述。

②题目直接问风险挑战,尽快过渡到题眼中来,可以附上一些原因解释。

参考答案的逻辑是按照内容生产的流程来划分的,即:来源-生产-集成-触达,也可以将具体的问题拆解开,逐一论述。



一、生成式人工智能对互联网信息内容生态带来的风险

01-内容信息来源:披露未许可和虚假信息的风险版权侵犯+真实性/准确性

AIGC的信息数据来源,是客观世界和主观世界的一种镜像投射。在这个过程中,有着来源合法性和过程合理性的投射原理


对AIGC的信息数据而言,它一方面来自于现实世界的数据,在他人意愿不确定性纳入进来之际,凸显产生了未被许可授权的风险。在数据资源方未许可之前,利用披露行为就会造成信息保护的争议,派生出“披露未许可”风险。


另一方面,来自于虚拟构想的信息数据,在与人类目标及价值观的对齐过程中,也可能出现不一致的情况。AIGC仅借助于算力工具,通过AI技术与虚拟环境不同的场景描绘、不同的元素讯息、不同的事件情节等相结合,演化成为数据集的种种缺陷,并不经意间融入到内容生成的脉络中,产生一种虚假的场景信息,并作为异化的数据资源被反复使用到AIGC中,使真实与非真实的界限变得模糊,派生出“虚假不真实”风险。


02-内容生产主导:偏见放大和偏差隐藏的风险偏见/歧视/伦理风险/黑箱

AIGC的算法主体嵌入过程,是一种技术植入及主导内容生成的过程。在这一过程中,算法主体的固有局限和算法技术的固有缺陷,如同其他类型的风险传递一样,亦会递进演化为AIGC的风险源。


对AIGC的技术嵌入而言,它一方面受代码工程师和训练工程师的个体认知及习惯偏好制约,在AIGC算法嵌入主体固有局限的作用下,算法设计、训练数据选择、模型生成和优化过程可能存在一定程度的价值偏向、认知窄化、算法歧视等行为,经多轮交替演进和叠加之后,难免产生一种对不公平不公正放大的情形,即派生出“偏见放大”风险。


另一方面,AIGC的算法运行在很大程度上不透明,AIGC算法技术的固有缺陷被隐藏了起来,当智能化算法代码程序输出的结果越来越令人无法捉摸时,其中隐藏的偏差则难以被解释指明,即派生出“偏差隐藏”风险。


03-内容平台集成:被恶意使用和不道德取利的风险恶意利用:法治/商业

人工智能嵌入内容生成也是一种新的社会关系生产过程,特别是在AIGC跨界协作的情形下,它作为一种内容生成的革命性变化,重构着内容生产力的社会空间。在AIGC的空间重构过程中,平台方汇聚多种要素资源,包含算法开发方、APP运营方、互联网渠道方等参与到内容生成中,构成了新的协作关系空间。


一方面,智能平台通过组织统筹,将各关联方架构衔接起来,但在缺乏相关法律法规、治理办法作为依据时,或对智能平台的治理无序及管控失效时——比如不法分子把ChatGPT与网络欺诈结合在一起,编写钓鱼代码,加速非法软件、恶意软件开发,窃取隐私和实施网络犯罪——AIGC社会空间的取向就被异化,从而发生AIGC被恶意使用的情形,即派生出“被恶意使用”的风险


另一方面,使用AIGC还可能带来非道德的商业牟利,如以算法连接“碎片化场景”制造诱导性言语,产生大量令人信服却没有事实根据来源的内容,从事网络炒作、用于商业博取“眼球”注意力,实施不正当的商业营销,产生不道德的取利等。这时,AIGC社会空间被不正当利用,派生出了“不道德取利”的风险。


04-生成内容触达:造成知识产权保护与数据安全风险版权保护+隐私/安全

一方面,随着越来越多的用户使用AIGC写论文、写文案、写作业、写诗歌、写代码、写新闻、写评论等,知识产权保护面临严峻挑战。无论自然人所创作的内容,还是AIGC等人工智能生成的内容,只要能满足前述构成要件都可以构成作品。但由于AIGC生成内容的独创性难以判断,我国法院在司法实践中对此也存在不同理解,导致作品认定方面存在盲区。


另一方面,AIGC的超强算力和专业技能如果被不法分子利用,将给数据安全造成严重威胁。一是侵犯个人隐私。AIGC在未经账号主体允许的情况下将个人数据用于第三方平台,涉嫌侵犯个人隐私。二是泄露企业与国家机密。用户可能在无防备无警觉的情况下,在提交请求时输入涉密信息。三是威胁网络安全。AIGC等具有降低准入门槛、扩大恶意黑客的群体规模,将恶意软件攻防提高到一个新的水平,导致恶意软件生成自动化、诈骗文本生成智能化、虚假情报海量化、新型攻击隐蔽化等问题。


二、风险挑战的治理路径

01-促进智能媒体技术创新技术自身维度

我国应大力推动智能媒体技术创新。


第一,加速关键核心技术自主创新。紧扣世界人工智能技术前沿发展趋势,对接媒体融合和国际传播国家重大战略需求,结合传媒产业发展和全球市场需求,在信息采集、生产、审核、分发、交互、测评等领域加强技术和应用研发。


第二,建立智能媒体发展创新机制。鉴于传统主流媒体在技术方面并无优势,需要加强与互联网企业高等院校和科研院所等机构的合作,加强科研成果转移转化,通过产学研用协同攻关,提升主流媒体的智媒创新能力。


第三,强化智能媒体技术价值引领。始终坚持传播技术发展的人文导向,确保技术背后的价值观不发生偏离。在充分利用生成式人工智能技术赋能媒体发展、满足市场需求的同时,也要凸显社会责任,体现主流价值,彰显人文关怀,促进智媒向善。


02-加强人工智能社会规范法律规制维度

需要规范人工智能技术及其应用健康有序发展。


第一,出台人工智能产业立法。例如2022年9月,深圳制定了全国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》(2023《生成式人工智能服务管理暂行办法》)。


第二,完善其他相关立法。例如,对著作权法作进一步规定,允许通过合同机制确定人工智能背后的设计者、开发者或投资方等享有控制权的主体成为著作权人,但同时也应对所生成的内容负责,如果存在侵害现有作品著作权或其他违法行为,同样应当由著作权人来承担相应责任。


第三,完善人工智能伦理规范。将伦理道德纳入人工智能研发和应用的全过程,增强全社会人工智能的伦理意识和行为规范,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。


03-提升社会公众智媒素养公共素养维度

面对数字时代的信息洪流,公众要增强对智能信息的解读、应用和批判能力,使媒介更好为社会和个人服务。提升公众智媒素养的主要任务在于弥合智媒使用鸿沟。随着越来越多的用户开始使用人工智能产品,如何使用智能媒体成为比是否使用智能媒体更加重要的问题,关于智能媒体的知识、技能和使用模式差距受到更多关注。提升公众智媒素养的更高目标是缩小智媒驯化沟。


一方面,人们在驯化数字技术趋利避害、为我所用方面存在差异;另一方面,个体在如何更加克制地连接、防止过度连接方面也存在差异。因此,公众在人工智能时代需要进一步彰显人的主体性,形成更加理性的人机关系,通过人工智能技术赋能人的全面发展。



应对生成式人工智能的种种已知的、未知的种种风险,其治理依据还是需要回归到AIGC的价值本源层面。AIGC在于为人服务、造福人类,而非超越人、悖于社会。应加强生成式人工智能的派生风险管控、协同共治,迭代优化治理理念和机制,坚持试点先行和分类分级有序推广并重,在建构负责任治理体系中始终保持价值理性,推动形成人民满意、社会安全的治理框架和规范。如果说生成式人工智能是一幅浩瀚的科技画卷,其动人之处当刻画在人类价值理性归宿下的治理图景中,以增进人类价值。【结尾:一句话总结/观点找补/金句,忌空话、多话】




新传考研小小班
小而美的新传知识共享平台,考研er、保研er不可错过。
 最新文章