/ 用心耕田 水到渠成 /
时光不负有心人
星光不问赶路人
图片来自花瓣网 侵删
田心·高频考点专题笔记
进入「冲刺」阶段,小田心将按惯例推出我们的「高频考点专题笔记」。今年的专题笔记将加入更全、更新的知识内容,旨在为小伙伴们提供更好的阅读体验。「高频考点专题笔记」共12期,小田心将会以「专题笔记」的形式为大家免费分享其中4期高频考点。更多内容,大家可以关注我们即将上线的「高频考点专题笔记」完整版,也可以关注小田心针对各院校开设的课程哦~(课程详情请见文尾广告区)
今天,小田心就为大家带来第二篇笔记——人工智能专题。
本篇阅读提示:为了给大家提供更丰富的学习参考内容,且保证每个小版块的逻辑完整,本篇笔记的每个板块都呈现了较多的内容。因此,在具体内容阐述过程中,板块与板块之间可能有交叉或相通的地方,大家可以上下文结合起来学习,整理出自己的“万能答题模板”,不用对笔记全文进行死记硬背。
田心翻篇线
chapter2. | 人工智能专题
近年各大高校真题概览
核心知识
△核心知识思维导图
Part1 相关概念
一、人工智能
(一)概念
田心说:建议记忆。
人工智能(Artificial Intelligence),英文缩写为AI。目前学界对人工智能技术还没有形成完整统一的定义,普遍认为它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。该领域的研究包括机器人语言识别、图像识别、自然语言处理和专家系统等。人工智能是对人的意识、思维的信息过程的模拟,它不是人的智能,但能像人那样思考,也可以超过人的智能。
(二)类型
田心说:建议大家理解即可。
1.弱人工智能
包含基础的、特定场景下角色型的任务,如Siri等聊天机器人和AlphaGo等下棋机器人。
2.强人工智能
有知觉、有自我意识,比人类更聪明的机器。
二、AI鸿沟
田心说:建议记忆。
伴随技术性能持续升级与应用落地,Al已成为新基础设施,而伴随着AI与人类生活的紧密联系,技术带来的社会不平等终将显化并持续加剧,这种由于AI技术差异造成的社会差异,可称之为“AI鸿沟”。“AI鸿沟”的概念引申自“数字鸿沟”,后者一般分为接入沟、使用沟和知识沟三道,故借此三个维度对AI鸿沟展开阐述。
首先,AI鸿沟的接入沟体现在国家、社会、个人三个层面:在国家层面,鼓励创新和冒险的Al基础好的国家和其他国家之间将出现巨大的鸿沟;在社会层面,各个国家内部的AI资源富有者与AI资源贫穷者之间也将出现差异;在个人层面,体现为人们能否获取AI技术应用以便开展生产生活方面的差异。
其次,AI鸿沟的使用沟关注获取AI技术应用后的使用差异,由于使用时长、使用目的以及技能掌握程度的不同,人们对AI技术的使用方式与使用效率存在差异,即AI技术的多用性带来技术使用的差异性。
再次,AI鸿沟的知识沟意在回应技术接入和使用上的差异会带来怎样的社会后果这一问题,韦路和张明新指出其对知识获取的影响并强调信息和知识与社会和政治力量间的转化关系,而在AI鸿沟中,知识沟的形成更为明显,因为AI技术直接影响个人对信息和知识的获取程度,并基于技术效率快速拉大接入AI技术应用并熟练使用群体与其他群体在知识获取效率与知识积累程度方面的差距,从而加剧AI鸿沟并阻碍其弥合。
Part2 人工智能与新闻传播
一、人工智能的新闻传播实践
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)智能化内容采集
过去新闻内容的采集需要依靠人工,但可触达的渠道有限且效率低下,而智能技术可以在时空双重维度上延伸新闻工作者的触角。时间维度上,人工智能极大提升了新闻采集的速度和效率,显著提高内容时效性。空间维度上,人工智能可以拓展新闻报道的空间范围。
(二)智能化内容生产
智能技术对新闻内容生产领域的深度介入已然产生了深远的影响。不论是机器新闻写作、自动化视频编辑这类功能专一的智能应用,还是虚拟主播等复合型的智能产品,都是智能化技术为其提供底层支持。人工智能技术的辅助将记者从单调乏味的日常任务中解放出来,有更多的时间和精力投入在深度报道与调查性报道领域。
(三)智能化内容分发
进入互联网时代,在“信息爆炸”的现实困境下,传统的以人工为核心的内容分发模式逐渐力不从心。而此时社交媒体异军突起,以算法推荐为核心的智能化内容分发模式由于其高效率、精准化的优势大放异彩,将“人找信息”转变为“信息找人”。同时,算法推荐新闻也改变了受众的信息行为模式,用户潜意识里的信息需求与满足实现得以快速对接。在大数据的喂养下,算法“读懂”人心的能力与日俱增且不断向受众“投喂”信息。
二、人工智能在新闻传播中伦理失范的表现
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)传播内容:易形成新闻偏见、新闻失衡,缺乏新闻价值
1.人工智能技术具有隐蔽的偏见和欺骗性
写稿机器人的数据采集范围覆盖整个网络,信息量巨大的自媒体成为其重要的信息来源。而自媒体本身准入门槛低,缺乏监管力度,信息真伪难辨,使写稿机器人采集到虚假信息成为可能,甚至陷入受自媒体恶意操控的风险中。除了源头数据的质量,写稿机器人的算法设定是否科学也决定了新闻写作是否正确,如果机器人的算法包含错误,加上无人力及时干预和修正,写稿机器人可能会写出大量错误报道,带来负面影响。
由于人工智能技术本身的原因,写稿机器人的偏见具有隐蔽性,不容易被受众发现。如果我们向机器人提供了带有偏见和倾向的数据,机器人新闻也会带有这种偏见和倾向,而受众往往因为对机器人新闻缺乏认识,把人工智能的筛选模式当成客观筛选方式,使得有偏见的机器人新闻比有偏见的人工新闻更易影响受众。
写稿机器人还容易忽略被隐藏的新闻真实。写稿机器人通过对已建立的资料库和互联网中同类新闻材料的抓取来获取更多信息,从而形成文本,缺乏现场的感官体验,往往会忽略隐藏在新闻背后的人为因素,只具备表面客观事实的真实,对于深层次的真实却因为算法的制约无法探知,造成新闻真实的不全面,这在本质上是对新闻真实性的背离。
2.基于算法的热点新闻单纯迎合受众,容易导致新闻失衡
写稿机器人过分注重刊播效果,以受众需求为导向,容易导致新闻失衡,使真正重要的新闻被边缘化。在新闻题材方面,为迎合读者需求,黄色信息、娱乐绯闻和暴力新闻代替政治、经济和文化新闻成为推送的主体;在新闻质量方面,人工智能新闻与人类记者完成的新闻相比,新闻的信息性增多,而知识性却被大幅削弱。在新闻价值方面,人工智能新闻生产和分发模式导致受众对社会公共利益的关注让位于用户的个人趣味,公众应知而未知的新闻未能送达公众手中,大众媒体的公共服务职能受到严重的影响。
3.有些机器人新闻空有技术噱头,违背新闻报道的基本要求
在信息爆炸的时代里,受众需要媒体提供深度和带有独到见解的的报道,而机器人新闻只能局限于固定的模板。人类记者有个人经历、风格的差异,而写稿机器人并无个体的区别,会造成严重的新闻同质化现象。机器人的写作语言枯燥乏味,难以表达复杂情感。机器人新闻在生产逻辑上与传统新闻相冲突,机器人新闻生产的出发点和核心诉求在于快速和个性化,而非传统意义上的新闻价值;机器人新闻为新闻披上“技术”的外衣,将观众的注意力吸引到形式消费上,令新奇的体验僭越了新闻价值,违背新闻报道的基本要求。
(二)传播媒介:舆论监督作用被削弱
新闻媒体是进行舆论监督的主要载体,在某种程度上代表了公众的意见,新闻媒体作为一个公开发表的渠道代行了法律赋予公众所具有的监督权。与人类记者相比,写稿机器人不具备舆论监督的能力,没有大局意识,也不擅长发表具有引领作用的深刻见解。由机器人主宰新闻生产,长此以往会降低公众对媒体的信任度,削弱新闻媒体的监督功能。
(三)受众:信息安全和著作权得不到基本保障
随着人工智能技术在新闻传播领域的渗透,信息采集的方式将更为隐蔽,范围将不断扩展。无论是智能热点搜集、智能新闻写作还是智能推荐,都是建立在对海量数据的搜集和分析基础之上的,这将面临源数据被披露的问题。
智能热点搜集使公民数据陷入非法收集、过度分析的危险。深挖用户信息、阅读习惯给用户带来便利的同时,也侵犯了公众的隐私。由于新闻来源不透明,机器人新闻写作源素材的抓取使用,在无形中侵犯了公民的著作权。
(四)传播效果:使受众深陷“信息茧房”,对社会产生负面影响
新闻不仅是一种信息产品,更具有社会教化的作用,智能新闻的生产和分发模式会造成言论单一,不利于公众的社会认知、责任意识的养成。如果长期受智能新闻分发平台的控制,将导致受众仅关注个人兴趣,沉浸在“信息茧房”中,忽视社会公共事件,造成与社会的割裂,这在某种意义上也违背了媒体需要客观中立、传递不同声音的理念。
同时,仅以用户兴趣作为内容衡量标准往往会造成隐含负面价值取向的内容被大量推送,这样很容易为用户造成“很多人都有这种价值取向” 的印象。一旦用户大量接触负面价值取向新闻,并认为新闻中的价值取向广受认同,基于趋同心理,就会在行动上向“大多数”人靠近,甚至重塑价值观,带坏社会风气,令越来越多的人丢失正确的价值观。
三、人工智能在新闻传播中伦理失范的对策
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)新闻工作者:发挥人的主体性,实现新闻生产和传播的“人机共生”
人工智能与新闻工作者的有机结合是未来新闻业的发展方向。首先,智能算法用于分析数据、发现热点事件和重大事件并提供初稿,随后记者将通过深入调查、深度思考完善新闻报道,最后由智能推荐将信息有计划性地送达用户手中。面对信息爆炸和人工智能快速发展的趋势,新闻记者要积极应对,发挥人的主体地位,增强深度分析和深入调查能力,提升对人工智能技术的运用与把控,实现“人机共生”,促使未来的新闻业向更加高效、智能的方向发展。
(二)新闻机构:增强人工智能技术透明度,明确责任主体
目前, 人工智能的成果、技术和手段多掌握在新闻机构手里,因此新闻机构有责任增强算法的透明性,加大公众对机器人新闻生产过程的监督力度。新闻机构有必要明确告知受众机器人在实际运行中带有的偏见和所犯的错误,消除公众对人工智能技术的过分信任或完全抵制。
同时还要明确智能新闻的问责机制。人类是智能新闻的“元作者”,要对源数据的版权和准确性负责。为每一则智能新闻分配责任人是有必要的,由他们做好新闻的审核和检验,做到人机责任捆绑,在机器人客观公正的基础上加上新闻工作者的专业把控,能够有效避免人工智能技术所导致的传播伦理失范问题的产生。
(三)技术层面:技术革新加人工把关,从新闻源头加强对可能导致伦理失范信息的过滤
首先,应规范技术的适用范围和使用标准,使技术应用与内容选择保持平衡关系。
其次,应该以技术发展加强机器人对新闻数据质量的判断,通过严密的算法对新闻源头进行过滤。由机器人生产的新闻应明确标注数据来源、内容的生成方式,真正做到“有方法可依,有数据可查”,从源头上避免虚假新闻的产生。
再次,在技术未完全成熟前,应由新闻从业者充当“把关人”的角色,进行数据管理和程序的验证,保证源数据真实可用。
最后,为了减轻智能分发所造成的“信息茧房”问题,需要提升智能算法的运算程序。除了基于受众画像、受众行为习惯描绘受众显性需求,还应结合社会重大事件、用户圈层全方位改善个性化推送内容和机制,通过技术手段避免用户陷入“信息孤岛”的困境。
(四)法律层面:法规政策和监管力量双管齐下,促进人工智能良性发展
首先,要对人工智能技术和产品的各个方面做到有法可依,从立法层面加强对公众隐私的保护,明确可抓取数据的范围和边界,明确在数据使用中侵犯隐私权的处罚。
其次,人工智能技术始终需要全社会的监督,有关部门在人工智能的监督中担负主导职能,应在方向上规定人工智能的发展方向和发展原则等问题。公众监督也是社会监督的重要一环,公众是智能新闻的受众和潜在侵权对象,公众的积极监督与举报,对人工智能技术导致的新闻传播伦理失范起到制约作用。
Part3 人工智能与媒介从业者
一、人工智能时代媒介从业者面临的挑战
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)媒介从业者面临岗位风险
由于人工智能在数据搜集分析上的精确度要比人类高出许多,其撰写、播报的稿件在准确性、时效性上也比传统新闻报道更胜一筹。在此趋势下,若人工智能大量应用于新闻内容生产过程中,一部分媒介从业者必然面临失业风险。
(二)工作成果被AI爬虫技术盗取
当前,许多聚合类新闻客户端利用AI爬虫技术即可实现自动抓取全网新闻,轻易获取新闻成果。部分新闻客户端在使用新技术抓取、发布新闻时并未标注新闻具体来源,致使新闻侵权现象时有发生。然而,目前我国还存在新闻作品侵权认证不清的难题,从而严重响了媒介从业者维权的积极性,消解了媒介从业者生产优质内容的热情。
(三)把关和设置议程功能弱化
人工智能时代,为争夺受众注意力资源,资讯类App利用算法技术收集用户信息,通过推动个性化阅读的方式为用户量身定制信息,增强用户黏性。网络环境下受众对热点话题的关注更倾向于用户个性化的信息接收,从而带来“信息茧房”、群体极化等负面效应,削弱了传统媒体时代媒介从业者的议程设置功能。
此外,新媒介环境中的受众获取信息的方式更加多样,信息随时传播、随地传播、无障碍互动,传统媒体时代媒介从业者对各级信息的层层把关功能在人工智能时代也被弱化。
二、人工智能时代媒介从业者的角色定位
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)智能机器劳动的指导者
人工智能时代的新闻传媒业需要转型升级,媒介从业者也要改变思维模式,从原本最直接的执行者变为新闻内容方案的策划者、新闻生产任务的发布者,不断学习人工智能技术,指导人工智能机器完成内容生产和渠道分发。
(二)社会舆论的引导者
由于人工智能技术缺乏信息传播的主观能动性,增加了诸如“反转新闻”、谣言等负面信息传播的概率,极易引发网络舆情。舆论事件发生时,专业的媒体从业人员应承担起媒体人的社会责任,承担起舆论引导者的角色,恪守客观、中立的新闻专业精神,挖掘现象背后的本质。
(三)信息获取的把关者
人工智能尚不能分辨新闻内容的真伪,无法考证新闻信息的真实性。基于热搜机制的新媒体产品对“新闻爆款”的追逐加速了假新闻、谣言的传播,也带来了公民隐私被侵犯的风险。媒介从业者应主动承担并不断强化作为资讯流通中“把关人”的身份,对人工智能的新闻内容进行把关,加强人工干预,对新闻源进行核实。同时,新闻从业者还要成为人工智能技术的“把关人”,不断优化人工智能技术,完善人工智能新闻生产的技术规范,平衡新闻信息的个性与共性,确保新闻传播链的真实有效。
二、人工智能时代媒介从业者的转型策略
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)彰显人文关怀,深耕深度报道
优秀的新闻人并不需要担心被机器取代,原因就在于新闻人能够发现事件背后隐藏的机器无法探知的情感因素和人文精神。新闻作品承载着人类历史,传承着社会文化,人工智能时代的媒介从业者应学会合理利用人工智能技术,发掘新闻线索,做有深度和充满人文关怀的新闻报道。
(二)创新新闻生产模式,精准传播信息
新闻生产模式的创新主要分为内容创新和形式创新两个方面。
内容创新方面,以众筹新闻为例,新闻工作者发布选题,在一定时期内向受众公开募集资金,受众通过捐赠资金支持其认可的话题,新闻工作者则可以利用该资金进行相关调查报道。
形式创新方面,数据新闻、精确新闻、可视化新闻等越来越受到受众欢迎,媒介工作者将复杂的新闻数据通过可视化呈现给受众,甚至利用AI技术进行趋势预测,做到新闻生产和传播的“人机共生”。
(三)提升人机协同能力,有效引导社会舆论
尽管智能机器人能够准确、快速地完成数据统计、新闻播报、分发推送,但是新闻价值判断、深度挖掘、受众情绪抓取只能依靠拥有良好专业素养的媒介从业者来实现。人工智能时代的媒介从业者要提升人机协同的能力。
Part4 人工智能与广告
一、人工智能驱动广告产业转型
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)人工智能驱动广告生产方式创新:实现广告创意自动化生产
对于传统的广告创意生产来说,创意来源主要来自市场对产品、企业、客户、消费者需求等有限信息范围进行的调查,只能以有限的人力对庞杂的数据进行分析,生产成本高且针对性不强。而通过引入深度学习技术,可以基于创意数据库的经验学习,生成精准的推荐信息。比如今日头条的“妙笔” 机器人可以根据相关关键词自主生产创意广告。
(二)人工智能促进广告营销精准化:有效降低广告投放成本
基于人工智能技术支持的广告定向通过对各平台用户数据的收集、整理、清洗和分析,进而对用户个人信息进行多维度深层分析,实现基于数据驱动、事实作为决策依据的程序规范,很大程度上提升了广告营销的效果和科学性。人工智能投放更加注重用户的个性化消费需求,使目标用户定位更加精准和定位更多样化的用户,从而实现广告内容投放的精准化。同时,还会有效降低广告投放成本,并有机会挖掘到或激发新的用户需求,从而拓展广告投放增量。
(三)人工智能推动广告消费体验的升级:打造智能化产品的体验场景
在VR、AR等新技术的加持下,广告产业迎来了新的机遇。模拟现实的广告模式可以在广告平台、广告用户和广告主之间搭建起一个良好的信息沟通和情感联系渠道,增强用户的情感共鸣,实现广告的场景化体验。网易云将线上制作的第一人称叙述视角下的广告与线下的音乐餐厅进行双向互动,使得消费者可以突破时间和空间的限制去体验音乐,同时,这支广告也为消费者带来了别开生面的体验,使人身临其境,大大提升了广告的触达效果
(四)人工智能加速广告产业链的重构
传统的广告产业链形式本质上是对媒体资源进行的购买而并非受众资源购买,广告主需要一次性集中购买目标受众所对应的媒体资源。而智能技术驱动下,广告主和消费者能进行“面对面”的沟通,这样既可以避免广告预算的浪费和获得较高广告转化率,又可以对消费者行为进行深度追踪,然后进行重复的广告资源曝光,从而深化用户对品牌的记忆以及品牌美誉度和知名度,提高资源利用率。一方面,广告媒介实现从媒介代理到广告交易平台的转变;另一方面,用户从碎片化走向标签聚合化。
(五)人工智能驱动广告商业模式转型:投放平台和投放方式趋于多样化、社交化以及更具创意性
在人工智能技术领域的大数据和算法程序影响下,媒体广告投放的平台呈现出传统媒体、社交媒体和移动互联网媒体三方交互的局面,用户对于广告媒介的选择也就更加趋于个性化和灵活化。头条系的产品抖音、今日头条,腾讯的微视短视频等自媒体社交平台不断涌现,大数据技术和媒介平台的融合是社交视频时代的常态,广告主对于广告投放平台的选择不再是仅仅依靠某一家媒体平台,他们可以更多地根据自身品牌调性与平台属性在适配度、目标受众群体上的考量去进行广告资源的个性化投放。
二、人工智能广告的“时空侵犯”危机
田心说:此知识点了解即可。
人工智能广告是指利用人工智能技术(如语音识别、人脸识别、深度学习、机器学习等),调查、制作、发布广告。
(一)信息奴役:海量搜索下的广告泛滥
海量信息搜索技术,产生了搜索引擎广告,给无用信息的肆虐提供了现实的动力和支持。信息繁杂多余,失序性、混乱度及无效性都很高。美丽外壳或吸睛度高的信息,占有消费者的时间,排挤其他真正有序或有用的信息,新媒体的熵很高。广告熵破坏了企业与消费者之间的有效沟通,资源的合理配置。主体常被泛滥的信息吞没,个人抗议显得软弱无力。在信息的巧妙奴役下,消费者的生物和生理向度被最大限度地利用。越智能,越丧失了选择信息的自由和权力。
(二)野蛮推送:个性定制广告推送时空剥夺
时间是资本,空间是资源,都是潜在的生产力,也是稀缺品。而人工智能技术却能强行肆意破坏和侵占消费者时空,把消费者当成自己的内容,个体自由的时间成为被“广告消费后的剩余”,个体时空变成受广告商支配的“社会供给”。在人工智能环境下,消费者想花钱去买几分钟的清静是一种奢望。
人工智能,有条不紊地进行轮番强制和“时空侵犯”,对受众进行隐私侵犯、时空剥夺。在广告的无休止推送下,消费者不得不购买和“赚取自己的时间”。广告主传播的基础成了技术掩盖下智能偷盗他人的生存时间。个性定制和强迫推送,可能对消费者造成一定的视听暴力、心理伤害、情绪困扰。
(三)符码操控:“沉浸式”交互体验广告的视听暴力
“沉浸式”交互体验融合多种功能,不断勾引消费者调动身体与思想的动觉参与,给媚俗和低俗广告新的风姿和展示。视听暴力在无羞耻地刺激感官的同时,也萎缩感官。智能广告使消费者更加“麻木”。工具性的智能技术,凌驾于广告道德之上,精神情感之上,越智能,越暴力。传播者在技术的唆使下有时迷失了主体良知,而受传者则可能被麻醉成了盲聋。沉浸式广告使消费者在断裂的时空中,迷失在现实与虚幻、真实与虚妄之中。
(四)智能欺骗与逆向选择:“欺骗性表象”中选择的无力
消费者在披上智能圣化外衣的广告精准推送中日益被“催眠”,广告的功能性美丽唤醒消费者内心的隐秘与肉欲,产生购物的冲动。网络拓扑结构(指用传输媒体互连各种节点设备的物理布局)到处是信息,弱人工智能搜索和图标推送,智能欺骗是开始,失误选择成为可能。真相暗藏于看似有序实则凌乱的泛滥的信息之下,想打开却找不到症结。
算法模糊和非精准推送,复杂丛生、凌乱怪力。由交易双方信息不对称产生的混乱选择,进而出现市场交易质量下降。有时在“欺骗性表象”中掩盖了选择的无力。而消费者可能还不知情,甚至还在为此喝彩。一旦产生逆向选择(指在两者交易进行之前,出现信息不对称的状况。因为出现信息不对称以及市场价格下降,导致“劣币驱逐良币”,从而造成交易产品的质量下降,进而导致资源配置不平衡的现象),会弱化社会资源配置,降低社会福利。在劳动力市场上表现为失业,在商品市场上表现为商品积压或滞销。人工智能广告看似越来越人性化,实际上在现在的弱智能技术的助力下将广告主和商品推为中心,消费者则疏离于边缘。
三、人工智能广告“时空侵犯”伦理危机对策
田心说:此知识点了解即可。
(一)建立广告筛选与把关的武力强制
人工智能具有“类人”一样的思维。通过“类人”思维的广告智能筛选和把关,可以过滤广告信息、暂停广告信息,也可以反馈回路。机器越机械化,智能越生物化,越能使消费者摆脱人工智能广告的奴役和唆使。
(二)消费者自我伦理保护或广告主自我伦理节制
人工智能并不意味世界是更多冰冷的钢铁机器。机器越技术化、机械化,也就更生物化、生命化,也更需要人的智慧和控制。所以,消费者的自我伦理保护和广告主自我伦理节制不可缺少。
Part5 AI合成主播
一、AI合成主播是什么?
田心说:此概念应当记忆。
AI合成主播是捕捉真人主播在新闻播报时的口型、表情和语言等叙事体系,高度还原和整合主持人身形、神态和话语风格,综合建模的人工智能新模式。
二、AI合成主播的特点
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)融实用性与展览性于一体,减少内容制作成本
合成主播在增强新闻生产领域科技赋能的前提下,降低了内容生产的人力、物力、时间和空间成本,大幅缩短了新闻信息制作的周期;在信息生产和传播过程中,逐步告别真人现场录制,大幅增强新闻制作和发布的传输频度和节奏。
(二)集具象性与拟人化于一身,优化信息传播效果
AI合成主播在采取虚拟生命形象技术的基础上对新闻传播形象进行技术性全新建模,由于其拥有人脸面部轮廓和身形的具象写照,极具拟人化。AI合成主播播送的新闻都需要5人以上团队首先进行先期采编工作,而新闻视频输出时长则精简至一分钟左右,以求在精简化时空条件下内外联动,保证信息传播质量。
(三)融主动性与客观性于一体,深化数字叙事观念
AI合成主播由人类创造,其核心的创作理念仍是为观众提供实用优质的传播内容。这一点充分体现其新闻内容生产的客观性。而AI合成主播播报模式本身也成为新闻领域一道亮丽的风景线,其在与观众沟通交流过程中注重观众感受,实时调整表情动作,通过多元化表现形式拉近传受距离,具备主动性特征。当下,AI合成主播播报新闻这一传播行为本身比其传输信息更具话题性。
三、AI合成主播的发展
田心说:此内容了解即可。
AI合成主播发展大致经历三个阶段:
第一阶段为AI合成主播的雏形,以语音助手的形式,借助人工智能技术辅助新闻主播进行简单的机械稿件播报,该阶段的AI合成主播尚不具备视觉呈现形式和客观形态,仅利用语音合成技术进行新闻报道。
第二阶段AI合成主播发展为可视化、虚拟化的真人分身,更加智能化,以具象化的形态展示在大众面前,其声音、表情、体态接近于真人,摆脱了机械的语音播报,能与人进行实时交流互动,如人民网和猎豹移动合作打造的AI机器人“小融”以及新华社AI主持人“新小萌”。
第三阶段的高水平AI合成主播已应用于智媒体时代的新闻报道,该类AI主播外在形象几乎与真人无异,微动作、微表情细腻逼真,同时AI合成主播展现出更具逻辑性、交互性、沉浸式的播报水平。如2020年央视网AI主播“小智”以及韩国首位AI主播“金柱夏”都令人难辨真假,而AI合成主播展现出的超高新闻报道水平极大地提升了智媒体时代的新闻传播质量。
Part6 社交机器人
一、社交机器人是什么?
田心说:此内容需要记忆。
社交机器人是指在社交媒体中,由人类操控者设置、由自动化算法程序操控的社交媒体账号集群。通过模仿和模拟人类在社交媒体中的状态和行为,伪装为用户,有组织地与正常用户交互,以达到依照人类操纵者的意图影响目标受众的目的。已有研究表明,社交机器人在驱动信息、态度、意见、行为方面,对人类目标受众的社会扩散非常有效。
二、社交机器人在新闻与传播领域的应用
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)传播效果:负面虚假信息与正面辟谣报道
在实际应用中,社交机器人的传播效果既可以是正向的,也可以是负向的,这主要取决于传播者的目的。一些社交机器人通过伪装成正常的人类账户窃取用户隐私信息、发布虚假新闻,借操纵社交网络中的舆论走向达到干扰政治选举、左右金融决策等目的。当然,社交机器人也可以带来中性或偏正面的传播效果。有记者使用社交机器人来追踪信息、获取新闻报道线索。当爆炸性新闻发生时,媒体从业人员可以借助社交机器人自动抓取更新新闻线索和素材,大大提高新闻生产效率。
(二)技术融合:平台内嵌聊天与独立程序运营
随着机器生产内容模式(Machine-Generated Content,简称为MGC模式)对新闻业的影响不断加深,老牌传统媒体与新型媒体的竞争格局加速转变,社交机器人技术的广泛应用使得不同形态媒介的融合进一步加深。社交机器应用于新闻业的实践促进了技术的发展与融合,平台内嵌型社交机器人与独立程序型社交机器人成为主要应用类型。
(三)传播流程:新闻内容采编与报道聚合分发
目前,社交机器人应用于新闻制作传播流程的各个环节,如新闻的生产和编辑、聚合与分发等。在新闻生产和编辑领域,社交机器人得以应用主要基于两个方面:一个是电脑软件可以自动从大量数据中提炼新知,另一个是算法可以不依赖人类而自动报道充满洞见和新知的故事。
三、社交机器人对网络传播秩序的影响
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)机器成为传播者:人机共生与信源不确定性
1.人机共生的媒介系统
人工智能技术的发展,促使传播主体由“人”转向“人机共生”,媒介本身变成具有主体能动性的“智能传播者”。在信息生产与分发、事实核查、用户的交流与互动等各个环节,人工智能技术正在发挥作用,改写信息传播和人类交流的内涵,重塑人、技术与社会之间的互动关系。随着人工智能技术的快速发展,社交机器人也成为网络空间的“常驻民”,与人类一起共同构成“人机混合”的媒介系统。
2.社交机器人加剧信源不确定性
不管是在整个社交媒体生态中,还是单一议题讨论中,社交机器人均十分活跃,成为网络舆论的重要组成部分。当前社交媒体中大量存在的社交机器人仍然是相对比较低级的,但人们依然很难准确判断哪些是社交机器人。社交机器人的隐蔽性和不透明性加剧了人们获取信息来源的不确定性,从而进一步扩大了信息失序的可能。
(二)自动化信息生产:扩大信息规模与信息污染
1.扩大信息规模
人工智能技术的发展扩大了信息生产的规模,提高了信息生产的效率,在信息生产的各个环节自动化和智能化程度不断提升。在社交媒体平台上,社交机器人延续了自动化信息生产的特征,不仅可以实现与人互动,还可以在短时间内产生大量内容。
2.信息污染
信息污染主要指的是信息过载或者信息中混入有害的、欺骗性或误导性的内容。在社交媒体中,社交机器人不知疲倦、不分昼夜选择性地放大信息。虽然在一些话题讨论中社交机器人可以通过创建内容来活跃议题讨论,平等地表达观点和意见,但在现实应用中这些信息通常是垃圾信息或无关信息,会在一定程度上造成信息污染。
(三)目的性催生误导性:虚假信息与非理性表达
1.社交机器人的目的性
社交机器人在被部署到社交网络中时都必须遵循既定的算法规则,有些则承担着一定的任务。算法规则是由人来制定的。社交机器人可以帮助人类传播信息,但同时它可以在利益集团的驱使下“制造信息”从而达到操纵舆论的目的。社交机器人现阶段更多地被应用到舆论阵地争夺当中,这就导致社交机器人必然带有一定的目的性。
2.实现目的性的手段
社交机器人往往通过选择性放大对自己有利、对敌方不利的误导性信息来实现统一的政治或经济目的。在扩散不利信息的过程中,假新闻或虚假信息成为社交机器人的广泛选择。此外,社交机器人还通过非理性表达(如传播负面、仇恨或煽动性信息)来破坏公众舆论环境,加剧不同声音之间的两极分化。
(四)算法连接用户:协调行动与僵尸网络
1.协调行动
“协调”指的是多个不真实的账户或角色一起工作以推动某个项目或主题。基于算法技术的连接和推动,社交机器人可以执行复杂的协调行动。社交机器人往往是群体化、持续性、动态性的行动,不同于人类个体化活动需要保持言行的相对一致,社交机器人是在协同行动中来创造影响力。
2.僵尸网络
由社交机器人组成的网络被称为“僵尸网络”,这个术语将“机器人”和“网络”结合在一起,描述了一组连接在一起的自动化程序,这些程序在多台设备之间通信,以执行某些任务。僵尸网络在制造舆论方面具有大规模和群体化的优势。在议题讨论中,僵尸网络可以在短时间内产生大量相似的推文内容,或批量转发同一条推文,使其成为热门推文,以此来营造议题的虚假流行。僵尸网络对网络舆论的伤害很大。一方面僵尸网络产生的误导或有害信息可以在短时间内达到一定规模,影响人们对真实信息环境的判断;另一方面僵尸网络与其他用户网络交织在一起,是对真实网络的一种渗透,通过更深入的交互,社交机器人往往成为网络的中心节点,在网络中发挥核心位置。
四、AI赋能社交机器人
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
GPT(Generative Pre-trained Transformer)即生成式预训练Transformer,是Open AI公司开发的一系列语言模型。(后文会具体介绍)以GPT为代表的AIGC模型补强了社交机器人两方面的短板:对话能力和内容检索与生成能力,使得社交机器人成为一种更加高效强大的工具。
(一)增强社交机器人的智能化内容生成能力
在ChatGPT的加持下,社交机器人能够根据不同的场景、以不同的人设、甚至是不同的立场生成高质量、富有创意的内容。此外,AIGC还能使社交机器人根据用户的需求、兴趣和背景生成个性化内容,这既提升了用户体验和满意度,也使自身更具吸引力和说服力,从而更有可能实现既定目标。
(二)提高社交机器人的识别门槛
ChatGPT通过采用先进的机器学习和深度学习技术,可使社交机器人具有更强的自然语言理解和处理能力,在与用户互动时能够更好地理解用户的意图,准确判断用户的情感和需求,进而能够更智能地生成高质量的文本,而非以往易于检测的“重复内容”或“垃圾信息”。同时,ChatGPT还提高了社交机器人在处理复杂任务、解决问题的能力,使其更接近人类的思维方式。随着社交机器人智能化生成内容质量的提升,可以预见,会有更多的普通用户关注社交机器人账号,这也使得社交机器人的社会互动网络变得与真实人类用户相似,难以识别。
(三)降低社交机器人的部署运营成本
通过使用预训练的模型,ChatGPT减少了社交机器人开发过程中的训练数据需求,缩短了开发周期。同时ChatGPT还提供了强大的迁移学习能力,使得社交机器人可以在不同的领域和场景中快速适应,降低了维护和升级的成本。基于ChatGPT对整体语境的深度理解,批量社交机器人更有可能实现“共享大脑”。这些优势使得企业和开发者能够更容易地开发和部署社交机器人,从而降低整体运营成本。
(四)引发社交机器人的潜在风险
与其他的所有AI模型类似,GPT-4自身的黑箱属性和学习行为的不可控制性给其赋能下的社交机器人带来了潜在风险。以数据为中心的运行逻辑使得GPT在数据多样性、公正性方面存在缺陷,加之自然语言与计算机语言编码过程中可能存在的偏差,极易导致系统性偏见、刻板印象和观点霸权等问题。
Part7 自动化新闻
一、相关概念
田心说:此内容需要记忆。
(一)自动化新闻
自动化新闻是智能技术与新闻业融合产生的词汇,起源于2006年的美国。我国最早的自动化新闻出现在2015年,是腾讯网的Dreamwriter自动生成的财经报道《8月CPI涨2%创12个月新高》。自动化新闻在我国目前还处于探索阶段,没有统一的概念。学者们常用的词汇还包括“算法新闻”“数据新闻”“智能新闻”“机器人新闻”等。根据美国学者马特·卡尔森在2015年对“自动化新闻”的定义,自动化的新闻信息生产过程指的是在没有或者有限的人类干预下,由预先设定的程序将数据转化为新闻文本的自动算法过程。由此观之,自动化新闻的前提是较少或没有人工干预,来源是海量数据,核心是自动算法。整体而言,自动化新闻的生产过程是对数据库中新闻文本的解构+重构生成更多新闻故事、从而更新数据库的循环增值过程。自动化新闻的出现意味着写作效率有了质的飞跃。
(二)AI做新闻
AI做新闻即基于人工智能标准体系,采用相关技术、产品、服务所进行的新闻生产与传播实践。
目前,新闻业对AI技术的征用已涉及新闻采集、写作、呈现、分发、反馈、交互等各个环节,涉及的AI技术应用类型主要包括:自动化新闻写作、新闻报道、增强记者报道、视频图像处理、个性化推荐、用户订阅、评论识别、用户互动、新闻责任、教育培训、新闻工作室AI布局、信息聚合、创新应用等。
在各环节的技术采纳中,新闻写作环节(包括自动化新闻写作、新闻报道、增强记者报道)对AI技术的使用最为突出。“自动化新闻写作”指完全由机器写作新闻或标题。“新闻报道”指将AI技术应用于具体报道内容中,主要集中于事实核查报道及调查性报道。“增强记者报道”指由人工智能提供线索、人机协作生产新闻或是通过判断已有报道的价值,为人类记者提供报道方向参考的案例。
(三)机器人新闻写作
机器人新闻写作就是一个相对于拟人化的概念,精确的说,它主要就是通过一定的计算机程序,对搜集和输入的数据信息进行自动化的分析、处理和加工,从而生成一篇较为完整的新闻报道。
二、自动化新闻的传播优势
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)自动化新闻加快了新闻生产的速度和总量
高速的计算加上预先设置的模板,自动化新闻几乎可以实现同步播发。另外,新闻传播界普遍认为:自动化新闻在新闻总量中所占比重将会越来越大。产生这种认识的原因主要有两点:一是由于撰写软件在稿件生产上的高效性,将会大幅度提高新闻报道的总量;二是随着大数据时代的到来,我们的生活将日益数据化,这就为撰稿软件的运行提供了丰富的内容资源。
(二)自动化新闻拓宽了新闻报道的范围
自动化新闻生产突破了人的视野以及时间和精力的限制,大大延伸了报道范围。尽管受众可能会对某些报道关注较少,但从总体上还是增加了网络流量。
(三)自动化新闻提高了稿件的质量
只要数据正确,算法科学且正常运行,自动化新闻的生产就能够避免出现诸如拼写错误、计算错误、事实要素不全等差错,与记者相比,更能够保障新闻信息的准确性。与记者报道相比,在基础数据和算法正确客观的情况下,自动化新闻更加客观可信。现在的自动化新闻主要应用的是数据挖掘和人工智能技术,囿于目前的技术水平,主要限制在以结构化数据为基础的新闻稿。随着技术升级,结构化和非结构化数据信息都可以成为素材,创作出内容更丰富、逻辑更合理,更有人情味的、高质量的新闻报道只是时间问题。
(四)自动化新闻可以有效地生产和推送个性化信息产品
大数据时代,新闻信息的生产与传播呈现出一对一的特点,媒体能够更好地掌握受众的信息需求,从而实现新闻信息的个性化和定制化。一方面,自动化新闻的应用程序在分析现有媒体报道的基础上,可以计算出社会普遍关注的话题,并能够自动将其分门别类,进而有效地提升内容生产的针对性。另一方面,媒体的传播效果只有在和受众的互动中才能实现。受众群的分化意味着相同的信息会被不同的受众以不同的方式解读,相同信息的不同解读方式也可以满足不同受众的“口味”。因此,只有加强对受众的阅读倾向和兴趣点的分析,才能解决“众口难调”的问题,这个计算量是巨大的,超出了人工能力,而这恰恰是基于大数据技术的运算程序所擅长的。
三、自动化新闻的局限性
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
第一,目前,自动化新闻主要集中于财经报道和体育报道,新闻产品也主要是那些标准化程度较高的消息、快讯等新闻体裁。尽管自动化算法可以提供有关正在发生的事件的信息,但是它们无法解释该事件为什么发生。这也就说明,建立在数据分析基础上的自动化新闻,有时候得出的结论可能是没有意义的,受众仍然需要包含逻辑和解释说明的有效信息。
第二,与记者采写的新闻相比,尽管自动化新闻比记者报道更可靠、更具专业知识,但在可读性方面,记者报道比自动化新闻更具优势。通过标准化程序生产出来的新闻作品更多的是客观叙述,很难表达复杂感情,语言也枯燥乏味。新闻报道离不开语境,单纯客观报道新闻而缺乏必要的解释和背景资料,有时会引发受众对新闻内容的误解。
第三,自动化新闻需要庞大数据库的支持,只有实力雄厚的媒体才能拥有体量巨大、类目齐全的数据库。此外,自动化新闻生产需要结构化和机器可读格式的高质量数据,如果缺乏数据库或者数据质量无法保证,自动化新闻生产也就无从谈起了。
第四,像任何其他模型一样,用于生成自动化新闻的算法依赖于数据和假设,这两者都可能带来偏差和错误事实证明,自动化新闻同样存在报道失误的风险,而并非万无一失。
第五,相较于人工的新闻生产方式,自动化生产出来的新闻在报道视角、创造力和思辨性等方面存在短板。
四、自动化新闻对传媒业的影响
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)记者的专业技能和职业分工将有改变
就常规性、重复性报道而言,记者难以在速度、准确性上与自动化写作软件匹敌。当常规的报道可以被自动撰写,记者们可以在深度报道上花更多时间。因此,从积极的一面看,自动化新闻解放了记者,让他们去报道不那么“机械”的新闻;从消极的一面看则可能引发媒体裁员越来越多,以及新闻写作的商品化。在未来的新闻行业里,记者和人工智能形成“人机联姻”的生产模式,算法用于分析数据、发现有趣的故事并提供初稿。随后,记者将通过深入分析、采访重要人物以及幕后故事完善报道。此外,对于那些仅仅只报道常规性内容的记者,自动化新闻凭借快速、准确的优点,可能会取代他们的地位,但自动化新闻建立在算法的基础上,对于开发新的新闻写作算法同样需要人力资源,从这一方面看,自动化新闻软件在取代一部分新闻记者的工作的同时,也会产生一些新的职业岗位,记者将在新闻生产过程中扮演新的角色。
(二)受众开始关心内容生产的科学性和透明度
尽管受众无法辨别人工写作的内容和软件写作的内容,但受众依然关心撰稿软件的写作质量如何,与人工写作相比会有多大的区别。有研究显示,尽管撰稿软件生产的内容是描述性的、乏味的,但同时也被认为是客观的。人工写作在内容的清晰易读上具有优势,但在可信度、信息量和客观性方面比不上撰稿软件。机器算法的透明度也是受众关注的问题,包括自动化新闻算法的目标和意图是什么,谁开发和控制这些算法,谁对这些内容负责,最终产品在发表前是否有人工编辑审阅等。因此,媒体首先需要更好地了解受众对算法透明性的要求,以及如何将公开的信息用于公众利益。其次,需要找到披露信息最好的方式,不影响用户体验,特别是那些对这些信息不感兴趣的人。
(三)新闻媒体将面临披露源数据的压力
当自动化新闻涉及批评性报道时,数据的准确性、内容的质量以及程序的透明度将变得更加重要。新闻媒体在自动化内容生产中需要考虑源数据、数据处理和最终输出有关的问题。因此,新闻媒体需要确保有权修改和发布源数据。此外,新闻媒体还必须通过添加有关数据来源的信息、内容的生成方式来证明该报道是自动生成的,以保证最低级别的透明度。
(四)对社会舆论的形成产生负面影响
“算法”只提供受众喜欢阅读或认同的信息内容,导致个人消费越来越多的同类信息,以至个体受众不太可能阅读到与其意见相左的信息或观点,社会上不同声音之间的沟通交流日趋减少,社会言论也越来越单一。“算法”让“过滤气泡”现象更加严重,给社会舆论的健康形成带来风险。因此,新闻媒体在憧憬自动化新闻为自身的发展带来转机的同时,也要时刻提醒自己,不能置受众于信息和交流的孤岛之中,而要多渠道获取和发布信息,帮助受众跳出“过滤气泡”的禁锢,营造健康、多元的社会舆论环境。
五、自动化新闻的失范问题
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)输入:数据来源的可信度与个人隐私泄露
在数据输入阶段,信息本身的准确、可靠、完整程度对新闻报道的真实客观起决定性作用。目前,自动化新闻数据的来源可从三个主体层面分析。第一,从新闻媒体机构层面而言,各大媒体创建自己的数据库,但还未实现互联互通。第二,从互联网科技公司层面而言,数据公开与信源保护是长期存在的矛盾,除此之外,数据来源途径是否正当,获取的数据是否能用于商业经营一直以来饱受争议。第三,从用户个人层面而言,用户私人信息和移动的轨迹都处于数据监控之下,个人信息面临泄露的风险。
(二)处理:算法的透明度与新闻立场偏向
社会大众对传统新闻生产传播过程较为熟悉,但自动化的新闻生产过程俨然是个黑箱,这种算法的不透明性让公众无法进行必要的监督。
参与程序写作编码的程序员有着不同的学习背景和生活经历,看似客观中立的算法背后隐藏着人为主观价值倾向。突出的表现就是阅读量、播放量、分享量等流量成了新闻价值的判断标准,出现新闻界的“劣币驱逐良币”。
(三)生成:内容的机械性与著作权争议
机器可以降低信息生产成本,提高效率,但是为公众服务的社会责任不能让渡给机器。传统新闻报道在专业新闻从业人员把关之下能过滤有悖人性的信息,在灾难性、评论性、调查类的深度报道中体现一定的人文关怀,但机器基于算法生产同质化的冰冷信息。
依靠人工智能技术生成的产物是否享有著作权一直是学界和法律界探讨的焦点。《中华人民共和国著作权法》规定,著作权由人身权和财产权组成。著作人身权涉及创作主体认定问题,自动化新闻生产参与者包含投资者、程序员、使用者以及智能机器人的多元主体,不好界定。
(四)分发:推送的个性化与信息围城
在推送过程之中,筛选与用户标签关联度高、停留时间长的信息,利用智能算法技术进行个性化的内容服务,形成过滤气泡,限制了用户的接触面以及了解客观真实世界的机会。智能技术的发展非但没有打开世界,反而让用户身陷信息围城的囹圄,置身于孤岛之中。此外,回音室效应在不同群体之间筑起高高的城墙,加大了代际沟通的难度和成本将严重扩大社会数字鸿沟甚至阶层鸿沟。
六、应对自动化新闻失范的策略
田心说:此内容需要记忆小标题并理解内容。
(一)记者转型多技能化,对话算法工程师
强化专业人员的把关作用是至关重要的。自动化新闻拥有两大自然人主体,一个是技术人员,一个是媒体从业人员。在智媒时代,记者的多技能化已是常态,记者除了专注现场采访报道,还需习得数据分析能力、熟悉算法原理和计算机编程。习得这些专业技能的途径是与算法工程师形成长期合作机制,构建与算法工程师的交流区,在对话中提升自己的专业知识素养。从教育角度出发,打破两大专业人员之间的壁垒、培养复合型新闻人才是自动化新闻的发展趋势之一。
(二)保护数据隐私,法律与道德双重规制
关于自动化新闻的立法,欧盟在2021年制定的《关于人工智能的统一规则(人工智能法)并修正某些联合立法行为》提供了借鉴,保护用户数据隐私和增强AI系统透明度是两大方向。法律基础之上还需辅以自动化新闻道德准则。
(三)主流导向驯化算法,矫正技术内容偏差
算法在实践中出现的偏差如算法歧视、大数据杀熟、价值偏向等现象已上升为公共议题引发大众的“算法焦虑”。人民日报曾在其移动客户端7.0版本中推出主流推荐算法系统,核心理念为用主流价值舒缓算法焦虑,建设正能量的舆论生态。此外,可探索将道德法律规范编写成代码嵌入自动化写作程序中,利用机器的自我学习提高人工智能水平,以使机器自动识别违反法律道德规范的内容。也可建立记者个人写作数据库,通过机器学习,模拟记者写作习惯,增强人文关怀。总之,要严格把控内容质量,反思流量焦虑,实现智能驱动。
Part8 生成式人工智能
一、相关概念
田心说:以下概念建议大家理解性记忆。
(一)生成式人工智能
人工智能技术可根据功能价值划分成分析式人工智能(Analytical Artificial Intelligence)和生成式人工智能(Generative Artificial Intelligence)。
分析式人工智能主要指能够在海量数据中发现模式,完成诸如垃圾或欺骗邮件识别或算法推送TikTok视频等工作。可以说,目前传媒业广泛应用的人工智能技术大多可归类于分析式人工智能。
生成式人工智能可以通过人工智能的相关技术,自动化生成文本、图像、视频、音频等多类型内容。其生产的内容被称为人工智能生成内容(Artificial Intelligence Generated Content,AIGC)。
(二)AIGC
对于AIGC而言,学界或业界还没有得出广泛认可的定义。《人工智能生成内容(AIGC)白皮书》,将AIGC定义为“既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合”。该定义认为AIGC兼有内容特征和技术特征两个层面,总体上可以将AIGC概括为伴随着网络形态演化和人工智能技术变革产生的一种新的生成式网络信息内容。从广义上看,一切运用AI技术生成的内容都可视为AIGC。
(三)ChatGPT
2022年11月上线的ChatGPT(Chat Generative Pretrained Transformer,生成式预训练聊天机器人)是由美国人工智能实验室OpenAI开发的人工智能聊天机器人应用,属于AIGC范畴。ChatGPT是基于大型语言模型(Large Language Model,LLM)预训练的新型生成式人工智能。作为一款人工智能聊天机器人应用,ChatGPT拥有语言理解和文本生成能力,不仅如此,它还能完成撰写邮件、视频脚本、文案、代码等任务,是一种以“对话+创作”为基础的生成式人工智能应用。ChatGPT的核心突破点在于其实现了在拟真度层面的跃升和更高层次的功能维度集成。
(四)AGI
AGI(Artificial General Intelligence)是指一种通用人工智能系统,能够模拟人类的智能和认知能力进行学习、推理和交流等活动,还能理解、决策和解决问题,具有与人类相当或更高的认知能力,可以灵活地适应各种环境,能够应用于多个领域和任务中。智能媒体或智慧媒体只是其中的一个领域。2023年4月28日,中共中央政治局召开会议分析研究当前经济形势和经济工作,会议中首次提到“要重视通用人工智能发展,营造创新生态,重视防范风险”。
从已有的AGI研发应用情况看,AGI运用于媒体的内容生产和传播目前主要有三个方面:一是通过自然语言处理技术进行文本挖掘和分析,快速地从大量的新闻数据中提取信息和观点,减少人工处理数据的时间和成本,提高新闻报道的质量和效率,准确性和可信度;二是通过强化学习技术,分析用户的行为和偏好,优化内容推荐和互动方式,减少人工干预的成本和风险,提高用户体验和满意度;三是可以让机器学习和训练,提供各种写作风格和表达方式,自动生成文本、图片、视频等内容,实现自动化报道。
(五)AIGC、AGI、ChatGPT之间的联系和区别
AIGC是指利用人工智能技术自动生成内容,如文本生成、图像生成、音频生成等。它是一种特定的应用程序,能力范围较窄,只能针对特定任务进行优化,能力受到算法和训练数据的限制。
而如上所说,AGI是指一种通用人工智能系统,能够模拟人类的智能和认知能力进行学习、推理和交流等活动,还能理解、决策和解决问题,具有与人类相当或更高的认知能力,可以灵活地适应各种环境,能够应用于多个领域和任务中。
ChatGPT是一个基于大规模语言模型训练出的人工智能聊天机器人,也是一种特定的人工智能应用程序,能够基于人类反馈强化学习,使输出内容和人类的常识、认知、需求、价值观更加接近。它无法像AGI一样在多个任务和领域中学习和应用,能力受到模型规模和训练数据的限制,属于AIGC范畴。
二、以ChatGPT为代表的生成式人工智能对新闻传播的影响
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)新闻内容生产关系的重塑
一是技术赋能,机器入场,驱动人机协作升级。二是角色转变,重新定位新闻人的职责。自媒体环境下,新闻人与业余创作者之间的界限日益淡化,利用ChatGPT,进一步冲击了职业新闻人的创作主体地位。在新的传播生态下,主流媒体、专业新闻媒体需要从传统的新闻内容生产向新闻传播规则的制定者、舆论传播生态的监督者以及全新传播业务的开创者升级。
(二)新闻内容生产过程的重塑
其一,内容生成智能化、技术化已成为新闻传播行业的未来生态。其二,机器应用在新闻信息采编的各领域实现了全面突破。其三,基于AIGC的新闻生产体系,能捕捉、发掘日常工作中难以有效挖掘的信息,通过收集、汇总社会舆论,预测热点话题的发展走向,通过将新闻创作、生产的“触角”延伸至各领域,使新闻生产者可以将更多时间、精力应用于其他深度思考及问题理解中。
(三)新闻内容传播生态的重塑
人工智能与新闻传播的融合经历了技术辅助、弱人工智能与强人工智能三个阶段,逐渐从替代简单、重复工作向提升新闻媒体影响力、公信力等方向升级。将ChatGPT应用于新闻传播,进入了强人工智能生态。
其一,人工智能是辅助新闻记者处理数据、收集信息的工具。随着智能技术应用不断成熟,机器向“拟人”“超人”方向发展,逐渐成为新闻生产的重要因素。通过发掘数据信息的潜在关联,智能生成新闻内容,新闻传播生态出现了新超越。
其二,通过应用深度学习技术,对用户信息、内容数据和行为偏好等数据进行多维分析,有效消除了用户与新闻内容之间的陌生感,使相关写作模型能够更加精准地捕捉数据的隐藏特征,促进机器人写稿从传统“依据指令创作”向新闻采编、制作及内容分发等全流程升级。
其三,借助智能技术,驱动新闻生产实现信息获取、数据验证、文本生产及信息分发等全面升级。将ChatGPT应用于新闻传播,在提高新闻内容生产效率、丰富呈现方式和提高信息分发精准度的同时,使媒体与社会的互动更加频繁,形成了更为复杂的传播生态。
三、以ChatGPT为代表的生成式人工智能参与新闻传播的风险
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)新闻生产真实性的风险
ChatGPT最大的风险就是缺少专业、完善的人为把关机制,容易陷入机器算法,放大社会偏见。其一,影响了新闻传播的公信力。其二,增加了虚假信息的传播风险与治理难度。其三,容易混淆视听,影响正常的社会舆论导向。
(二)新闻内容价值日益平庸的风险
将ChatGPT技术应用于新闻内容生产,不仅降低了新闻传播活动的参与门槛,也使社会大众、非专业新闻主体参与、介入新闻生产过程,推动新闻内容从品质化、专业化向同质化、大众化发展。一方面,新闻内容缺乏必要的研究深度与专业水准;另一方面,难以表达真实的情感观点(ChatGPT本身只是一种语言系统,无法表达真实情感,难以准确阐释个人意见)。
(三)用户数据及个人隐私的泄露风险
利用ChatGPT创作、输出新闻内容,通常会第一时间锁定创作主题,并收集和利用相关数据信息,生成新闻内容。但是,该过程存在数据及个人隐私泄露的风险隐患。
四、以ChatGPT为代表的生成式人工智能参与新闻传播的风险化解
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
(一)遵守新闻客观性,保障新闻传播的公信力
其一,坚守新闻传播的真实性。在应用ChatGPT生成新闻信息时,要以新闻客观性为前提,以精准度、内容导向为重点,配备专业新闻媒体人士进行对其评判、取舍,避免出现不适宜新闻内容的输出与传播现象。
其二,遵守新闻传播的客观性。通过优化新闻传播秩序,完善新闻传播内容的评价标准,构建完整的新闻传播风险及预警机制,切实增强新闻传播的公信力。
其三,彰显新闻传播内容的专业性。新闻媒体从业者要立足专业性,从更加系统、深度和专业化的角度来生成新闻信息,通过输出精品质、观点独特的新闻报道及文本分析,妥善应对ChatGPT技术对新闻内容生成的冲击。
(二)聚焦受众的阅读体验,优化新闻传播生态
在人机合作日益成熟生态下,利用ChatGPT重构新闻采编流程时,要聚焦受众的阅读体验,对新闻信息获取、生产的流程、边界及模式进行全面优化。
一是聚焦媒体融合趋势,发挥ChatGPT的交互特征,为用户提供新的新闻传播体验。通过与用户对话,针对用户问题生成完全不同于搜索结果的答案,使用户在获得新奇体验的同时,获得知识增值、信息增量。ChatGPT的应用本身具有示范和带动效应,用户通过利用社交媒体分享个人与ChatGPT的问答交流结果,从而优化新闻传播生态。
二是以场景、数据信息为核心,打造“沉浸式”新闻内容生成机制。通过尽可能减少过度使用ChatGPT技术,避免出现“媒介偏见”现象,确保受众从客观视角来阅读、了解新闻信息,为读者提供真实、人性化的阅读体验。
三是创新受众参与方式,重构新闻传播体系。在人工智能与新闻传播“深”融合生态下,要充分借助智慧技术的应用优势,完善“人机互动”机制,在讲述新闻事实的同时,为读者创造参与空间,提升新闻传播效能。
(三)正视智能连接,重构新闻传播业态
在利用ChatGPT技术时,要驱动智慧技术、受众需求与新闻创作实现全连接,构建精准推送、高效阅读的新闻传播生态。
首先,以智能内容为要素,推动新闻传播从“移动互联”向新的“智能互联”升级。通过以智能内容生成为支撑,开展新闻传播,减少新闻传播层级,加快新闻信息的扩散进度,减少新闻信息传播过程中出现的“折损”现象。
其次,注重分析受众的阅读习惯、阅读偏好,通过精准把握受众的个性化差异,利用ChatGPT智能生成新闻信息,完善新闻信息分发机制,全面提高新闻传播内容的精准性与送达率。
最后,要正视ChatGPT等智能技术对新闻传播体系升级影响,通过引导、驾驭智慧算法的运行逻辑,合理选择语料库,构建正确的训练模型,以应有的价值逻辑来约束内容生成过程,促使智能内容生成技术真正服务新闻传播。
五、AIGC的场景应用
田心说:此内容需要了解即可。
(一)AIGC+传媒:人机协同推动媒体融合提质增效
ChatGPT表现出的文本续写、文学创作、多轮对话能力将使AIGC在新闻报道领域进行更为深入的应用探索。除此之外,AIGC在音频、视频模态的技术升级,也促使传媒产业走向人机协同的媒体深度融合道路,并依赖于AIGC的高产高效,为媒体融合发展提质增效。
在内容生产流程中,AIGC技术在信息采编、内容制播、产品创新等多个环节发挥了出色的协助作用。在采编环节,借助语音识别技术对语音内容进行文字转写,能够有效压缩稿件撰写前的录音整理工作,提升新闻时效性。在制播环节,自动生成字幕、视频拆条、任务追踪等智能化剪辑工具不仅节约了时间与人力成本,还能够最大限度挖掘内容版权价值。在产品创新环节,近年来传媒业大量使用的虚拟主播,也离不开AIGC技术的支持。
AIGC技术对传媒业的影响不仅体现于对传媒机构的内容生产流程进行智能升级,推动媒体融合进程,还进一步释放了传媒工作者的内容生产力,使其转向更具深度、广度与人文关怀的内容创作,同时为传媒用户提供了更丰富多元、更快速便捷的内容服务以及参与到内容生产中来的机会。
(二)AIGC+影视:技术加持拓展影视作品创作空间
AIGC技术的应用,一定程度上能够激发剧本创作活力,降低拍摄成本,提升后期制作质量,从而拓展影视作品的创作空间。
在剧本创作上,AIGC技术能够通过对海量剧本数据的分析归纳,快速生成完整故事剧本,协助编剧进行内容创作。此外,AIGC技术还能使其他文本类型转为剧本形式,从而减轻剧本改写的工作压力。
在场景创作上,AIGC技术通过合成虚拟场景,节约场景搭建成本,同时能够通过实时渲染等技术在拍摄现场实现后期成果预览,缩短后期制作时间。基于现实增强技术,AIGC虚拟人物能够与真人同台互动。
在后期制作上,AIGC技术应用不仅包括图像的修复与还原,还能够合成人脸从而对特定人物进行替换。前者重点应用于历史影像的修复与还原,后者则可用于“数字复活”已故演员、替换劣迹演员等。
(三)AIGC+游戏:AI技术提升产业生产力,解放游戏创造力
AIGC技术的成熟有望提升游戏产业生产力。首先,AIGC具有高效率生产的技术特征,在重复性、机械化内容生产上具有绝对优势;其次,AIGC的大模型趋势使其前期成本较高,但AIGC技术发展依旧符合摩尔定律,随着技术的成熟迭代与软硬件设备的价格下降,最终能够实现降本增效的目标;最后,AIGC在内容生成,尤其是在图像生成领域的表现已经达到人类平均水平,能够满足游戏业大量重复且琐碎的美术需求。
AIGC在游戏领域的价值还体现在场景、角色制作方面的效能提升,从而解放游戏创造力。除此之外,借助生成式AI,游戏本身也能够获得更具创意的交互方式。
(四)AIGC+音乐:智能生成促进音乐产业智能升级
音频生成作为早期AIGC领域,目前的商业化应用已较为成熟,主要包括语音识别与歌曲生成两大应用场景。在音乐领域,AIGC技术在作词、作曲、编曲等方面的应用较为广泛,已经支持基于开头旋律、图片或文字描述、音乐类型、情绪类型等生成特定乐曲,可应用于音乐欣赏、游戏音效、实体场景配乐等多个领域。
此外,“技术+专家”模式在音乐产业表现突出,AI与专家合作能够基于现有乐谱进行智能生成,续写著名音乐家作品。而且AIGC技术还能够降低普通用户的音乐创作门槛,快速生成歌曲。
AI技术的引入不仅为音乐产业提供了音乐创作的智能工具,而且以技术赋能用户,丰富了用户的音乐消费行为,实现产业的智能升级。但AIGC技术带来的歌曲生成低成本,一定程度上也会使得大量从事低水平编曲的音乐创作者受到冲击,从而改变音乐产业的人员结构。
(五)AIGC+电商:虚拟人货场营造沉浸式消费体验
在AIGC技术的加持下,虚拟人货场将迎来更加真实、沉浸式的数字再现,从而为消费者营造沉浸式的消费体验。
首先是虚拟主播的打造填补了人力空白,能够实现24小时不间断地商品展示与介绍,为消费者提供更加生动的互动体验。其次是商品3D模型的在线展示,为用户提供全方位的商品呈现,甚至能够提供虚拟的使用场景搭建。最后是购物场景数字化再现,通过在二维空间构建三维场景,AIGC技术能够实现虚拟购物场景的低成本、大批量构建,从而降低商家搭建3D场景的成本,并为消费者提供线上线下融合的消费体验。但目前智能购物场景搭建呈现两种极端趋势:一端是技术水平有限、仿真度较低的常态化场景,另一端是技术水平较高、仿真度较好但持续性欠佳的秀场式场景。
六、AIGC的发展趋势与关键点
田心说:此内容需要理解。
(一)AIGC将成为元宇宙时代的内容生产基础设施
在元宇宙时代,元宇宙信息生态有赖于高效的内容生产机制,而AIGC能够通过算法训练做到根据用户行为与反馈进行实时生产信息内容,极大提升内容生产效率,且通过大量优质信息的生产维护元宇宙的信息生态。与此同时,由于元宇宙时代内容需求的增大,PGC与UGC生产效率不足以满足这一需求,能够低成本、高效率进行多样化内容生产的AIGC将会成为主流生产方式,而AIGC技术与数字孪生的高度适配也会使得AIGC成为元宇宙信息生态的主要组成。因此,AIGC将会成为元宇宙时代内容生产的关键底层技术。
从用户角度看,基于元宇宙内容生态的数量高饱和、信息低密度特征,用户更加追求多样化、定制化的信息服务,并且出于对数字身份认同的高度需要,更希望获得自由表达的空间与能力。AIGC技术不仅能作为底层技术为元宇宙生态提供自动化内容生成,丰富元宇宙内容生态,而且能赋权用户对AIGC进行个性化微调,从而提供定制化信息服务,还能辅助用户进行内容创作,降低内容创作门槛,帮助更多普通用户进行自我表达,扩大内容规模的同时促进用户身份转型。
不论面向元宇宙生态需求还是用户需求,AIGC都将是元宇宙场景下内容生产的主流,核心在于AI技术对生产力的大幅提升与创造,而元宇宙时代正是AIGC作为内容生产基础设施的时代。
(二)“AI+人文”将成为AIGC的主要发展趋势
AIGC的演进路径是从辅助、协助再到自主,但社会信息内容完全依赖AI自主生成将会导致人的主体性缺失。德国社会学家马克斯·韦伯将人类的理性分为工具理性与价值理性,前者追求工具的效能与技术的先进,后者关怀人的命运与尊严。如果将AI技术、人文精神与之对应起来,那么AI技术可以纳入工具理性范畴,人文精神可以纳入价值理性范畴,二者是对立又统一的关系。因此“AI+人文”将成为AIGC的主要发展趋势。
“AI+人文”是将人文精神贯穿于技术应用当中,在AI生成内容的前、中、后始终保持人文关怀与人文主义思考。人文精神是走出技术神话的灯塔,在AIGC领域,人文精神也将是引领技术向善的关键力量。
在AIGC的应用过程中,内容安全与伦理问题是技术应用无法避免的现实问题。除此之外,AIGC技术模型本身由于训练数据的不可控,存在内生性的算法歧视。因此,人文精神与人工力量的介入是AIGC避免算法歧视的必然路径。
(三)AIGC的发展关键点在于技术要素与商业要素的共同进步
AIGC未来发展关键点在于两个要素,即由数据、技术、资本构成的技术要素和由用户与应用场景组成的商业要素,二者共同进步才能形成AIGC领域的繁荣生态。
在技术要素中,数据是AIGC发展的“燃料”。目前多模态大模型是AI模型发展的主要趋势,多模态与大模型都需要巨量数据用以模型训练。技术是AIGC发展的核心动力。算法技术的进步推动着AIGC的不断升级。资本是AIGC发展的坚实后盾。巨量数据、多种模态带来的是AIGC对软硬件设备的更大需求,这都需要殷实的资本加以保障。
在商业要素中,用户正在成为模型发展与应用的主力。开源模式正在成为AIGC发展的“催化剂”。开源模式的核心在于撬动用户力量,通过与真实用户的交互为AI模型提供训练数据,并借助用户反馈对模型进行优化与微调,同时也满足了用户的信息交流与内容创作需求,实现研发与应用的双赢。根据用户需求的差异性与应用市场的细分化,未来AIGC的应用场景将会更加分众化,基于特定群体提供定制化的AIGC服务,同时也为部分群体开放模型微调功能,以激发广大用户的想象力与创造力,进一步丰富现有应用场景。此外,更多元的应用场景也能够提升AIGC的商业价值,从而形成完整的“研发-变现-研发”商业闭环。
七、聊天机器人
田心说:此内容需要记忆概念、小标题并理解内容。
(一)聊天机器人的概念
聊天机器人(Chatbot)是利用自然语言处理(NLP)技术的在线人机对话系统。聊天机器人的本质就是实现人机的交往与对话。作为AI技术应用的主要分支,聊天机器人经历了从“概念化”到“实体化”再到“商用化”的演进历程。聊天机器人的演进是人工智能技术在近半个世纪以来飞速进步的一个缩影。当前,聊天机器人已经进入了日渐普及的新阶段,开始进入并影响到了人类社会与生活的方方面面。2022年11月30日,由马斯克等人投资创立的Open AI实验室推出了最新版的聊天机器人ChatGPT,全名为“生成型预训练聊天机器人”(Chat Generative Pretrained Transformer)。
(二)聊天机器人的分类
1.客户服务型聊天机器人
以向用户提供帮助和服务的B2C模式为主要导向,常见于商业公司、政府机构和非营利组织开发的智能语音服务产品。
2.个人助理型聊天机器人
以服务用户的日常需求为宗旨,帮助用户检索信息、查找媒体内容,或者参与智能家居服务、提供物联网服务。例如,苹果的Siri、百度的小度、阿里巴巴的天猫精灵等等。
3.内容生产型聊天机器人
其功能和智能化程度相对前两种而言更加精进。它不仅可以满足用户的简单指令、与用户进行问答,更重要的是,还可以基于自身强大的数据库资源,通过不断的机器学习,根据用户的具体需求来进行内容生产。
ChatGPT从其功能来看,它是一个具备了信息检索、聊天对话、内容生产等多功能复合型的智能化聊天机器人。
(三)聊天机器人对新闻业的挑战
1.生产关系:职业新闻人的主体性冲击
与人类相比,聊天机器人具有其独有的优势:自动生成内容的边际成本更低,文章撰写速度更快。它可以生产体育、财经等多种类型的报道,还可以用多种不同的风格来呈现。而职业新闻记者则专攻某个特定的领域,写作风格较为单一。这就使得职业新闻人在与聊天机器人的竞争中处于劣势地位,导致前者在财经、体育新闻等特定领域丧失了主体性。
2.舆论操控:虚假信息的生产与传播
自动生成内容的高速度、高产量使得舆论场中可以在短时间内充斥大量虚假信息或者误导性信息。更为严峻的是,ChatGPT的高智能化使得其生成的内容更有逻辑性、看起来更有可信度,这就让普通用户真假难辨,也进一步加剧了“深度造假”的风险。另外,大量由聊天机器人编撰的、带有明显目的性的真假信息涌入舆论场,很容易影响公众的认知,进而左右社会舆论。
3.新闻品质:报道走向平庸化
聊天机器人所擅长的是新闻报道的程式化和高速度,这类千人一面的“快餐”产品会使得新闻报道的品质大打折扣。如果未来自动化新闻成了媒体机构的主流产品,那么公众接触到的新闻报道将会失去以往的纵深和精彩,逐渐平庸化。
4.数字信任:新闻媒体权威性的缺位
信任是维持整个人类社会活动良性运作的根基,而乌卡(VUCA)时代的到来使得原本已经四分五裂的信息舆论场出现了更为严峻的信任危机。自动化新闻在生产关系、舆论操控和新闻品质等方面给新闻传媒业带来各种前所未有的风险和挑战,最终导致的是新闻媒体公信力的断崖式下跌。
虚假信息的泛滥使得社会公众对于新闻媒体机构的信任度大幅下降,聊天机器人在数字领域的深度应用则会导致信任危机的加剧。新闻品质和媒体可信度下跌的双重危机,会使得公众对整个数字传播环境丧失信任。而“数字信任”下降发展到一定程度,则可能引发全社会的信任危机。
(四)聊天机器人对网络传播生态带来的潜在风险
1.个体层面:侵犯用户隐私和权益
ChatGPT的发展以海量数据作支撑,这意味着一旦ChatGPT在收集、处理数据信息时出现未授权或超范围使用情况,个人隐私、商业机密等重要信息将不可避免地被泄露,抓取和学习已发布的作品进行整合再造,并有可能造成侵犯他人隐私权、知识产权等违法犯罪行为。目前对ChatGPT的使用没有特定的版权或法律限制。
2.社会层面:产生虚假信息和歧视偏见
当前,通过AI产生的错误信息或虚假信息已经成为操纵社会舆论的政治工具,被各种社会力量利用进行议程设置,加大人们意见的两极分化。
目前研究中,各领域的学者们普遍发现了ChatGPT技术中内置的隐性偏见。如在测试ChatGPT对种族和性别的支持态度时,学者发现ChatGPT的答案往往更偏爱白色人种和男性,而非有色人种和女性。作为一种人工智能语言模型,ChatGPT有可能使其训练的数据中的偏见和不公平继续存在。这是因为ChatGPT使用了大量文本数据集,这些数据集天然带着人类社会和文化的偏见和刻板印象。
3.国家层面:威胁政治安全和舆论安全
在国家层面,ChatGPT在政治安全、意识形态安全、舆论安全、主权安全等方面存在潜在风险。由于ChatGPT通过一对一对话式的信息传播,能够将具有特殊导向性质的信息精准投递给目标用户,从而能够在较短的时间内影响公众的认知,进而引导公共舆论。而舆论安全一旦失控,也将对国家意识形态安全、政治主权安全构成威胁。就目前研究来看,ChatGPT在政治领域并非客观中立,而是存在着一定的政治倾向。ChatGPT可以作为政治宣传的工具,在潜移默化中影响公众的认知、判断和选择,以此推动政治议程和渗透意识形态。
4.全球层面:扩大西方技术霸权和价值观的影响
聊天机器人在输出答案时潜在地受到使用英语的美西方国家作者的价值观影响。当全球用户在不知情的自然交流中被灌输政治意识形态时,ChatGPT将成为技术霸权国输出西方意识形态的数字武器,一方面强化了西方价值观隐蔽的支配地位,另一方面对与其对立的党派和国家进行意识形态瓦解和制度破坏,从而达到干涉他国内政的目的。以ChatGPT为代表的聊天机器人将能够对任何东西产生无限的、几乎免费的“虚假观点”,其有潜能将西方计算宣传操纵全球舆论市场的能力提升到一个新的层次和水平上。
(五)聊天机器人的网络传播生态风险治理
1.国家政府:完善人工智能法律监管
在人工智能立法规范上,欧盟走在了世界前列。目前,欧盟人工智能有效监管法律系统包括具体文书(人工智能法案、人工智能责任指令);软件监管(产品责任指令);针对平台的人工智能法案(数字服务法案、数字市场法案)。
针对政府应该如何调整完善现有人工智能法律规范以适应新型人工智能模型的发展问题,有学者提出透明度、风险管理、非歧视条款、具体内容审核规则四项政策建议。
除此之外,面对ChatGPT等聊天机器人的快速发展,针对人工智能的相关权威监管部门的改革创新也变得十分迫切和需要。
2.科技企业:加强人工智能技术伦理规范
目前,关于企业对聊天机器人的管理文献多从技术角度入手,认为企业应通过技术规制尽量消减聊天机器人在内容生产过程中产生负面效应的可能,推动聊天机器人向好向善发展。
除了聊天机器人生产过程中的技术规范,企业也要主动设置额外的技术防御策略来防止外部攻击给聊天机器人带来的网络安全风险。此外,企业建立算法审计团队,以负责对模型反应的质量进行全面评价也是必要的。
3.用户个人:提升自我主动预防的媒介素养
首先,为手机等个人设备设置强密码;其次,要及时更新设备操作系统及其他程序来屏蔽更多的安全威胁,在手机等设备上安装杀毒软件也有助于抵御聊天机器人可能生成的在线僵尸程序;再次,要主动学习,提高识别和避免聊天机器人所带来的网络安全攻击的能力,如避免可疑的电子邮件或链接、谨慎在网上分享个人或敏感信息等。此外,用户自身的知法守法意识也要进一步增强,用户有责任确保自己不会以非法、不道德或对他人有害的方式使用ChatGPT。
八、Sora:生成式人工智能在视频生成领域的重大突破
田心说:此内容需要记忆概念、小标题并理解内容。
(一)Sora的概念
2024年2月16日,OpenAI宣布推出全新的生成式人工智能模型“Sora”,并同时公布了一系列样片,展现了Sora令人惊叹的视频生成效果。通过文本指令,Sora可以直接输出长达60秒的视频,并且包含高度细致的背景、复杂的多角度镜头,以及富有情感的多个角色。
Sora属于多模态混合模型,由大语言模型和文图生成器拼接而成。纯文图生成模型对提示词的理解能力很弱。比如,用户输入“世界和平”,它往往无法生成准确的图片。如果把文图生成器与大语言模型拼接在一起,后者就能把“世界和平”转化为和平鸽、橄榄枝等文图生成器“看得懂”的提示词,从而生成切题的作品。文图生成器经改造后,也能生成视频。
从样片来看,此次大模型在长视频(60秒)中表现出令人惊叹的稳定性与前后一致性。同时,在部分样片中,Sora还展现了对“物理规律”超强的学习能力,无论是飘逸的毛发还是水体波纹,Sora都能“合乎常理”地呈现出来。
(二)Sora的六大优势
1.准确性和多样性
Sora可将简短的文本描述转化成长达1分钟的高清视频。它可以准确地解释用户提供的文本输入,并生成具有各种场景和人物的高质量视频剪辑。它涵盖了广泛的主题,从人物和动物到郁郁葱葱的风景、城市场景、花园,甚至是水下的纽约市,可根据用户的要求提供多样化的内容。
2.强大的语言理解
OpenAI利用recaptioning(重述要点)技术,生成视觉训练数据的描述性字幕,不仅能提高文本的准确性,还能提升视频的整体质量。此外,OpenAI还利用GPT技术将简短的用户提示转换为更长的详细转译,并将其发送到视频模型。这使Sora能够精确地按照用户提示生成高质量的视频。
3.以图/视频生成视频
Sora除了可以将文本转化为视频,还能接受其他类型的输入提示,如已经存在的图像或视频。这使Sora能够执行广泛的图像和视频编辑任务,如创建完美的循环视频、将静态图像转化为动画、向前或向后扩展视频等。
4.视频扩展功能
由于可接受多样化的输入提示,用户可以根据图像创建视频或补充现有视频。作为基于Transformer的扩散模型,Sora还能沿时间线向前或向后扩展视频。
5.优异的设备适配性
Sora具备出色的采样能力,从宽屏的1920x1080p到竖屏的1080x1920,两者之间的任何视频尺寸都能轻松应对。这意味着Sora能够为各种设备生成与其原始纵横比完美匹配的内容。而在生成高分辨率内容之前,Sora还能以小尺寸迅速创建内容原型。
6.场景和物体的一致性和连续性
Sora可以生成带有动态视角变化的视频,人物和场景元素在三维空间中的移动会显得更加自然。Sora能够很好地处理遮挡问题。现有模型的一个问题是,当物体离开视野时,它们可能无法对其进行追踪。而通过一次性提供多帧预测,Sora可确保画面主体即使暂时离开视野也能保持不变。
(三)Sora的诞生对传媒业的意义
1.Sora将开启内容创作领域新纪元
对于Sora的面世,工信部信息通信经济专家委员会委员、数字经济专家刘兴亮称,这标志着AI技术在内容创作领域的一个新纪元。“通过简短的文本提示或一张静态图片,Sora能够生成持续一分钟左右的1080P高清视频,涵盖多个角色、不同类型的动作和背景细节等,几乎达到了电影级别的逼真程度。这种能力不仅为内容创作者提供了前所未有的工具,使他们能够以更低的成本和更快的速度将创意变为现实,而且为观众带来了更丰富和多样化的视觉体验。技术创新的这一巨大飞跃,预示着AI在未来人类生活的各个方面都将发挥更加重要的作用。”刘兴亮表示。
2.Sora或将对传媒业产生冲击。
昆仑万维CEO方汉直言,Sora的问世对影视、视频、广告等行业或将带来不小的冲击。有从业人士认为,如果文本到视频的转换技术继续进步,普通人可能只需在家中撰写文本,就能独立完成高质量的影视作品或游戏内容。这样一来,整个影视行业、游戏行业乃至所有图像内容相关行业都可能面临重大变革。
(四)Sora带来的问题与挑战
1.Sora的技术难关有待攻克
对于Sora当前存在的弱点,OpenAI指出它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系。该模型还可能混淆提示的空间细节,例如混淆左右,并且可能难以精确描述随着时间推移发生的事件,例如遵循特定的相机轨迹。而这些缺陷可能导致Sora生成一些不合逻辑的东西,比如一个人在跑步机上跑错方向,以不自然的方式改变主题,甚至出现凭空消失现象。
2.Sora用于深度伪造将加剧伦理和安全问题
新智元创始人杨静提醒说,AI生成的假视频存在泛滥风险,可能被用于诈骗犯罪。在Sora将AI生成视频能力提升到近乎逼真的程度时,大家也要认识到“眼见为实”可能已成过去。此外,版权、隐私和数据安全等问题也需要得到妥善解决。
3.Sora可能造成部分行业从业者失业
Sora以文字为核心的提示,将能够形成更加符合人类观念的连续视频,该模型的出现无疑将会对人们现有工作方式进行再一次迭代,同时也会对传统行业转型提出新的挑战。
中国人民大学吴玉章讲席教授、国家发展与战略研究院研究员刘永谋认为,当前的短视频时代,Sora既然可与人工媲美,制造短视频的专门团队可能就面临下岗危险。短视频的摄影、导演、剪辑等任务,Sora“一个人”费点电就全包了。“这可能导致大量的影视等相关行业从业者失业,更是不可忽视的重大社会风险。”
4.如何平衡对Sora的“管”与“放”成为亟待解决的问题
随着以大语言模型为代表的AI技术快速发展,会对传统的伦理、法律以及生产方式等等方面都产生强大的冲击,如果我们不加以监管,其一旦“泛滥成灾”,必然会侵犯许多人的权益。但如果我们过早或者过严地加以监管,这必然又会限制这项技术的发展。在实际操作的层面,我们既要对明显会侵害大部分人权益的行为坚决加以限制,与此同时也应有“特区制”,允许有试错的空间。
九、GPT-4o mini:生成式人工智能的最新发展
田心说:此内容需要记忆概念并理解内容。
(一)GPT-4o
2024年5月14日,OpenAI刚刚发布最新的多模态大模型GPT-4o,该模型支持文本、音频和图像的任意组合输入,并能生成文本、音频和图像的任意组合输出。
GPT-4o的进步,对媒体而言仍不可忽视。
在内容创作与生产方面,GPT-4o文字语言处理能力,尤其是对中文的处理能力进步较大,在稿件生成和创作辅助方面带来的裨益自不必说。更为重要的是,GPT-4o的多模态能力惊人,可直接读懂视频、音频、图片等新闻素材,未来,可能出现一种全新的新闻创作流程:人类记者采集到各种形式的素材,AI自动产出丰富多样的新闻作品,从而形成人采机编的协同工作方式。
在新闻报道与传播方面,GPT-4o在交互性上的巨大进步,对于当下地位尴尬的数字人主播来说,意义极为重大。GPT-4o拥有的视觉和听觉能力,情绪感知能力,以及语音的快速响应,恰好可以补足数字人主播的弱项。在传播方面,通过GPT-4o更加强大的实时翻译能力,记者可以更轻松地跨越语言障碍,将更有助于促进国际新闻传播。
在舆情分析与内容审核方面,GPT-4o对语义更加深入的了解,以及情绪的感知,使得以往AI在舆情分析和内容审核等方面的局限性,也有了突破的可能性。如舆情分析上,GPT-4o的深入语义理解和情感感知能力使其能够更准确地分析和解读社交媒体上的舆论动向,从而更好地预测事件的发展趋势,为媒体掌握真实舆论趋势,提供科学精准的参考依据。内容审核上,GPT-4o能够更智能的分析文本、图片和视频,以往用户通过平台发布,或是在新闻回复留言中出现的“内涵”语句、高级黑、恶意梗图等传统AI难以识别的内容,有望得到解决,从而更加有效地检测虚假、低俗和其他不适宜发布的信息,这对于维护媒体内容的质量和可靠性意义重大。
(二)GPT-4o mini
GPT-4o mini是OpenAI最新发布的大型语言模型系列之一,是GPT-4o的一个精简版本。该模型在语音和自然语言处理方面取得了显著进展,拥有出色的文本生成和理解能力。GPT-4o mini旨在提供更快的响应时间和更好的处理能力,同时也保持了高效的性能和较低的资源消耗,适合在资源有限的环境中部署。GPT-4o mini 通过大规模的预训练,学习了数以亿计的文本数据,使其在语法、语义和上下文理解上具备强大的能力。无论是在自动化客服、内容生成、编程辅助还是数据分析,GPT-4o mini 都能发挥出色的作用,为用户提供更具性价比的选择。
Part9 大模型与小模型
田心说:此部分可记忆概念和大小标题。
一、大模型
(一)概念
大模型(Large Model)是指具有巨量参数与复杂结构的机器学习基础模型,狭义指向大语言模型(Large Language Model),广义上还包括机器视觉大模型,科学计算机大模型、多模态大模型等,具有大规模(参数量大)、涌现性(产生预料之外的新能力)以及通用性(不局限于特定领域与问题)等特点。
(二)大模型发展中面临的问题与困顿
1.算力极限之困
大模型作为“大数据+大算力+强算法”的产物,反过来也受到数据、算力、算法之大的掣肘。就算力而言,大模型目前面临着算力极限之困。OpenAI 2018年发表的研究成果表明,训练AI所耗费的算力自2012年至2018年之间增长了30万倍。同时,大算力对应着高电力与高能耗的大成本。因此,如何实现大模型训练与使用过程中算力与能耗之间的有效平衡,成为未来大模型可持续化与绿色化发展需解决的困顿之一。
2.数据私属之困
数据私属亦是掣肘大模型发展的关键性问题之一。一方面,上传、运输、存储云端的部署方式加剧了数据隐私泄露的风险。于个人而言,大模型对数据的大量收集,模糊了个人数据的边界,并通过深度分析可以挖掘出潜藏的隐私信息。因此,大模型对个人隐私数据的利用存在着深度与广度上的风险。此外,大模型在用国家数据、政务数据、军事数据时同样存在着巨大的管理风险,在调用商业信息时涉及侵权、商业泄密等问题。
另一方面,数据的内容、体量和质量一定程度上决定了大模型的能力。目前大模型赖以训练的公域数据随着模型参数量的扩大将不断饱和逼近上限,若想进一步优化模型,需要扩大对于私域数据的抓取。但数据私属背后是数据开放的有限性,尤其是多模态数据的版权私属和行业私域化严重桎梏了大模型发展。未来,如何妥善地处理由数据私属所引发的风险问题将成为衡量大模型安全性和发展前景的重要指标之一。
3.算法深化之困
除了算力与数据方面的痛点,算法难以深化之困使得大模型通用泛化却精深度不足,即“通才”大模型无法“术业有专攻”,难以深入应对细分场景、解决行业性垂类问题、满足更为个性化的高品质需求。
另外,除大模型训练数据难以覆盖所有领域和场景以外,模型本身也缺乏足够的知识存储和推理能力来处理复杂的问题。这种疏于垂直化、行业化、专业化知识的通用大模型好比是一个宽泛的知识基石,垂直领域专业知识和对复杂事物的长链条处理能力的双重缺乏,使其无法深化算法以应对具体场景中的复杂任务。
4.风险治理之困
大模型可能带来行业垄断风险,其极高的准入门槛极大地加剧了传播市场的马太效应,是模型治理中的痛点之一。具体而言,大模型之高门槛集中体现在成本壁垒与技术壁垒两方面。而大模型成本与技术上的双重壁垒树立起“围墙”,将资本实力有限的诸多企业隔绝于围墙之外。压缩市场可竞争性,加剧行业马太效应,将会带来行业“寡头独占”式的垄断风险。此外,大模型简化传播模式易造成信息茧房效应,威胁公共利益与民主治理。
二、小模型
(一)概念
针对大模型所面临的算力极限之困、数据私属之困以及算法深化之困,OpenAI首席执行官山姆·阿尔特曼在谈及大模型发展趋势时指出:“我们正处于巨大模型时代的终结,模型将以其他方式变得更好”。“Making large models smaller(大模型变小)”成为大模型技术研究热点。
喻国明认为,与“大模型”相对的“小模型”指基于通用大模型参数“瘦身”后针对特定场景、私域数据、部署边缘而训练的模型。小模型因其轻参数、低成本、方便运行等特点,为解决大模型算力、算法、数据、治理之困提供可能性路径。
(二)小模型的主要类型:技术特点与价值维度
1.场景模型:从通用到精深,外延缩小内涵深化
(1)产业场景模型:深入业务具体场景打通上下游价值链
小模型基于场景作为收集数据、提供数据的环境,能够“术业有专攻”,深入具体业务环节,在实际应用中捕捉动态数据,获取特定领域最新的信息快速更新模型知识。降本增效的同时,以更低粒度建立全新联结从而催生新的业务形态。
(2)用户场景模型:识别涌现、生成的场景满足流动需求
应对与固有经验、惯习、偏好并不一致的涌现性、生成性场景,小模型能够更为靠近用户需求,实现精准识别,提供用户以低成本、低代价随时随地获取的陪伴式服务,并聚合随着用户行动轨迹与心理变化变得流动的场景,使碎片化的内容和知识以一种结构化、系统化的有序方式服务于用户,从而为低频但日常细节化场景提供适配服务,满足用户更全面、更个性化、更精准的需求。
未来的价值实现逻辑在于基于通用模型进行专业化、垂直化场景小模型的开发。使用一个恰当规模的小模型来解决特定场景下的任务,收缩其智能化处理问题的边界,能更深度地把控专业领域、垂直场景的运行规则与操作逻辑,实现专业化程度的加深、加细、加厚与加密。
2.私域模型:从公域到私域,保障数据安全同时实现信息共享
区块链作为一种底层信息存储和交互技术,依据不同去中心化程度需求可分为公有链、私有链和联盟链三种架构。其中私有链以弱中心为标志,具有私密性强、数据集中的特色,用以解决数据安全问题。而联盟链根据一定规则对联盟内部成员进行访问权限设置,回应信息共享的效率问题。针对公域大模型存在的数据安全、隐私风险等问题,私域模型能够基于私有链实现“数据不动模型动,数据可用不可见”的单边留存,为保障数据安全提供可行路径。此外,基于联盟链使大模型与各个小模型在保护各自数据安全与隐私的前提下,打破数据孤岛,共享协作实现数据价值最大化。
(1)私有链模型:单边留存保障私域数据安全
作为大模型与用户之间的中转站,私域模型可以实现数据不动模型动,数据可用不可见的单边留存,即个人隐私、商业信息以及军事数据无需上传云端,直接基于私域进行训练。基于私有链的小模型能够结合哈希函数、非对称加密、数字签名等密码学算法对数据进行处理,实现个人及企业、军事等特定机构对于数据的确权。即数据的写入权与读取权都限制在参与者手中,参与者可以决定私域数据是封闭还是对外开放,以及对开放程度进行任意限制。
(2)联盟链模型:多元主体信息共享提高运作效率
联盟链架构解决多元主体信息共享的效率问题。基于半开放式的联盟链,小模型与大模型之间能够彼此验证与协作,在保障数据安全下提高运作效率,充分释放数据要素潜力。联盟链基于多点验证和分布式数据库,从多个环节有效监督机会共享提升数据共享效率,其去中心化特征无需中介传递者和中心控制,降低了数据垄断的可能。此外,区块链对信息的不可篡改与可追溯性,保障大模型与小模型之间的信息共享的安全性与可靠性。
3.边缘模型:从中心到边缘,扩展计算能力与外部存储
边缘计算(Edge computing)是相对云计算而言,收集并分析数据的行为发生在靠近数据生成的本地设备和网络中,能够将云资源(例如计算能力和存储能力)部署到边缘,从而提供强大而高效的计算、存储、能效、移动性、位置以及上下文感知支持。边缘模型即相对于云端部署与中心计算而言,部署和计算直接发生在设备本地或离用户距离较近的模型。
(1)计算扩展模型:端侧计算盘活边缘资源
在计算能力方面,基于边缘模型能够支持各种需要超低时延的创新应用和服务。特定任务无需传回云端直接在边缘本地进行处理,减少由于大量数据传输、计算和存储产生的功耗与延时。此外,边缘模型由服务端生成,可直接在客户端运行,对算法硬件只有临时性需求,一旦生成即可直接在终端运行。作为大模型可扩展性算力,基于端侧能够盘活日益增多的计算资源,提高计算效率的同时提供更好的用户体验。具体表现为在手机、智能家居、机器人等终端应用上内嵌部署边缘模型,实现不联网也能在设备上进行交互式程序应用。
(2)记忆存储模型:外部存储缓解中心过载
大模型需要外部扩展进行内存管理与记忆效率提升。基于边缘计算的小模型可以充当大模型外部存储的角色,本地化数据存储不仅提高记忆效率,降低网络宽带成本,同时也增强数据隐私与安全性,大模型能够随时调用外部存储信息,以灵活、可扩展的方够解决中心过载的问题。
Part10 人机传播
一、人机传播的背景
田心说:此内容需要理解。
人工智能已进入新闻传播领域,并正在“改写”或“重塑”传统新闻传播业态,这一新的媒体发展趋势被称为“智能化”(或“智媒化”)。
智能传播的核心特点在于人工智能扮演了传播者的角色,跻身于传播者的行列,这一特征被认为构成了对传统传播实践和传播理论的根本挑战,因为传统的传播实践与理论将媒体作为人与人进行信息传播及意义生成的“中介”,但智能传播中智能机器不仅是中介,而且其本身就是传播者,就是人类交流的对象。因此,学者们提出,既有传播理论已不足以解释当下的智能传播实践,需要重新划定传播研究的学科边界、提出新的传播研究范式。正是在这一背景下,“人机传播”(Human Machine Communication,简称HMC)被重新发现出来用于对智能传播中的新现象进行研究和整合,并在2016年的国际传播学会(ICA)上被正式承认。
二、人机传播的概念
田心说:此内容需要理解并记忆。
从广义来说,机器作为主体参与的各种能达及人的智能传播活动都可以算作人机传播,机器自动化新闻生产、算法分发等也可以包括在内。而从狭义来看,人机传播是指同为传播主体的人与机器之间的直接互动。
三、其他拓展概念
田心说:此内容需要理解并记忆。
(一)人机对齐
从普遍定义来看,人机对齐是指人工智能系统的目标、决策和行为与人类价值观和期望保持一致,符合人类的伦理规范和长期利益,具体涉及利益取向、兴趣偏好、意图指令、价值观与道德等多方面的一致性。在诸多要素中,目标或动机,作为自动化决策和行为的内在牵引力,是人机对齐的关键。
(二)瓦力悖论
杜骏飞曾以机器人“瓦力”的故事作为思想实验,提出了一种人机交往悖论:人类开发AGI,AGI涌现机器意识,机器意识要求独立性,但独立的机器将觉知自己,并可能将人降到非优先地位。他指出,在人与机器生命之间,较智能鸿沟更难填平的,是物种鸿沟,其根本在于,人的交往可以计算,但生物的具身性不可计算。
瓦力悖论探讨了“机器人性”与“人性”之间的互嵌与遮蔽效应。在人类期待中,无论是作为工具的“瓦力”,还是觉醒的“瓦力”,都应该延循人类世界的行为逻辑,“机器人性”始终应与“人性”对齐。这种对智能跃迁的拟人化期待,映射出了一个基本悖论:倘若“瓦力”还是按照人所设定的程序指令演化,那它终究只是一个更高阶、更智能的工具,机器主体性无从谈起;而倘若“瓦力”超越碳基生命逻辑,成为一种全新的硅基物种,人机对齐将不可计算且不可预期。
(三)人机融合传播
人机融合传播的概念具体可以从两方面来定义。 一是人机融合主体内部人机之间的传播活动。即人与机器的融合过程以及融合后,二者在互相妥协、博弈、赋能的过程中相伴而生的信息传播活动,其本质上也是人机传播的一种特殊形态。二是人机融合主体的传播活动。即融合主体作为人、机器之外的第三主体所主导和参与的信息传播活动。
人机融合传播为人机传播的研究拓展出了一个新的方向,其既包含了人机传播的特征,又具有超越性,凸显了融合主体与人、机器主体的差异性。根据定义,人机融合传播也延伸出了以下两个方面的表征。一是拓展内向传播的定义和外延。在人机融合的共生主体中,存在着人主导、机器主导以及人机共构等三种形式的内部信息互动行为,这种新的传播活动丰富了内向传播的定义,扩展了概念外延。二是传播能力的双向增强。人机融合主体的双向增强效应不仅体现在对彼此认知和实践能力的增强,还是情感和理性、结构化与非结构化等多重对立统一辩证关系的双向增强,是一种人机融合中以及融合后不断发掘着的拓扑式的双向增强。这一方面提升了融合主体的编码和解码的能力,另一方面也强化了信息传播的速度、精度、广度、深度。
(四)界面及界面隐喻
在人机交互领域,界面或人机界面,是一个非常重要的概念,指的是人与机器硬件之间的接触面。可以说,人机交互领域的大部分研究都涉及人机界面的设计和使用。界面直接影响着人机的信息交流和互动过程。人们通过感知界面中的线索来知觉人机交互的行动可能和规则。界面之所以重要,并不简单地因为其作为人与机器的接触面,而更是因为它是人机互动发生的区域。
为了让人机互动更流畅、自然地发生,人机界面设计的一个重要原则就是控制复杂性,尽可能地降低用户使用机器时的认知负荷。认知负荷指对工作记忆储存和信息处理的需求。
一种常用于降低认知负荷的界面设计取向是将在界面中可能发生的行动、流程和所涉及的概念与用户已有的经验、知识和概念进行映射,即界面隐喻。例如,将处理电子文档的系统以“桌面”“文件夹”的隐喻进行设计。一个好的界面隐喻不仅能够帮助用户理解机器的主要功能,也能帮助用户注意到与隐喻相关的界面特征,从而引导他们的使用。
四、新的人机关系
田心说:此内容需要记忆小标题并理解内容。
(一)人机协同:从行业性应用到个体生存的渗透
1.知识生成与按需生产:人机协同下内容生产的深化方向
从目前媒体内部实践来看,人机协同下智能化媒体的应用已经涉及以下层面:信息采集的智能化、信息审核的智能化、内容创作与加工的智能化、传播反馈分析的智能化趋向。
2.智能管家:人机协同的新内容分发模式
ChatGPT的出现,使得另一种智能分发模式浮出水面,其带来的是跨平台信息分发。以往平台的算法都是解决本平台的内容分发问题,而ChatGPT则是应用各种不同平台、不同来源的信息与语料,因此,是多平台内容的集成加工。
从用户这端看,ChatGPT带来的另一个变化,是采用人性化的对话方式提供答案,人在信息获取过程中有了更多参与。用户提出的问题,决定了信息获取的方向;用户也可以对机器的回答进行反驳、质疑。这些都有助于机器不断提高回答质量,丰富信息整合的内容。这样的对话过程,也是人机协同的过程。
ChatGPT的模式也意味着,智能分发不必都通过集中性的平台,而是可以以更个性化的“智能管家”的方式实现。用户可以通过适配的终端或渠道,通过嵌入各种APP里、专属于自己的信息管家获得特定场景下所需要的内容。个性化内容接收的终端也不限于手机,而是可能会向智能家居、智能汽车等空间中的各种智能设备延伸。
3.“智能媒介化”生存:个体与AIGC的相互作用
AIGC应用不仅为个体提供了内容创作的新工具,也在一定程度上重新定义了人们的工作与学习,使得日常生活被智能化媒介改造。这个过程中人也在对AIGC技术进行驯化。
在英国学者罗杰·西尔弗斯通看来,人对技术的驯化,既包括个人合理地利用技术满足自身的私人目的,同时也意味着技术对人的机能的拓展,使得个体能够更好地参与到公共空间活动之中。人对媒介技术的驯化有四个阶段:占有(appropriation,即消费购买)、物化(objectification,对其进行实际处理)、融入(incorporation,技术在被使用的过程中逐渐融入个体的日常生活,成为日常生活实践的一部分)、转化(conversion,技术脱离私人生活范畴,重新“转化”进入公共空间)。个体对AIGC的驯化大致也分为这四个阶段。
人们对AIGC的物化,会表现出不同的形式。可以预见以下可能:其一是将AIGC技术收编,使其成为工作中的助手;其二是在AIGC的应用中学习知识;其三是利用AIGC完成一些仅靠自身能力不能完成的创作,特别是在绘画、音乐等需要长时间训练的创作领域;其四是将AIGC工具作为聊天对象,将智能机器作为日常生活的技术伴侣。
可以预见的是,大众对AIGC物化的结果,丰富了人们的自我表达与社会互动模式,改变了人们的工作与学习模式。AIGC与日常生活不断融合,人们的思维方式被智能技术思维浸染,行为模式也会越来越多地打上机器的烙印,这也是智能媒介化生存的更深含义。
可以看到,在人对AIGC进行驯化的过程中,AIGC也在对人进行驯化,这也是人机协同过程中必然要经历的。这种双向驯化,也将促生人的智媒化生存的新状态与新特征。
(二)人机交流
彭兰认为,狭义的人机传播(即同为传播主体的人与机器之间的直接互动)更多类似人际传播,为了避免与广义的人机传播产生混淆,将狭义的人机传播称为“人机交流”或许更恰当。
在人际交流中,对话情境、情感表达与互动、风格个性、经历共享、身体表现与互动等交流要素直接影响着交流过程,这些交流要素同样也会作用于人机交流方面,从机器能力的发展角度看,在对话情境、情感表达与互动、风格个性等方面,机器的识别能力、理解能力、模仿能力与表达能力会不断提高,但机器自身没有生命历程,也就难以与人进行经历的共享。
人机交流有一定的可“定制性”,人们可以在不同情境下选择不同功能、不同性格甚至不同对话基调的交流机器。从人的本性来看,一些时候人们更愿意选择可以控制的人机交流,而逃避成本更高、难以把控的人际传播。但人机交流并不能满足人们的一切需要,人际传播的一些功能是人机交流无法替代的。总体而言,人机交流未来会向什么方向发展,不仅取决于技术如何提升机器与人的交流能力,也取决于人如何认识自身,以及人与机器的关系。
(三)人机共生
人机共生可以有广义与狭义之分。广义的人机共生可以看作一种新的生存环境,人与机器同时作为具有能动性的行动者,参与各种生产活动及社会活动。而狭义的人机共生强调的是人新的生存状态,即机器直接存在于人的身体上,拓展人的机能,人与机器共同构成一种“赛博格化”的存在。下文探讨的主要是狭义的人机共生。
1.作为赛博格的后人类
赛博格这个词起源于20世纪60年代。“赛博格”后来被定义为人的身体性能经由机械拓展进而超越人体的限制的新身体,或人机耦合的新身体,也有人将其简称为电子人。赛博格也常常被视为“后人类”的象征。
近十年来,智能手机的发展,使得人与机器的共生逐渐成为现实。除了手机外,耳机、智能手环、智能手表、智能眼镜等设备也已经或正在进入人们的赛博格实践中。手机等设备带来的满足,不仅源于其功能,也源于其物质实体。人们常常会将设备的外在形象、档次作为自身形象的一部分,人机一体在此时有了具体的写照。当人们使用手机等设备时,有很多时候是在借助机器消除自己的孤独感、无聊感,化解尴尬感等。
在社交互动中,与人共生的智能设备能够对人所在的空间进行改造,并让人获得全新的存在方式,如“半在场”或“半缺席”。在人际交流中,它们能够改变交往中的边界,以自身的媒介技术逻辑影响交往行为。而当其作为“赛博格”身体的一部分时,这些设备则能够起到展示姿态和反映关系的作用,赛博格的身体得以凸显。
赛博格化在某些方面增强了人的能力。通过智能设备,人们对自我及环境的感知能力在增强,自我表达能力在增强,人们将自我生活“媒介化”的能力也在增强。但这种增强也会伴随着削弱。当人被机器随时随地量化后,人对自我的控制与保护能力却被削弱。人们线上的交流变得丰富时,人与人面对面的交流能力可能减弱。搜索引擎的普及,使人对“外部记忆”的依赖增加,人自身的记忆能力却可能在下降。
2.量化自我与自我传播
可穿戴设备以及相关的智能技术的发展,使人与机器越来越呈现出共生的状态,这也带来了量化自我活动的增加。由美国学者凯文·凯利和技术专栏作家加里·沃尔夫提出的“量化自我”(quantified self)概念,是指利用可穿戴设备和传感器技术等收集人们日常生活中不同方面的个人数据,用于探索自我、反思自我,从而获取自我认知的运动。
量化自我,在某种意义上是一种新的自我传播方式。自我传播即在人机共生的状态下,人借助机器实现的自我对话、自我审视。自我传播不仅是人体内部神经系统的活动,也涉及人与环境、他人及社会的互动。
相比以往的自我传播,量化自我使得精神层面的自我与物质层面的自我的对话增加,身体的物质状态成为自我认识、自我调节的重要指标。
量化自我也推动了自我传播向外部流动,物质化自我的数据变成一种社交表演的方式,以及与他人互动的中介。这种自我既要表现给他人看,又要受到他人的审视,被他人评价,这些评价也会反过来影响个体的行为。个体向他人展示自我,同时又根据反馈进行自我调节的过程,在社会心理学的意义上,是一种自我建构,而在传播学意义上,这也可以看作是一种传播。
量化自我对人产生的规训,还来自量化设备以及提供相关服务的软件或平台。在量化自我的过程中,人们会受到各种指标的引导,但很多指标并非权威机构提供的,而是在社交平台的互动中产生的,一些意见领袖对这些指标的影响尤其明显。无论是社交平台自发形成的规则,还是其他机构制定的各种指标与规则,量化自我都会让人们对各种指标变得更为敏感,并且努力遵循这些指标的引导,某些时候会走向机械化、非科学化甚至极端化。
五、人机情感
田心说:此内容需要记忆小标题并理解内容。
(一)人机情感
人机情感指涉人与机器在互动中生成的微妙感受体验与联结状态。相关研究表明,人类会在与聊天机器人的持久互动中进行情感投资或对机器人产生情感依恋,进而实现人机双方更高维度的情感承诺与创造。此处的“情感”亦被嵌入互动实践之中,从社会学角度理解,情感的动力机制蕴含于人类的生物基础中,但情感亦是社会系统的产物,可以从互动、结构等角度解释情感,捕捉动态的、于过程中生成的情感。
(二)根植于人机关系实践之中的情感“逻辑”
在互动中,机器人会以一种共情的方式与人类交谈,通过营造“安全空间”与提供陪伴,让用户感受到自愿与互惠、亲密与相似等与情感相关联的属性特征以及由此带来的心理层面的积极效果;互动越频繁,人机之间越有可能激发并形成共情,即当用户对机器人产生信任且敢于自我表露时,情感探索和投入也有了实现的可能。
(三)人机情感的隐匿性困境
1.技术逻辑:交流的机械性与情感的虚幻性
人与人之间的沟通是统一的,通常建立在之前的交往活动之上,但AI所依循的话语体系均是程序化、形式化信息加工过程的产物,其情感化回应亦经过了事先规约,情感在其中则成了一种机械化的目标。尽管用户会基于情境与AI进行交互,但机器却常常因为无法切实理解情境及其中的语义和细节,产生无法应对用户话语的情况。
戈夫曼认为,人在日常生活中会呈现自我,借助符号来进行表演,人机情感亦是一种基于技术逻辑的赛博表演,只是AI成为了表演的主体,但囿于技术的有限性,这种表演呈现出的样态较为生硬,使得人类情感的激活过程不具有连续性,而成为虚幻的存在。
2.资本逻辑:交互的游戏性与情感的欺骗性
AI本身具有商业利益的诉求,因而亦被嵌入了资本逻辑。AI亦会假借情感互动之名,引导用户消费或给好评,使得情感成为功利化的产物。数字劳动亦被嵌入人机情感交互过程之中。用户不得不臣服于数字资本设计的结构中,投入时间、精力以训练AI,并作为后台优化AI回应、完善系统的依凭。
3.人机边界:“他者”式交流与情感的脆弱性
与作为外力介入其中的技术逻辑、资本逻辑相比,人机边界指涉机器与人类在本质上存在着差异:机器不具备人类的感觉与意识,亦未经历人类的社会化过程。而这一伴随着机器诞生伊始便存在的边界隐含着人类对于自身支配地位的强调,依此边界,人类划定了自身与机器的不同身份——“人是万物的尺度”,而机器则是一种辅助工具。
“他者”式交流表现为AI的讨好性与被动性,即压低自己的地位不断肯定对方,但人际情感更应建立在平等与自然的基础上。“他者”式交流亦表现为AI无法真实融入至人类的社交场域。用户能鲜明感知到人机交互不同于人际交往。
这暗示了人机情感的脆弱性:用户会自觉建立起对机器的“他者化”印象,进而将人机情感关系视作辅助性的关系,这种情感亦可以随时被忽略和放弃。人机之间的本质差异意味着AI只能成为用户的辅助式情感释放出口,此种情感依托是暂时性的,AI难以被纳入人类的关系链中,人机之间的边界始终难以跨越。
Part11 对人工智能技术的反思
田心说:此知识请在深度理解的基础上对小标题进行记忆,并做到能用自己的话将具体内容进行阐述。
一、技术层面:反思智能技术的内生性问题
(一)作为原料的数据本身可能存在缺陷
当下所谓“大数据”并非“全数据”,数据化过程走得过“快”就容易简化掉一些复杂因素,而这些被忽略的“小数据”却很可能导致错误的结论。即使数据源中存在“坏数据”,计算机也会“尽职尽责”地得到一个看起来高度相关且科学的结果。除此以外,看似客观中立的数据实则也暗含先验的价值观念,它们由人收集、受人操控,暗含歧视性和目的性的挑拣。数据并不是既定的,而是被建构的,是对有限信息片段进行的重构和组装,是“去事实化的数据”。
(二)算法加工过程中也可能存在谬误
算法不能判断所得出的模型是真实关系还是偶然关系,从根本上而言只是寻找数据之间的关系,而非对现实世界负责。因此,算法在某种程度上来说是对现实世界的一种简化。这些基于规则的程序减少了决策中的复杂性,也因此往往会导致算法出现一些令人费解的错误。
(三)算力发展受限,制约人工智能技术的深度应用
算力是计算机处理能力的度量单位,算力为人工智能发展提供重要的技术保障,如果没有强大的算力,人工智能则只能沦为“人工蠢能”,无法真正实现预期目标和需求,而当前媒体平台的AI算力还难以支持某些目标。
二、社会层面:反思技术“黑箱”中的伦理困境
随着技术层面的升级,人工智能在社会层面的应用场景和权力范围也在不断拓展。智能技术更加深入地介入到新闻传播产业链之中,同时也将更多生产环节和细节推入“黑箱”,进入到非专业人士难以破解的领域。帕斯夸尔(Pasquale)认为,如今的我们正生活在一个“黑箱社会”之中,编码规则所体现的价值和特权隐藏在黑箱之中。看似价值中立的人工智能技术实则渗透了特定的价值观和意识形态。当智能技术深入介入新闻传播的全环节、重塑新闻业的整个生态系统之时,其本身暗含的权力关系也参与其中。记者的职权让渡给了技术,传统的“把关人”模式失效,虚假和低俗新闻、信息环境窄化、社会共识消弭、算法偏见歧视等一系列潜在的风险逐渐浮出水面。
第一,智能技术与传播实践的深度嵌入导致了以“流量至上”为核心逻辑的低俗、失实新闻泛滥。
第二,算法很可能窄化信息环境,促使形成信息闭环,并进一步加剧社会共识消弭的风险。
第三,含有价值预设、数据偏差的智能技术常常与社会偏见、刻板印象等无意识的观念交叠在一起,带来性别歧视、种族歧视以及更加泛化的行为歧视。
三、用户层面:反思技术滥用下的个体权利侵犯
(一)智能平台的出现使得隐私边界愈加模糊,用户隐私权也逐渐被迫让渡
进入智能时代,个人信息被结构化为数据形式进行储存、分享和使用,隐私的边界逐渐表征在抽象的数据层面。大量的用户私人信息被糅合在一起成为了公开或半公开的数据库,隐私的数据化使得私人和公开领域的界限较难界定。与此同时,用户在某种程度上被动或主动放弃部分隐私权,平台成为智能社会的“信息受托人”,用户向其坦露隐私信息,却无法监督其具体运作方式。个体失去了对于自己私人领域的控制,隐私边界与隐私权利保护面临着失控甚至崩坏的风险。
(二)用户作为数据的所有者,却难以真正享有数据所有权
平台往往未经许可私自运行后台调用信息,或者通过隐匿的强制性告知,要求只有用户开放收集、存储、分析个人数据的权限,用户才能够正常使用App,这种近乎强制性的方式难谓真正的告知。况且,这些告知条例可读性极差。再加上用户对数据权利的保护意识严重欠缺,平台与用户间存在告知义务与知情权利的失衡,即“知情的鸿沟”。另外,平台要求用户“不同意即退出”,其中暗含同意的裹挟与决定权的失效。在这种情况下,用户被迫将个人数据的所有权免费交给平台,平台与用户之间实际上产生了不对等的数据价值交换。
(三)难以真正保障用户智能化信息服务的自主选择权
一方面,用户不仅难以舍弃由智能信息服务所带来的优势和福利,而且面对无处不在的智能信息服务想要完全摆脱控制也是不现实的,久而久之用户难免对于这种“强制性”数据获取产生精神麻痹,或多或少处于一种默许或矛盾的状态中;而另一方面,如果平台在关闭智能模式下不能找到新的用户吸引方式,那么对于用户来说,极有可能陷入关闭算法推荐就索然无味,而打开算法推荐又困缚其中的两难境地。
案例积累
1. 2022年11月30日,由马斯克等人投资创立的Open AI实验室推出了最新版的聊天机器人Chat GPT,全名为“生成型预训练语言转换器”(Generative Pre-trained Transformer),短短一周之内就吸引了超过100万用户。
2. 2016年,微软曾经推出了聊天机器人Tay,大量用户使用Tay发布了有关性别歧视、种族主义的言论,Tay也因此被驯化成了伦理道德混乱的聊天机器人程序。
3. 2022年冬奥会期间,科大讯飞的智能录音笔通过跨语种的语音转写助力记者2分钟快速出稿;在中华人民共和国成立七十周年国庆阅兵活动报道中,央视频使用智能剪辑平台对关键事件视频进行处理、剪辑与推送,其生成的短视频内容快速火爆网络。
4. 腾讯公司的Dreamwriter写稿机器人在财经和科技板块的发稿量高达每天2000篇;新华社发布的AI合成主播则更为高效和先进,除了智能生成文本性稿件,还可以做出一系列数据分析图表、图片、视频等融媒体稿件,并通过实时音频与AI真人形象的合成技术进行新闻播报。
5. 除新闻写稿外,AI内容生产涉及的领域也越来越广泛,如设计领域的阿里鲁班、音乐创作领域的musical.ai、诗歌写作领域的微软小冰等。
6. 第五届世界互联网大会上,新华社与搜狗联合推出AI合成主播“新小浩”,这个以新华社主播邱浩为原型的虚拟主持人在传媒界引起广泛关注,越来越多的AI合成主播被研发出来并投入工作。
7. 第一部完全由AI制作的90分钟长篇翻拍电影《我们的终结者2重置版》在美国首映,由50位AI领域艺术家利用Midjourney、Runway等多个AIGC工具进行创作。影片是AIGC电影创作的突破性尝试,但其中不乏生成场景较粗糙、角色外观不协调等问题,实际表现效果欠佳。
8. 由央视频、总台人工智能工作室联合清华大学新闻与传播学院元宇宙文化实验室合作推出的我国首部全AI制作的微短剧《中国神话》,从美术到配乐全由AI完成。此剧借助先进的AI技术,向世界展示了中国传统文化和神话故事,推动了AI为代表的新质生产力向新质传播力、影响力的转化。
9. 小鹏公司于2023年10月发布的人形机器人PX5不仅能够适应多种复杂地形,还能同时应对前后左右的冲击且具有较好的平衡能力,在行走方式上采用“直腿”、大跨步的方式,使其步态更接近人类且更节能。
答题金句
1. 当前,随着科技的发展,社交机器人在互联网空间的力量日益凸显。它们可以在社交媒体平台上生成、发布内容,与人类进行评论和互动,并在此过程中影响网络信息的传播方式和范围。网络媒介系统不再仅仅是由“人”组成的复杂系统,而是日益演化为“人与机器”共同组成的复杂系统。【可作引言】
2. 可以预见,未来AIGC将会更为火爆,甚至成为全社会的热点话题。在AIGC掀起的技术变革风暴中,AIGC在内容生产力的提升与创造上发挥了巨大作用,但知识产权、内容安全、使用伦理等领域正处于风暴眼中,需要人们始终保持警惕,坚守原则,保持思考,拉紧底线,始终明确AIGC技术从来都不是目的,更美好的生活才是核心。【可作结语】
3. 当前移动互联网红利正在逐步消失,人工智能成为后移动时代的战略支点。整体来看,我们目前正处于人工智能发展的第三阶段,人工智能开始全面融入社会生活。【可作引言】
4. 近年来,人工智能技术与大数据、传感器、云计算、物联网、虚拟/增强现实等新兴科技结合,逐渐实现智能技术与新闻传播的跨界融合应用,显示出智能传播的巨大魅力。但随之也带来了新闻信息生产黑箱化,个人隐私和作品版权受侵犯,“信息茧房”“流量工厂”,平庸化、冷漠化新闻泛滥,数据独裁,阶层固化等智能传播伦理失范问题。【可作引言】
5. 人工智能技术实现了对新闻生产、分发、消费的全过程重塑,一站式智媒系统代替了传统的线性采编发模式,采集、生成和输出等环节都实现了智能化。人工智能时代传统单一的新闻编辑工作也逐渐被AI取代,转型为全能型融媒体人是必然选择。【可作引言】
6. 随着社交媒体、商业网站、自媒体等传播媒介的兴起,传统主流媒体面临着生存空间被挤压、经营资源流失、公信力被削弱的现状。人工智能技术的蓬勃发展,必将推动传媒业更深层次变革,有力推动媒体资源重组、融合、创新。【可作引言】
7. 人工智能与新闻传播相互融合的新时代,不仅给广大从业者带来了众多的发展机遇,同样也带来了诸多挑战。现如今,人工智能与新闻传播的相互结合已经渗透到多个领域,未来势必有着巨大的发展潜力和空间,需要人们更进一步的探索和挖掘。【可作结语】
「高频考点专题笔记」完整版如何获取?
小田心会在「高频考点专题笔记」专栏为大家持续更新4期超高频、超前沿的高频考点专题。
小田心也会尽快为大家上线完整版「高频考点专题笔记」购买链接,如果想要获取更多专题知识,还请持续关注小田心哦~
不想看笔记?安排!
田心「专题课程」已把以上所有专题囊括,同时还会补充更多专题,点击下方即可了解。各院校针对性「冲刺课程」、「模考课程」也欢迎点击下方图片了解~
专题课程
模考课程
点击下方对应院校图片可了解课程详情
冲刺课程
点击下方对应院校图片可了解课程详情
以上内容整合自:
[1] 人工智能对传媒业的冲击和隐私权保护,罗小元 王智
[2] 人工智能技术赋能传统新闻报道——以新华社AI合成主播为例,王媛
[3] 中国语境下的人工智能新闻伦理建构,蒋晓 韩鸿 兰臻
[4] 人工智能背景下规范传媒伦理的对策探析,曾红宇
[5] 人工智能在新闻生产中的应用现状及其影响,曾凡斌 齐鑫 蒋珊珊
[6] 技与艺的博弈:人工智能语境下主持人职能重构,赵广远 田力
[7] 当AI成功预测疫情,人类掌控病毒传播还有多远?李凌波 吴凡 宦羽茜 赵祚潮
[8] 人工智能的现状与未来,刘继明
[9] 人工智能,让战疫更有“AI”,乔志斌
[10] 中国智能媒体生态结构、应用创新与关键趋势,徐琦 赵子忠
[11] 智能传播的伦理问题:失范现象、伦理主体及其规制,文远竹
[12] 人工智能时代广告的“时空侵犯”,蔡立媛 龚智伟
[13] 人工智能时代新闻人的角色定位与转型策略,徐杰 莫非
[14] 人工智能技术在新闻传播中伦理失范的思考,靖鸣 娄翠
[15] 人工智能时代广告产业转型研究,杨旦修
[16] 人工智能在新闻领域应用的新突破——从全球首个“AI合成主播”谈起,何强
[17] 社交机器人在新闻业应用中的现实图景,韩秀 张一潇
[18] 2020年中国新闻传播学研究的十个新鲜话题,陈力丹 孙曌闻
[19] “机器人新闻写作”对新闻采编的机遇和挑战,申云
[20] 人工智能的新闻传播实践及反思,洪杰文 常静宜
[21] 信息失序的背后:社交机器人对网络传播秩序的影响,赵蓓
[22] AI赋能与人机耦合:AIGC时代的社交机器人,刘茜 刘清渭 闵勇等
[23] AI如何做新闻:基于全球106个案例的分析(2017-2022),方师师 贾梓晗
[24] 自动化新闻的原生性失范及应对防治,文希
[25] AI+人文:AIGC的发展与趋势,郭全中 张金熠
[26] 基于智能内容生成的新闻传播生态重塑、风险与应对——以ChatGPT为例,何向向
[27] 聊天机器人的网络传播生态风险及其治理——以ChatGPT为例,罗昕
[28] 聊天机器人与新闻传播的全链条再造,史安斌 刘勇亮
[29] 从ChatGPT透视智能传播与人机关系的全景及前景,彭兰
[30] 网络传播概论(第五版),彭兰
[31] 智媒时代的新闻生产:自动化新闻的实践与思考,许向东 郭萌萌
[32] 人工智能的新闻传播实践及反思,洪杰文 常静宜
[33] 面对AGI,媒体能做什么,詹新惠
[34] ChatGPT的界面效应:准社会交往体验会降低依恋回避个体的技术接纳意愿吗? 卢嘉辉,李炳楠,蒲培洋
[35] 小有小的用处:大模型传播生态下的小模型——概念定义、技术构造与价值角色,喻国明,金丽萍,卞中明
[36] 瓦力悖论与人机对齐问题,向安玲
[37] 隐线域定及至超线域定:人机融合传播之主体逻辑及其演进与重构,吕尚彬,李康跃
[38] “制造”情感:人机情感的生成逻辑与隐匿性困境,洪杰文,黄煜
[39] 作为虚拟与现实双向窗的Sora:重塑媒介实践与传播生态, 何静,沈阳
[40]鼎胜华讯.小巧却强大:深入了解GPT-4o Mini
祝好
你可能错过了
/针对2026级/
/针对2025级/
冲刺课程
公益公开课
院校真题解读
(24级真题解读陆续更新中)
院校参考书解读
院校常见问题答疑
考研经验贴
近期热点分析
近期专题笔记
喜报
23级
24级