刘海明、付莎莎 | 技术跨越的可能:ChatGPT的传媒转向与功用确立

体娱   2024-11-08 00:02   浙江  


作者简介

刘海明

重庆大学新闻学院教授,博士生导师,视听传播与新媒体系主任,研究方向为媒体伦理。先后在电视台、报社和杂志社工作,发表新闻评论作品千余篇,发表CSSCI论文40余篇,主持并完成国家社科基金项目4项。在商务印书馆、中国社会科学出版社等出版8部学术著作,出版教材《新闻评论写作教程》。


付莎莎

重庆大学新闻学院博士研究生,重庆大学传媒伦理与法规研究中心研究助理。

技术跨越的可能:ChatGPT的传媒转向与功用确立


核心提示

以ChatGPT为主的生成式人工智能颠覆了既往的传播结构和内容生产模式。当个体与智能机器的连接愈发紧密,人与人之间的直接交互行为趋于弱化,ChatGPT代表的新型人机交互模式逐渐取代传统的人际传播模式,开启智能化中介的传播转向。面对生成式人工智能技术传媒应用的深度化,传媒业者需应对变革所带来的力量转换和功用重建。直面技术带来的传媒业者“无用”争议,要求传媒业者从技术发展的动态视角审视技术的矛盾属性和技术跨越导致的认知与应用割裂的问题,明确人之功能性和重新确立人之主体性,进而从概念先行、信息生产、传播模式三个维度形成技术跨越的基本判断并确立传媒转向的可行性路径。在技术理念与实践路径的结合中,探讨技术生命周期背后的深层逻辑,以及技术跨越下传媒转向中“业”与“人”同频的可能。


内容精选

ChatGPT的问世使得生成式人工智能成为社会关注的重点议题。相较于此前对话机器单一的问答模式,ChatGPT呈现出更多的整合功用特征。用户通过文字输入个人指令后,ChatGPT于几秒钟内便可通过大数据整合自动化生成指定文本内容。这些文本具有一定的逻辑性和功用性,用户可直接将其应用于相关工作。面对用户同一要求但不同表达的文字指令,ChatGPT生成内容的风格、质量也有所差异。ChatGPT表现出人类难以超越的强大数据处理能力和学习能力。随着用户大量使用ChatGPT作为写作、生活工具,学界和业界对这一技术替代个人功用表达了担忧。

技术的升级往往改变人员组织,引发社会结构性变化。生成式人工智能作为技术跨越式发展的表征,存在与社会意识、应用层面脱节的风险,从而干扰技术的正面走向,影响用户的媒介使用行为,造成技术发展与社会进步的不协调。本文以讨论技术“自创生”的特殊属性为逻辑起点,阐释由生成式人工智能技术的跨越式发展造成的社会割裂问题。基于技术裂化展开转向基础和实践路径两个维度的合理思考,并结合个人功用与行业发展的具体实践,提出传媒业者在新技术应用中的职能与担当。

一、技术跨越发展的内生思考

技术迭代的实质是新旧技术之间的断裂与延续:断裂为技术跨越下核心功能的割裂;延续为技术内在的连接,即一种在突破中的保留。灵感力作为技术创新的一环,推动着行业结构的裂化与重组。ChatGPT延续智能技术内在的矛盾属性,又因其与此前的智能对话机器人存在跨越,而产生了技术认知和实践的割裂问题。

(一)技术内含的矛盾性

ChatGPT与智能技术有着内在的连接。“自创生”理论阐述了技术从已有技术的集合中建构而来,已有技术的组合使新技术成为可能。兰登·温纳(Langdon Winner)认为,技术自我增长的基础包括:(1)人类追求和使用技术创新成果的普遍意愿;(2)有组织的社会系统存在于所有技术领域中;(3)作为新的组合与改进基础的技术形态存在。依据这一理论,新技术必然是从前一技术的基础上过渡而来,新旧技术之间既实现跨越也保持联系。新技术作为技术自我的超越,需要依赖已有技术,并以螺旋式曲线不断进化。“自创生”为理解ChatGPT提供了新、旧技术间相互依赖、共同促进的理论视角。

ChatGPT等生成式人工智能技术从人工智能这一载体中产生,依靠已有的大数据框架得以运转。与其他普通对话机器人相比,ChatGPT提供更为丰富和完整的生成式内容,其内容质量与前有技术生成内容的质量形成相应的跨越。普通对话机器人提供“点到点”式服务,仅仅完成用户要求的针对系统或网络的指令,ChatGPT则完善了在这一指令后的网络信息整理和生成信息内容的功能。2023年2月,周云在《羊城晚报》上发表时评《如果ChatGPT代替人类思考,上帝都笑不出声来》,时评中作者要求ChatGPT以某一特定文风写一篇关于中国人口减少的时评,ChatGPT在短时间内生成几百字的评论,作者评价其“平庸但勉强能发表”。随后,羊城晚报客户端“羊城派”发布《我们批评ChatGPT后,又请ChatGPT写了篇同题评论……》一文,文中表示在时评发出后,作者又以“如果ChatGPT代替人类思考,上帝都笑不出声来”为指令要求ChatGPT写一篇时评,而这篇评论被时评编辑评价为“充满了自我批判精神”。

在羊城晚报社的业务实践中,ChatGPT的评论文本的生成依据用户输入指令,不同的指令要求会导致生成文本质量不一。ChatGPT的运转机制为有限问答触发,在预设的框架内(有限)整合资源,满足用户的信息需求。ChatGPT使用页面标注了“more creative”(更多创意)、“more balanced”(更平衡)、“more precise”(更精确)三种对话风格,代表三种不同分析走向的对话预设,以此有限分流信息。个人的思维方式具有发散性和不可控性,而机器提供的服务选项有限,所以用户使用ChatGPT需要转变原有思维模式,以归纳式思维先对自身的信息诉求作出判断,以便能用简洁的话语表达核心诉求。

作为生成式人工智能的最新成果,ChatGPT内含智能技术的矛盾属性。机器思维与人类思维的本质区别决定了智能技术的矛盾属性。人类思维包含无限的可能性,人脑处理信息的过程,包含知道(指令到达)与完整表达(指令转换为具体行动)的过程,这一过程包含诸多未知领域,仅凭现有科学难以完全解读。在人类对于自身的探索尚未清晰的情况下,机器“智能”存在先天的缺陷性,需要在实践演练中不断完善。人们将信息搜集、处理能力交由生成式人工智能,存在着自我完善权利的让渡。ChatGPT的信息生产具有时效性,与社会现实存在一定的时差,这种时差将用户思维局限于有限的时空维度之下。在追求机器智能的过程中,人们将与时间的竞速压力转接到了智能体本身,竞速所指向的结果具有消极性。个体忽略时间竞速的存在,人对机器的使用成为一种自我消耗,个体在这项劳动过程中收获了信息却并未提升个体能力;而机器在运转之中却不断完善着自身的智能性。智能技术的矛盾属性在技术与自然、人与物的能量转换之中逐渐显现。

(二)技术发展的跨越性

ChatGPT作为生成式人工智能技术的代表形态,在智能化方面实现了跨越式发展。这种跨越是技术发展累积到一定阶段带来的技术繁荣。ChatGPT实现的跨越首先表现在其外部表征上,即ChatGPT呈现的具体形态。在ChatGPT进入大众视野前,人工智能的对话机器人主要以伴生形式存在,他们依托于某一主网站或智能机器,仅作为辅助功能出现,例如“微软小冰”“小度”“小爱同学”“Siri”等。此类对话机器人功能较为单一,生成的信息较短且不具备数据分析能力,仅被用户作为调动其他程序运行的中介指令或作为娱乐消遣工具。而ChatGPT以独立的载体提供服务,包括独立的网站和应用程序。用户接入这一媒介主要因为ChatGPT本身的信息生成功能,ChatGPT这一生成式人工智能已成为独立的综合信息服务提供者,其功用价值大于消遣娱乐价值。

ChatGPT在传媒生产方式上显现出速度和维度两方面的跨越。速度层面的跨越显而易见,ChatGPT依赖网络搜索数据提供信息支撑,其背后的运算逻辑是对大数据的计算分析能力,依靠数据模型在短时间内给出结论性分析,生成大量文本、表格甚至是图像内容。技术维度方面的跨越表现在技术的需求引导和价值属性层面。ChatGPT的发展速度远超用户预期。技术发展看似满足用户超前而非必要之需求。技术的背后是组织谋求其利益的需要,此正是“信息也许想要自由,但信息的创造者仍需要吃饭”。生成式人工智能技术对个人功用的取代背后,是对ChatGPT潜在商业价值的追逐。相较于传统雇佣关系,“人机雇佣”更满足技术拥有者的权益。在ChatGPT高速应用中需要审视技术的价值属性,关注不同群体发展需求的差异,从而避免个体成为技术逐利的牺牲品。

ChatGPT对用户媒介使用能力也有着跨越式的要求。ChatGPT带来了人的第三交流,人用机器的话语输入,机器用人的话语回答。交流方式改变的背后,是更为丰富的算法选择。ChatGPT预设的信息处理手段具有多选择性,用户不同的信息输入会导致信息反馈的分层,而信息获取方式也并非简单的智能判断升级,隐含着用户信息处理能力的差异化分层。ChatGPT表面看来为个体用户提供便利,在另一维度上却增加了用户间公平获取信息的难度。ChatGPT提供的服务越复杂,对用户使用技巧的要求就越高。用户因自身技术认知水平的不同和话语表达策略的差异,获取到的信息各异。随着信息差异的叠加,ChatGPT最终指向用户自身的信息固化问题。技术角色由背景迈入前景中来,ChatGPT与人的连接愈发紧密,而人与人之间的连接隔着技术中介更显疏离。

(三)技术实践的割裂性

技术干预传播行为,塑造着新的媒介生态。《未来简史:从智人到神人》提出超人工智能时代下的社会裂化,一部分人沦为“无用的阶层”(Homo Useless),另一部分人迈向“精英阶层”(Homo Deus)。基于ChatGPT所表现出来的强大数据处理能力,人们对于传媒业者功用的担忧显现。由于人们对ChatGPT等新技术的认知不足,在技术实践过程中,技术理念与社会现实之间出现割裂。随着ChatGPT不断带来生产方式变革,不仅传媒业者面临功能被替代与重组,媒介化的社会生活同样受到技术影响。ChatGPT的传媒应用并未促进人际的深度沟通,反而造成人的自我内化。人机协作无须第三方参与,这种功用机能的闭环使人机互动取代了人际交流的部分功能。传媒业的ChatGPT应用亦显现此种技术实践的割裂问题。

其一,当媒介改变用户的工作习惯后,网络端口成为人际交流的重要窗口(互联网、手机等内容的使用佐证了这一论断)。用户在物理距离的限制下需要通过互联网传递、获取信息,其在前台和后台有着两种不同的身份。个人前台形象依托于传播技术的修饰,交流距离变远,形象难辨真假。用户使用ChatGPT的数据成为个人画像的基础,后台画像相比前台形象更为接近真实的自己,由此产生网络世界的前端、后台及现实世界三种个体形象。生成式人工智能带来沉浸式的信息体验,自我成为具有多样性和未知属性的物集合。生成式人工智能技术将单一的物变成复杂的物集合,数据真实在其中难以得到量化,造成媒体对用户“人性”认知的模糊。

其二,ChatGPT重塑信息生产和传播流程。以往传媒业者在信息采集过程中具有较强的个体能动性,ChatGPT提供“一站式服务”的综合信息汇集介入后,传媒业者的前期信息采编效率大为提升,但传媒业者需要花费大量时间审核信息。ChatGPT的算法模型仅包含数据整理产出,而不会对其信源进行审核,因此,ChatGPT生成的内容有可能存在违背新闻真实性、客观性的情况。这些内容被内嵌于已成型的文本,较难被用户识别。“理想的答案取决于模型知道什么,而不是人类演示者知道什么”,不同的话语表达模式会生成与之配套的信息内容,这导致信息生产的主观性较强。ChatGPT往往不会跳出个人定式,传媒产品的新鲜性和突破性则较难实现。

其三,ChatGPT的应用规范尚未明晰,而新生事物会经历一个“不确定论”的过程。不确定论属于风险预判,风险的大小及可控与否决定新生事物应用的难易程度。ChatGPT传媒应用的不确定性至少表现在两个方面:(1)ChatGPT的智能性影响人们对技术工具的正确判断,传媒业者的功用性被质疑;(2)技术责任落地存在视线盲点和灰色区域,内容生产协作中原创版权更易被损害。传媒业者和受众趋向于放大未知事物的风险,在不确定性的作用下,技术发展受到负面认知的干预。

技术实践的割裂导致其应用过程出现诸多问题,并产生不同属性的技术期待。正如传统媒体转型并非问题关键,如何转型才是问题所在,探寻生成式人工智能技术引导行业进化的具体路径才是解决问题之道。对于媒介选择的依据,莱文森(Paul Levinson)给出的标准是:在多大程度上延伸生物有机体传播的能力,以及维持人们面对面交流的能力或前技术传播的能力。传媒业的智能应用同样如此:究竟是延伸传媒业者的有机体传播能力还是剥夺这个群体原有的传播能力,抑或加速其职业能力的转向,是技术应用的核心要素。

二、技术过渡阶段的应用转向

针对ChatGPT传媒应用中的问题,技术转向是技术现实迈向技术理想的过渡阶段。技术过渡需要面临技术理念与现实的适应性发展,思考如何转向从需求定制、机会认知、伦理属性三个方面分析,讨论技术本身的服务属性、经济导向和高维度的伦理需求在其发展过程中的利与弊。

(一)信息传播的定制化需求

ChatGPT被赋予定制信息服务的技术期待。用户以最快捷的方式在ChatGPT上获取信息,信息的有效性表现为用户需求的满足程度。区别于算法推荐的“个人画像”式信息积累,ChatGPT的共鸣感来自用户的直接诉求得以满足。ChatGPT的服务模式为触发型,先有用户输入,后有对应的生成式内容。相较于数据监测式的智能服务,ChatGPT更具针对性。用户提出诉求,ChatGPT提供多对一的信息定制服务,以满足用户信息体验需求。

在“多对一”的模式下,用户的信息获取更为高效。原本充当信息传播者的媒体业者作用被弱化,中介性质的媒介占据传媒业者的位置。“多对一”模式既满足定制化传播需求,也符合信息本身的丰富性。泽利泽(Barbie Zelizer)担忧传播技术应用分散人们对技术缺陷的注意力。智能技术应用在于加深用户的感官体验,ChatGPT保留了更为基础的信息形态(文本、图片等),将智能应用于前端处理分析,减少了智能技术分散用户注意力的问题。ChatGPT更多关注于信息本身的处理,对信息之外的附加因素较少关注。

ChatGPT的传媒功用还体现在信息的生产和传播阶段,一方面加快了信息生产的效率,另一方面改变了传播的既有路径。信息源在传播过程中被融合,从而导致信息审核难度增大。信息的广泛聚集,形成一种看似丰富的整体真实。ChatGPT亦存在定制薄弱环节,比如对情感包容度的设置。ChatGPT提供的是“信息处理和解决问题”的对话服务,属于功能满足而非情感慰藉。ChatGPT塑造了客观中立的技术形象,而技术选择和呈现本身具有偏好性。信息的分类、排布、呈现基于某种选择,机器选择与个人选择均受“价值取向”的影响。ChatGPT只能有限剥离情感属性,传媒业者的ChatGPT使用仍旧存在个体差异和情感预设,这决定了用户与技术连接的紧密性和持久性。

(二)技术认知的多主体视角

技术的复杂性在于技术的潜能和利弊的难测。ChatGPT的传媒应用受传媒业者的价值选择影响,他们如何在无限的可能中实现价值趋同有待继续推导。价值取向涉及技术的“机会利基”(Opportunity Niches),技术的机会即技术的有效利基。机会利基是衡量技术进步的标准,为传媒业者提供不同的衡量方法,ChatGPT为传媒产业结构带来可观的机会利基。智能化产业模式的数据可以自动套用模板,有效提高工作效率并改变已有人员构成。出于对利益的需求,传媒业者对智能技术的应用被视作前沿和必要,尽管其对技术深层逻辑的认知仍处于懵懂状态。

ChatGPT背后的经济价值是多元的,不同主体产生不同的价值导向。媒体机构的ChatGPT使用有着成本控制和提高传播效率的诉求,技术提供方则更多考虑私人盈利需求而非公共利益。由此在ChatGPT等技术形态的创造过程中,“过度”“额外”或“多余”的内容(例如道德规范的内设)并非其基础性功能。ChatGPT技术应用的初级阶段,经济诉求成为主要导向,道德文明层面的内容则被忽略。在“财富和权力集中在极少数精英手中”的政治经济不平等猜想下,传媒业主体结构变化带来经济分配的变化。ChatGPT取代“无用阶层”,使部分人员丧失相关的择业权。依据此种逻辑,生成式人工智能技术取代传媒业者的职业性担忧成立。

传媒业对ChatGPT机会利基的感知能力存在偏差,难以形成行业发展的合力。个体在面对生成式人工智能技术时呈现出不同态度,源于个体的需求感知与现实存在偏差。在威廉斯(Bernard Williams)看来,“真实利益”有别于“自我认知的利益”,真实利益与所感知的利益并不重合,并由此提出了新的伦理问题。个体认定一事物对己有利并付诸行动,却越努力越可能背离自己的真实利益。在这个过程中,传媒业者可能修正认知偏差,也可能意识不到认知偏差。一旦所感知的真实存在偏差,评判问题的标准和结果都将导向错误。机会利基是客观评断传媒业ChatGPT应用成效的准绳,评价尺度需要引入个体感知和社会影响的双重考量。

(三)伦理层面的技术性期待

生成式人工智能技术带来的个人功用变化表现为功能的重组。智能体上投射了个人的生物属性期待,机器在某种程度上弥补了人的先天缺陷,延伸着其功用性。ChatGPT与传媒业的结合促使用户对技术的期待转向更高维度的伦理期待。当前技术期待停留于实际应用层面,关注技术本身的功用性,对技术发展及其内含的道德预设未过多关注。此种期待表露技术应用流于浅表和认知的滞后。当媒体过于倚重技术工具价值,技术对人的反噬作用易被忽略。ChatGPT需要新的价值逻辑引导传媒转向,即生成伦理层面的技术期待。

ChatGPT等生成式人工智能技术所蕴含的生物特征既是人性的延伸,亦是机器的投射。人类渴望感受自然的力量也渴望掌握自然的力量,这是欲望更是对于生物特质的期待。ChatGPT背后是机器有限主体性的表现,作为网络空间的一个节点或中介,它连接着人与信息,并作出判断和反馈。在交互过程中,人的生物性被分摊给ChatGPT这类智能体。随着ChatGPT的广泛应用,业界和学界呼吁暂停生成式人工智能技术的研发。2023年3月29日,马斯克等人联名签署了“Pause Gaint AI Experiment:An Open Letter”,有的国家开始限制对ChatGPT的使用。这种舆论体现的是技术强大的威慑力,以及机器类人后人类的心理恐惧:一方面是对功用替代性的恐惧,人们惧怕机器的功用性质取代人的智能;另一方面是对技术未知的恐惧,担心技术的发展存在某种不可控性。ChatGPT试图明确其作为工具与其他智能体之间的差别,强调其作为对话机器人的信息服务属性而非智能性质。面对用户要求提供更多的情感回应时,ChatGPT会拒绝提供此类服务并再次强调自身的信息属性。

传媒业给予ChatGPT应用机会的初衷是传承和进化。ChatGPT的传媒应用尽力趋避表层情感表达,重点强调程序的信息服务性质,这与新闻传播客观性特质相符。然而现实应用之中,这种趋避性却具有欺骗性质,因为技术预设之中有情感偏好的表达设置,ChatGPT的使用者有自身立场和需要。在不断加强的交互之中,人赋予事物意义,更传递机器以感情,生物性质的伦理期待显现。阿诺德·本涅特(Arnold Bennett)将媒体工作界定为:完善人和事件艺术的固有特征,钝化那些本不属于人的兴趣。媒体实践具有矛盾性,在完善和钝化之间循环往复。技术寄托了传媒业者对于自身的期待和能量转换,在这样的期待中技术的发展不再是纯粹的技术,而是超乎技术体自我的技术指向,这些指向促成传媒业技术转向和传媒业者的功用确立。

在技术规范尚未成型之前,技术发展与个人需求之间需要伦理作为内心准绳,约束技术发展的边界。传媒业者作为受众和技术之间的连接者,需要不断加深这种连接,以强化自身的不可替代性。信息传播没有全球通用的一体化模板,而是有着多种呈现方式。国内的智能对话机器人实践追随着ChatGPT的步伐,百度“文心一言”也是在搜索软件数据支撑的基础上,通过问答提供服务。现阶段,这个程序的数据服务已经扩大到了图片领域。无论是“文心一言”抑或ChatGPT,其都具有相似的技术逻辑,这就要求我们关注智能对话机器人的话语表达,并警惕此类内生的思维模式带来的“假性智能”。

三、传媒业者功用的重新确立

面对ChatGPT所带来的裂化问题,传媒业在厘清转向思路后,就面临“破”与“立”的选择。ChatGPT从信息生产、传播环境和边界重塑三方面重新构建适应技术应用的行业新生态,并在新的媒介环境之下确立传媒业者的职业功用。

(一)数字元内容的生产者

在ChatGPT的传媒应用中,传媒业者既是信息的生产者也是信息本身。生成式智能的进化需要数据的完善,传媒业者的传媒实践提供着大量的数据供技术升级,换言之,被数据化的个体活动促使虚拟空间愈发具体。ChatGPT等智能技术与传媒业的深度结合,需要传媒业者作为元信息的提供者。技术应用让传媒业者获得“表面上的自由”而忽略了“真正的自由”。传媒业者依托技术提供的快速挖掘和再编辑能力,及时处理数据内容。这一过程中,信息本身的真伪和信息“在场感”获得往往被忽略。技术是一种看见自然的方式,也在无形中限制人的行动。依托于数字信息的新闻内容生产,传媒业者在ChatGPT技术提供的信息服务范围下进行内容的再次生产,其思维的发散性和创新性受到限制。

在ChatGPT等智能技术的参与下,传媒活动从人际到人机,其空间活动上的信息传播更为私人化。这种空间活动的私人化带来用户交流的局限和技术功用过大的风险。ChatGPT呈现的信息服务连接是一个中端连接一个用户,用户间无法实时连通。这样的设计看似避免了隐私信息被泄露的风险,但事实上,这种风险转接给了机器背后无数的处理端口,形成信息的伪私密。信息的伪私密导向的是,人与人之间的理解更加困难,机器反而变得更为理解人。在传统的媒体实践中,可以通过约束从业者的行为来规范行业活动,生成式人工智能技术应用则需要通过划定技术的边界来制约从业者的权力。在沿用人工智能的数据保护政策之余,关注ChatGPT构建的伪私密环境及其风险控制尤为重要。此类问题需要传媒业者承担更多的信息生产上的伦理义务。

智能升级下用户群体出现明显的分层。年轻用户身处“天生数字化”(born digital)的媒体环境,中青年用户正值技术跨越的过渡时期,老年用户与生成式人工智能技术的隔阂愈发明显。未来的传媒产业结构也正远离传统纸媒的经验,走向“天生数字化”。信息所包含的事实并不真实存在于当下时空,却可以提供类真实的虚拟体验。当技术承担更多信息真实的义务,关注不同主体在技术使用中的需求则成为新的要求。生成式人工智能技术的应用再次确认数字思维的重要性,因此需要构建新的话语体系输入和识别机器带来的讯息,以此为用户提供丰富的数字信息体验,为人与智能的长期相伴建设基础性工程。ChatGPT初期对信息触发的不同反馈,无疑有加重用户分层的趋向性。传媒业者与技术物化载体之间的区分存在认知难度,在不断地强调生成式人工智能技术对人的模拟和学习作用的同时,传媒业者信息生产对多元人群的包容性更强。

此外,传媒业者承担着真实信息和数据信息的中介作用,用数字信息更为真实地呈现现实世界。技术进行信息处理之外,个人的信息生产活动成为关键。当ChatGPT等生成式人工智能技术可替代传媒业者的基础整合编辑功能时,一手材料的收集和产出成为区隔传媒业者核心竞争力的关键。用户越依赖于网络获取信息,传媒业者则更需要深入现场获取真实世界的信息。现实空间和网络空间的发展方向存在一定的逆向性,促使双方循环发展。如若媒体过于倚重技术工具价值,追求引入新技术进行业务升级,过分关注信息处理而忽视信息生产,在实现技术跨越之后,新的技术世界执着于原来的那个世界及其价值,会导致现实层面的割裂和技术的副作用显现。传媒业者在信息生产层面的态度、方法和实际行动,成为填补技术裂缝、避免以上状况发生的关键。

(二)传播矩阵的维稳者

ChatGPT技术的传媒应用带来产业的升级与市场的变革,传媒业者被赋予保障传播矩阵稳定性的功用。智能机器成为传播枢纽,承担起媒介的中介作用。人处于机器背后的端点之中,彼此间形成隐匿状态。数据接通网络,用户可以与不同的人(话语模式)相互作用。ChatGPT塑造的传播模式,造成人与人之间的连接被削弱,信息传播的真实度模糊、风险性提高。身处现代社会,法律与道德、人生观与世界观塑造着个人。“道德自由使人类成为自己真正的主人”,“对自我预设的法律的服从则是自由”。生成式人工智能技术将传媒业者从烦琐的媒体实践中释放出来,将其注意力集中于传播矩阵的维稳工作,加重新闻监管业务,以保障人机传播活动有序、有效地开展。

传播矩阵的把关贯穿于信息传播的前中后端,包含前期风险防控、中期实时监测及后期的信息反馈,三个环节的循环关系着传播系统的健康有序运转。前期工作中,语法规则的建立与推动是关键所在,机器语法规则需要考虑适用性问题,适用对象包括技术体、智能体和自然人。技术的语法规则具有模块性,在累积的过程中不断丰富内容、扩大适用范围。传媒业者需要在生成式人工智能技术应用中确立具体的语法规则,使之约束技术拥有者,并为用户使用提供参考。技术具备形成相应的语言意识形态的功能,通过系列语法规则的设定可将技术活动限定在具体范围之内。ChatGPT的语法规则需要注重言语卫生,即分辨出ChatGPT生成内容中隐含的对他人攻击、暴力、黄色等具有危害性且不具备真正社会功用的言语。当ChatGPT掌握认知情感偏向性和隐晦暗示性词汇的能力后,它的职能将得以升华。技术语言的完善是传媒业者在技术预设过程中的重要功用转向,需要投入大量时间、精力用于认知、判断和筛选。

传播中期,传媒业者的把关功能主要体现在对信息的监管,干预信息走向以降低传播风险。ChatGPT作为信息获取工具由个人操作,而操作的意图具有多样性。当行为的恶意藏于隐晦的语言表达之下,或经过多种内容拼接而制造出信息时,需要传媒业者以自身丰富的信息处理经验提供专业的信息监管服务。有别于传统的信息监督,随着智媒系统的升级,对于情感等主观因素的监测体系搭建应成为未来关注的重点内容。当机器达到言语卫生的要求后,深层次的用户尊重和人格保护成为下一阶段的任务,传媒业者的功用迈向更为精细化的阶段。

当信息传播进入收尾阶段,传媒业者的复盘功用得以确立。这一阶段连接着下一个循环周期,对技术的更迭和信息的把控起到修复作用。随着传媒业者在智媒时代的功用得以明确,这个群体不仅是信息的生产者和传播者,还是信息的把关者。

(三)技术规范的制定者

生成式人工智能技术进入传媒领域,面临技术边界的限定和应用规则的确立。传媒业者在实际操作中提供信息反馈,形成技术应用的理论与框架。边界的明确离不开框架的域定——对领域边界的定义和规则的制定。域不仅定义时代,也定义时代的边界。域的有效性一半源于它的范围(即开启的可能性),另一半源自它能否为不同目的进行反复的、相似的组合。当一项活动离开原有域界进入另一域界时,成本将累计增加。目前,ChatGPT在生产体系和行业生态的架构较为模糊,学术研究并未关注媒体需要搭建何种体系以及这个体系需要呈现怎样的形象,而阈值的清晰化是ChatGPT合理应用的重要前提。

社会经济发展往往经历“传统社会→起飞前准备阶段→起飞阶段→走向成熟→大众消费高级阶段”五个阶段。在媒体实践中,ChatGPT应用应当避免“过渡技术”的局限性。现阶段,ChatGPT的数字化设计并非超级智能化,因为数字化天生的人性缺失,此类程序试图找寻的人性与数性的结合程度还难以把控。传媒业的智能应用具有过渡性质,二者结合所形成的“概念”主导了智能新闻产品开发。转型比变革或革命更富有内涵,变革包含地方性结构的消失,而转型鼓励“以变化为中心”的研究视角,强调如何在变化中寻求稳定与延续。要达到理想的智能技术,需要投入更多的资金和政策扶持,推动传媒业的智能化转型。过渡的时限暂时无法预判,传媒业需要一个动态域定框架在过渡技术阶段为其设限,以此来进行有效的成本控制并避免过度消耗。

传媒业者的技术实践影响着传媒业智能应用的发展进程。这种实践活动作为技术磨合过程,带来的是机器语言和人类语言的融合,形成相应的编码与解码与之对应。技术编码是为了寻找参与者话语中出现的意义,通过社会行动者自己使用的术语来理解主体性。在ChatGPT背后的机器语言进行“输入”之前,我们需要研究编码的基本规则和分析当下的语言状态。语法体系建构需要综合考量文化、政治和经济等因素的影响。我国语言学者也在尝试搭建通用模板供技术编程,研究语法框架搭建过程中意义的阐释和转换,建立起“可解释的人工智能”。人工智能的发展需要大量可供选择的词义资源,通过合乎逻辑的框架搭建和演练,使机器更能理解和适应当下的语言环境。生成式人工智能技术应用带来的不仅是话语体系的变化,也是技术伦理的挑战,技术管理者拥有的技术话语权需要通过语法规则和框架进行约束。

生成式人工智能技术的语言逻辑是“存在→人工编码→机器解码→机器传播→大众接收”的线性过程,人的思维则具有跨越式、非线性的特质。技术有原理可循,人的发展却缺乏章法和必然性。社会状态的偶然促成了历史发展的必然,这是ChatGPT无法理解和重现的部分。随着技术发展,机器与人的领域趋于重合,但任何领域都由拥有共同语言、意识形态、知识的成员组成,成员的互动行为与预设的语言逻辑相关联。人机交互的语言环境暂未形成互通,存在着技术编程语言和用户原生语言环境的差异,影响用户对信息的接收以及交互的质量。传媒业智能应用需在本土化的语法框架之下,克服技术跨越的内生逻辑缺陷,形成健康的智能技术应用模式。意识与技术的连接更需要边界以保障人之主权和物之功用,避免个体由于其二者关系的紊乱而陷入“无用阶级”的困境。

结语

技术变革伴随着部分人的淘汰,但这并不是瞬间的淘汰,而是长期的轮转。对于生成式智能技术所带来的“无用”担忧,实质是社会意识未跟上技术进程而造成的认知割裂问题。社会发展难以一蹴而就,转型期存在各种形态的个体与事件,技术同样如此。随着传媒业的智能化发展,传媒业在技术的冲击之下有着经济、人员和工作模式等方面的变化;“人”在其中既承担着主体的能动性义务,也享受着客体身份带来的技术多维体验。厘清技术发展的实质,明晰个体的功用,确立转向过程的理论基础,是推动行业在技术进步下创生的合理路径。

ChatGPT延续了人工智能的技术逻辑,开发出新的智能对话机器人形态,以其综合服务属性发挥着平台的中介作用,对传媒业者的职能发挥产生影响。平台中介化现象将用户注意力转移到ChatGPT等智能对话机器人平台,传媒业者传播影响范围缩小。传媒业者与信息接收者的直接联系较少,中介性质的ChatGPT占据更大的发挥空间。面对这一技术挑战,需要传媒业者加深对技术本质的认知,了解ChatGPT本身的智能局限决定了其发展有上限。同时,ChatGPT的核心竞争力在于信息的处理能力而非创作能力。此外,ChatGPT正处于发展初期,传媒业者的实践活动影响其技术走向,需要合理的技术期待引导其迈向更为成熟的应用阶段。

综之,技术的裂化与创生过程是行业发展的过程,个体在其间起着关键性主导作用。ChatGPT带来的“无用”恐慌,对个体而言是由技术冲击带来的短暂“失重”现象,在行业层面则是具有突破意义的业界变革。一方面,ChatGPT打破了传媒业者对于安稳的幻想,揭示了传媒业最真实和迫切的转向趋势;另一方面,身处技术变革中的传媒业者需要消除技术恐慌和职业迷茫,深刻认识角色职能的能量转换并不意味着个人的功用消失。旧的角色退场意味着新的职能即将出现,传媒业者需在新的媒介环境中把握好前中后端的生产把关角色,以自身的专业性重新确立职业价值。


文献引用格式

[1]刘海明,付莎莎.技术跨越的可能:ChatGPT的传媒转向与功用确立[J].湖南师范大学社会科学学报,2024,53(05):115-123.


本文刊发于《湖南师范大学社会科学学报》2024年第5期传播学栏目。参考文献从略。


再建巴别塔
青灯夜读,湖畔沉思。精读人文社科经典文献,探讨新闻传播学术问题。
 最新文章