青记独家丨田丽:AIGC对新闻真实性的影响成因及路径分析

2024-12-06 22:02   湖北  
导  读

     本文从AIGC技术机理出发,明确AIGC在新闻中已应用的技术及其发展现状,归纳AIGC对新闻真实性影响的表现,借助信息耗散模式从信使、审查、分发三条路径分析AIGC影响新闻真实性的路径及其成因。


OpenAI在GPT-4技术报告中指出,GPT-4与早期的GPT模型类似,生成的内容不完全可信,会对事实产生“幻觉”(Hallucinations),在需要强真实性的内容上应谨慎对待。[1]由于GPT生成的虚假数据可能被再次“喂”给机器学习模型,虚假信息泛滥,公众将难以区分真假,获得真实信息的难度增加。如何推动以ChatGPT为代表的AIGC在新闻业中高质量发展并消减其对新闻真实性的负面影响,是当前亟待解决的问题。但当前相关研究多为归纳AIGC技术历史以及AIGC虚假信息特征,未针对其导致的新闻真实性问题形成脉络,缺乏从新闻生产的视角分析其影响新闻真实性的路径以指导实践。本文认为,分析AIGC对新闻真实性影响的底层逻辑能揭示技术如何作用于虚假新闻环节,为探索新闻验证技术和用户行为提供支撑。因此,本文从AIGC技术机理出发,明确AIGC在新闻中已应用的技术及其发展现状,归纳AIGC对新闻真实性影响的表现,借助信息耗散模式从信使、审查、分发三条路径分析AIGC影响新闻真实性的路径及其成因。


AIGC在新闻业的

应用及发展现状

《人工智能生成内容(AIGC)白皮书(2022)》将AIGC定义为“既是从内容生产者视角进行分类的一类内容,又是一种内容生产方式,还是用于内容自动化生成的一类技术集合”[2]。但2023年《生成式人工智能服务管理暂行办法》[3]并没有对AIGC下确切定义。可见AIGC技术本身处于探索发展阶段。然而,AIGC在新闻业并非新兴技术,其在不同阶段的技术互有交叉和融合,具体可归为以下三个阶段。

(一)早期:规则驱动的模板式自动化生成
规则驱动的模板式自动化阶段是AIGC技术的早期阶段。在这一阶段,人们使用预定义的模式、模板和程序语言来实现对特定领域的知识和规则进行编码和实现,从而生成特定类型的内容。其中,传感器新闻(Sensor Journalism)较有代表性。传感器新闻首次出现于2002年的美国,指专业记者和“自媒体”运营者通过传感器收集和利用海量信息与数据来“讲故事”的新闻生产模式[4],有助于人们调查无法看到、听到或触摸的事物,并提供新的感官体验。[5]它在新闻业中用于拓展新闻源时,可以增加信息采集维度、预测未来趋势、满足用户个性化需求,减少媒体的中介作用;用于用户反馈机制时,可以通过智能可穿戴设备,使用户反馈从意见层面深化到人体生理与心理层面,成为新的信息源,推动新闻生产新循环。[6]
这一阶段,AIGC新闻生产的优点是高度可控,有模板化、公式化和范围小的特点,主要用于新闻采集。但内容生成受规则限制,无法自动学习和创新,需要较高人工成本,远未达到智能化水平。随着后期技术发展,基于规则的AIGC被替代或作为其他模型的辅助手段。
(二)中期:机器学习驱动的增强式辅助化报道
机器学习驱动的增强式辅助化报道阶段是AIGC技术的第二个发展阶段。这一阶段,通过大量的数据训练机器学习模型,从而使其能够生成更加优质和多样化的内容,机器翻译、数据新闻、新闻分类等技术用于新闻制作环节。其中,机器写作较具有代表性,它强调用海量的数据进行统计化、标签化,准确呈现新闻事实[7]。2015年,今日头条通过机器写作展示了新闻内容生产个性化、丰富化的可能性。[8]它虽广泛应用于财经、体育、气象等领域[9],生产的内容却缺少“温度”[10]。在新闻采集时,以数据为基础的新闻写作机器人可以避免立场偏向导致的新闻失实,最大限度地保证新闻的客观公正。[11]前提是保证程序员编程环节的无偏差和引用的数据来源真实可靠。机器写作也应用于新闻分发中,主要根据用户偏好制作新闻并分发,从而生成用户画像。但是,机器写作也会影响新闻公信力,这种担忧源于新闻产品权利的归属[12],涉及机构和个人间的矛盾[13]。
与前一阶段相比,此阶段的AIGC对数据的依赖性更强。只要提供足够的数据和标签,就能快速、准确、灵活地生成不同模态的数据内容。计算机视觉生成也成为这一阶段新闻的辅助应用。然而,由于需要大量数据作为基础,高成本、高人力的投入限制了应用范围。
(三)当前:深度学习驱动的创新式多样化应用
深度学习驱动阶段是AIGC的最新发展阶段。这一阶段,利用深度学习和自适应多模态生成等模型,AIGC在没有或者少量人工干预的情况下自我学习与自我适应,通过反复尝试、调整和优化,形成对各种场景的适应能力,从而实现更加精准的内容生成,[14]并为新闻呈现带来新的模式。AIGC能高效准确生成动态新闻,将海量信息与专家知识库结合,推理、判断信息来源的可靠性[15],扩大机器写作的外延。AI虚拟新闻主播、语音克隆(voice cloning)等创新应用也在新闻报道中呈现,但也引发了争议。如台湾地区网友对AI虚拟新闻主播“敏熙”[16]的质疑:一是由AI生成的新闻内容是否真实;二是AI主播播报的新闻是否符合人工智能技术伦理。此外,AIGC对图像、视频或音频进行操纵和篡改,从而歪曲某人的行为[17],这种深度伪造(deepfake)也被指出易发生在基于新闻主播的语音克隆等合成技术中。
相较于前两个阶段,深度学习驱动的生成具有强可定制性、可扩展性和自我学习的优势,能更加灵活地调整模型以降低新技术应用成本。这一阶段,能“思考、创作、交互”的生成成为主要应用。但是,它也带来了诸多问题,成为影响新闻真实性的重要技术之一。

AIGC对新闻真实性影响的表现

AIGC是基于用户的提示,生成各类内容。生成的虚假新闻多是能产生较大的社会负面影响和舆论的、关于实质性话题的虚假和误导性声明,包括虚构的观点、论据、案例、参考文献等看似真实、难以辨明真假的虚假链。AIGC虚假信息包括事实性虚假和幻觉性虚假[18],但AIGC生成的新闻内容不仅涵盖事实性虚假,也包含幻觉性虚假中的价值观偏见,是互有交叉的。因此,可将它总结为以下表现。

(一)是与非的错误
AIGC的“输出”需要预先“输入”大量的图文数据,因此AIGC无法创造出它所不了解的、从未接触过的、不存在的东西。它生成的内容都需要经过大量数据的训练,即对数据源的大量收录和学习,它的输出是基于用户的输入以及数据源的还原和重组,不会凭空创作。从AIGC的生成方式可看出“素材”是影响AIGC生产内容的关键之一。其中,素材应包括数据源以及用户的输入。即是说,数据源以及用户的输入只要不准确、虚假,就会导致AIGC新闻是与非的错误。这种错误包括无中生有、恶意拼凑等而产生的虚构错误信息。这类新闻在观点合理和逻辑清晰的掩盖下是难辨真假的,如ChatGPT根据用户需求生成“杭州3月1日取消限行”的虚假新闻[19];关于新冠疫情、俄乌冲突、美国校园枪击案等误导性虚假声明[20]等。只有当它论述的观点离奇且过于夸张时,才较易判断其虚假性,如OpenAI在2021年发布的GPT-3被发现它声称地球是平的、疫苗导致自闭症[21]。此外,因为AIGC本质上的不透明,使得人们很容易被AIGC的细节所吸引,这也导致了ChatGPT等AIGC对于新闻来源也愈加规范化、细节化、专业化的捏造,如《卫报》也曾被捏造为新闻来源,被一位读者询问了一篇没有出现在《卫报》网站上的文章[22]。
(二)逻辑推理错误
逻辑推理错误是指AIGC在论证过程中存在逻辑不透明、有误,导致生成的信息错误。AIGC生成新闻报道时可能缺乏对逻辑结构和推理过程的理解,导致文章中出现不合理的推断或矛盾之处,从而误导公众的判断,对舆论产生混淆。这类错误是由于AIGC的算法设计或训练数据存在缺陷,无法准确地进行逻辑推理。首先,AIGC在生成新闻内容时可能仅仅基于统计模式匹配而不具备深入理解语义和逻辑关系的能力。尽管AIGC可以从大量的数据中学习到一些表面上的规律和模式,但它并没有真正的理解和推理能力。其次,训练数据的主观性、不完整性,也会导致逻辑推理的缺陷,如果训练数据中存在偏差,这些偏差仍将保留在其输出中。例如在非准确的因果关系中,AIGC可能会错误地声称某行为是导致某现象的原因,而实际上存在更重要的因素;在矛盾的陈述中,AIGC可能会在一篇报道中称某事件是发生在某地点,而在另一篇报道中却提供不同地点;在非逻辑的关联中,AIGC可能会在两个事件之间强行建立因果关系,而实际上它们之间并不存在直接的逻辑联系。
(三)价值与意识形态的错误
价值与意识形态的错误源于社会认知,AIGC的价值与意识形态问题带来了显性影响。在AIGC的数据处理和决策中因人们形成的“编码凝视”(性别、社会、种族等歧视偏见),会导致如AI生成的男性配图在政治、市场经济、商业科技、体育等领域高于女性[23]等现象。2021年的一项研究中,学者研究了文本生成图片的AIGC(如Dall-E和Stable Diffusion),发现模型放大了“大规模的人口刻板印象”,如对于“一个有吸引力的人”来说,图片面孔代表了“白人理想”。[24]这些编码训练的痕迹,昭示AIGC模型本身具有明显的政治倾向,存在意识形态风险。如与GPT 模型变体相比,LM 的BERT变体在社会上更加保守(专制),GPT-3模型及更高版本中会较偏向自由主义[25]。这类错误不单隐藏于AIGC训练阶段,也有用户刻意使用AIGC进行价值与意识形态错误的传播,从而引起激进或仇恨主义观点的舆论。如,ElevenLabs公司的AIGC软件被利用制作艾玛·沃特森朗读希特勒宣言《我的奋斗》的种族主义言论的虚假视频[26],造成极其负面的影响。此类因训练数据缺乏多样性以及用户本身错误的价值观导致的价值与意识形态错误,都极大影响了新闻真实性。

AIGC影响真实性的新闻生产

对新闻真实性的研究应回归新闻生产路径,AIGC在新闻生产中的各个环节都有可能造成信息的变形和失真,造成信息的耗散。信息耗散模式[27]描述了信息传播中信息传递和交互、耗散的过程。将AIGC的生成和传播过程看作一个信息耗散系统,有助于理解AIGC对新闻真实性的影响路径。信息耗散模式指出信源、信使、信道和信宿四个传播环节中均存在信息耗散的可能性,这必然导致信息的不完整和新闻报道失实。[28]然而,信息耗散不仅存在于传播路径中,也存在于“用户”本身。基于AIGC的新闻生产是涵盖从信息采集、内容生产、产品分发到用户接受及培养等新闻生产传播的全过程[29]。AIGC技术的新闻生产目前仍是以人为主导的应用,它对新闻真实性的影响除了作用于新闻采集、新闻制作、新闻分发环节,更在于用户的信息认知模式(见图1)。

图1  AIGC影响新闻真实性的环节

(一)AIGC作为信使之一的内容制作
传播学理论认为,“信源既来源于客观,也来源于主观,这就意味着信源既可以来自外部世界,也可以来自传播者本人的内部世界”[30]。信使是对信源的接受者、处理者,可以是第一手信息的获得者,又可以是二手信息的处理者。[31]AIGC接收到用户的指令生成内容时,受传播目的影响,在进行适当的解码和编码后作用于新闻采集路径:AIGC依据用户指令,通过自然语言处理(NPL)和机器学习完成信息搜索、查找、整合和初步输出等环节(信息1),基于多模态生成的功能生成文本、图片、音频、视频等内容,呈现信息2,使得整合的信源一定程度上具有客观性与真实性。此时,人的角色从信息搜集者转换为审核者,负责判断AIGC生成的信息2是否真实。若是确认信息真实,可以通过媒介对信息2进行传播;若认为信息有误,则进行人为干预,产出新的信息3传播。
可以看出,AIGC在内容制作时人机协作仍是主要的生产方式;在新闻采集过程中,新闻信源与生成内容分别从人与技术层面影响了新闻真实性。对于新闻信源而言,人的参与是影响新闻真实性的主要原因之一,包括信息提供者、新闻从业者、用户的参与。许多虚假新闻的出现是信息提供者缺乏专业素养向记者传递不实信息,记者难以甄别和发现导致[32]。AIGC受信息提供者的文本影响经由技术整合信息时,它无法分辨信源是基于事实还是经由用户的认知再编码生成。新闻从业者的误判也是影响因素之一。新闻报道对新闻来源具有极高要求,然而ChatGPT等模型的算法不透明性,使得新闻从业者难以判断模型生成内容的选择过程,无法溯源,易造成误判。此外,社交媒体时代,用户既是信息接收者,又是信息生产者/传播者,用户对信息的认知模式影响信息的解码与再编码,易对信源产生影响。对于生成内容而言,AIGC技术本身不存在新闻道德和伦理意识,因此它可能生成违反新闻伦理道德的内容。这是由于AIGC的大规模语言模型(LLMs)在训练期间,数据集语料库的主题和事件之间的联系存在逻辑推理或是价值与意识形态的错误,在生成内容时AIGC根据提示和联系扩展相关内容,创造虚构的内容而非基于真实的事实。缺乏实时数据也是原因之一。正如微软的New Bing等优化事实类问题,虽能给出真实的参考来源,但它的语言模型仍优先选择调用内部知识库生成内容,生成的内容仍存在臆造现象[33]。可见对于在训练数据时间节点以后发生的事实,AIGC更易杜撰。此外,AIGC在理解上下文、判断信息可信度等方面仍存在技术限制,这导致AIGC无法正确评估信息的真实性,从而生成不准确的内容。
(二)AIGC作为审查工具的事实审核
AIGC可以基于机器学习、深度学习在新闻事实审核环节中作为审查工具,经由新闻从业人员在通过媒介传播前审核信息2或信息3,以识别可能存在的虚假性、误导性、敏感性等内容。新闻从业者的角色从内容生产者转变为事实再次核查者,极其考验新闻从业者的新闻素养,但只要AIGC的新闻信源及模型训练的人工标签正确,就能大大提高工作效率。
对于新闻信源而言,AIGC作为审查工作的事实审核的前提是拥有可靠、专业的训练集。AIGC能够与事实核实的数据库和知识库进行对比和验证、分析新闻文章中的引用和来源并理解与判断上下文含义,如识别引用的来源是否是可信的新闻机构或专家等,来判断新闻陈述是否与事实一致,或是识别敏感词汇、恶意攻击或不当内容,并判断内容是否适宜。此外,AIGC的模型能从人工审核的反馈中学习,通过不断的迭代和改进来优化内容审核的准确性,以应对不断变化的新闻环境和审查需求。与新闻采集类似的是,一旦新闻信源产生错误或缺乏有效的验证机制,导致信息污染语料库,内容审核的力度便存在偏差。对于模型训练的人工标签而言,限于价值与意识形态的标签影响。国内AIGC的模型训练一方面受制于训练材料的非本土化,在进行国内新闻内容审核时需要将符合国内新闻标准的文本放进模型中进行训练,在更新迭代不够迅速的情况下内容审核会难以进行;另一方面,也由于文化差异,AIGC在面对语言差异、歧义或讽刺等情境时,难以理解真实意义,从而影响新闻真实性。
除却技术本身的困境外,AIGC在新闻事实审核中影响新闻真实性较深的原因可归于技术与人的协调不平衡,尤其是媒介工具性(AIGC)与新闻专业性的冲突。AIGC的工作属性尽管在一定程度上能替代一些文字工作,提高人们的工作效率,但新闻对真相的高要求使得新闻的审核仍需以人为主导。这意味着影响新闻真实性的根源在于新闻从业者的专业素养。Tandoc认为虚假新闻形成的原因之一是新闻专业主义降低。[34]然而,有记者认为,AIGC核实信息真实性的时间即可自己产出一篇文章[35]。Charlie Beckett认为,“对于那些认为发布谎言是不道德的新闻编辑室来说,如果没有大量的人工编辑和事实核查,ChatGPT就难以使用”[36]。AIGC在新闻应用中实质上并没有理想中的美好,对于它生成的新闻,新闻从业者仍需自行判断、审核是否能作为补充、是否能成为报道。显然,如何正确使用AIGC技术、如何平衡工具性与专业性的关系从而提高新闻真实性,成了智能时代新闻生产的关键。
(三)AIGC作为分发工具生成偏差性内容
AIGC作为分发工具与用户密切相关,它使得单向的大众传播转变为趋近于双向的人际传播。新闻机构先通过媒介,根据AIGC已收集的精准的用户信息,定向将信息4分发给用户,根据用户本身的认知传播模式,对信息4进行再编码得到信息5,用户可以与AIGC进行问答互动,以信息5为基础,AIGC得到用户更想得知的问题,并将情况(信息6)反馈给新闻机构,从而智能调整内容的分发和推荐策略,根据用户的需求和优先级,合理分配热门和受欢迎的内容。另外,也改变了以往的机构平台通过“历史”被动收集用户信息的模式,而形成过于集中的精准推荐,引起用户反感。AIGC作为分发工具能在互动中深入采集用户的信息,分析用户的具体需求,及时调整用户个性化的数据库与语料库,进行针对性的新闻内容生成,从反馈中优化内容,以达成更具针对性、精准性的新闻分发。
然而,这种过度个性化的分发更容易生成偏差性内容。AIGC经过优化后的新闻内容呈现可能导致用户仅看到与其观点一致的信息,进而强化信息的偏见和局限性。同时,在与AIGC进行问答交流时,用户所提出的内容更加片面,从而导致AIGC搜集用户片面的或不准确的提问进行分析后,会生成具有偏差性的内容,并被再次分发推荐给用户,进入另一个传播循环。这种优化看似使用户挣破信息茧房,却让他们又陷入新的算法困境,AIGC经由反馈后的推荐内容的偏差性也会愈加增大,从而影响新闻真实性。除却用户本身反馈优化的不足,技术主导权的归属也影响着新闻真实性。目前,人工智能技术多掌握在平台(科技公司)手中,然而平台与媒体机构间存在专业性的壁垒。平台不仅向媒体机构提供AIGC技术服务,也会向其他机构提供类似技术,然而AIGC的底层逻辑是相似的,即对于AIGC的训练集实际上是难以保证服务于新闻的专业性,训练集的偏差可能导致的价值与意识形态的错误,致使AIGC在新闻分发中优化用户反馈时也会影响新闻真实性。此外,Meredith Broussard指出当前AIGC(如ChatGPT)中的内容都缺乏多样性,这是科技公司形成单一文化的原因之一,这不是使用AIGC技术的新闻机构可以轻易避免的问题,新闻机构已经受制于企业技术,因为他们从来没有充足的资金来发展自己的技术。[37]因此,在AIGC技术主导权未完全归属于新闻机构之前,依赖外部技术提供商可能会导致新闻机构无法独立评估和选择新闻分发平台,也可能会受到商业和政治利益的影响,从而影响新闻的客观性和真实性。

启   示

新闻业需要技术革新与转型,也需要使用新技术以提高市场基础竞争力。2022年底AIGC的普及,使得人们开始接受并适应新技术环境,人机关系从“恐惧”走向了人机相互规训与共生[38]的协同工作,并将它视为生产工具之一。不少研究认为应当将机器也视为创作主体之一,但是人的作用并没有被抵消。技术的发展是为了帮助人们解决各种社会问题和提高人们的生活质量,而不是与人对立。无论AIGC在新闻业未来的发展如何,通过分析AIGC对新闻真实性带来的影响,本文认为需要利用AIGC转型的新闻业可向以下方向发展。 

(一)提供新闻专业数据源以提高算法透明度
AIGC影响新闻真实性的较大争议在于算法不透明。为了增强新闻真实性、突破专业性间的壁垒,新闻机构可以联合起来,从数据源上入手,将可信度高、权威性强的新闻数据源统一整理后提供给科技公司,打造专属于新闻业内的AIGC。一方面,提供的数据源本身具有业内人士较高的认可度,AIGC生成的新闻能在一定程度上确保新闻报道的客观性,减少偏见和倾向;另一方面,新闻机构的联合既能使提供的新闻数据源相互验证,提高算法透明度,增加用户信任度,也能减缓新技术开发对资金的压力,从而培养适应时代的新闻专业人才,这对于维护新闻行业的可信度和公信力非常重要。也由于新闻时效性的问题,数据源的更新仍需不断迭代,组织结构上也应设置相应的复合型岗位对新闻数据源进行维护。
(二)统一人机规范设计标准
尽管国内已有法律对AIGC进行初步管理,但是新闻业对AIGC尚未形成具有效力的规范举措,需要建立统一的人机规范设计标准。对于新闻从业者来说,应以新闻专业标准,从内容制作上考虑对新闻的真实性、隐私性等方面的要求,利用AIGC提高生产效率,遵循新闻伦理和价值观;事实审核上,应将内容制作与事实审核路径分开,一事一人,以AIGC为辅助审查工具,查证事实内容,保证新闻真实性;新闻分发上,平衡商业性、娱乐性、个性化的关系,满足用户个性化需求的同时,不受单一观点主导,注意提供“非个性化”的新闻,保证新闻全面性。此外,AIGC设计者使用平台也需纳入规范标准,应明确指导AIGC服务提供者在使用数据、进行模型训练时的合规新闻传播的义务,包括新闻敏感词等的训练。这种规范标准可以明确AIGC服务提供者在处理用户数据和生成内容时应当遵循的法规和伦理准则,降低滥用和不当使用的风险。
(三)提升媒介素养
在人机协同工作的时代,提升媒介素养刻不容缓,不单是新闻从业者的职业要求,更是公众的媒介素养教育要求。首先,新闻从业者的工作不再仅生产内容,如何在AIGC生成的新闻报道“诱惑”中保持思考,并根据用户认知、反馈形成利于新闻传播的决策,是当下时代的必然要求,也是新闻专业性的职业门槛,但这也需要相应的时间进行锻炼。因此,相关机构可进行分批训练,在维持正常的新闻生产的同时,提供能接触到AIGC的应用环境。其次,一方面,用户作为信息接受者,需要保持批判性思维,辨别信息生产者的干预,了解新闻报道中的潜在偏见和利益冲突,理解信息背后的目的和意图,从而更好地评估信息的真实性和客观性;另一方面,用户作为信息传播者,需要明晰AIGC不实新闻传播并非无伤大雅,因此需要管控相关立法,及时新增条例,加强宣导,从法律层面上防微杜渐。

结   语

基于AIGC,新闻生产打破传统媒体的生产规则,形成新的生产理念,大大促进了新闻生产效率和规模的提高。新闻从业者被塑造成多维角色的同时,也被要求具备多项能力,需要在AIGC辅助下培养独特的新闻工作专业能力,以确保新闻生产的高质量和真实性。对于新闻行业而言,既要积极对待“人工+AIGC”的新闻生产模式,推动传统产业与技术的深度融合,也要警惕它对新闻业发展带来的冲击和负面影响,特别是对新闻真实性、新闻专业素养的消解。在这一过程中,人的主体地位始终是重中之重,须以新闻从业者为核心,AIGC为辅助,协同发展。虽然技术可能超越人类的能力,但是它更需要人的关注和引导。

【本文为国家社会科学基金重大项目“中国特色网络内容治理体系及监管模式研究”(批准号:18ZDA317)阶段性成果】

参考文献

[1]OPENAI,ACHIAM J,ADLER S. GPT-4 Technical Report[M/OL]. arXiv, 2023[2024-01-10].http://arxiv.org/abs/2303.08774.

[2]人工智能生成内容(AIGC)白皮书(2022)[EB/OL].(2022-09).http://www.caict.ac.cn/kxyj/qwfb/bps/202209/P020220902534520798735.pdf.

[3]国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知[EB/OL].(2023-04-11).http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm.

[4]史安斌,崔婧哲.传感器新闻:新闻生产的“新常态”[J].青年记者,2015(19):82-83..

[5]ANGELAWASHECK.Tow Report: As Sensor Joumalism Rises, Guidelines Needed[EB/OL].(2014-06-25).https://mediash.Org/4/06/forging-a-path-for-sen-sor-journalism/.

[6]彭兰.移动化、智能化技术趋势下新闻生产的再定义[J].新闻记者,2016(01):26-33.

[7]白龙.新闻写作机器人在美国新闻业的应用[J].青年记者,2016(05):99-100.

[8]林楚方.今日头条如何玩转大数据[J].新闻与写作,2015(11):19-21.

[9]胡郁,袁春杰,王玮.人工智能技术在传媒领域的应用——以智能语音技术为例[J].新闻与写作,2016(11):15-17.

[10]匡文波.记者会被机器人取代吗[J].新闻与写作,2017(09):59-62.

[11]刘德寰,王妍,孟艳芳.国内新闻传播领域人工智能技术研究综述[J].中国记者,2020(03):76-82.

[12]WADDELL T F.A Robot Wrote This?: How perceived machine authorship affects news credibility[J].Digital Journalism,2018, 6(2):236-255. 

[13]喻国明,姚飞.试论人工智能技术范式下的传媒变革与发展——一种对于传媒未来技术创新逻辑的探析[J].新闻界,2017(01):39-43.

[14]路远,胡峰.AIGC技术在智慧广电与网络新视听中的应用探析[J].影视制作,2023,29(03):43-47.

[15]喻国明.“机器新闻写作”带动传媒新变局[J].新闻采编,2015(06):26-27.

[16]民間全民電視公司.民視AI主播敏熙「將有新工作」!陪觀眾劃重點[EB/OL]. (2023-07-25)[2023-12-17]. https://www.ftvnews.com.tw/news/detail/2023725W0155.

[17]亚洲国家纷纷推出AI主播 人工智能新闻播报的明与暗[EB/OL]. (2023-07-16)[2023-12-17].https://www.abc.net.au/chinese/2023-07-17/artificial-intelligence-news-readers-becoming-common-in-asia/102601870.

[18]莫祖英,盘大清,刘欢等.信息质量视角下AIGC虚假信息问题及根源分析[J].图书情报知识,2023(04):32-40.

[19]杭州3月1日取消限行?ChatGPT写的,警方已介入[EB/OL].[2024-01-09].http://zj.news.cn/2023-02/17/c_1129373389.htm.

[20]Could ChatGPT Become A Monster Misinformation Superspreader?[EB/OL]//NewsGuard.[2024-01-09].https://www.newsguardtech.com/misinformation-monitor/jan-2023.

[21]陈昌凤,张梦.由数据决定?AIGC的价值观和伦理问题[J].新闻与写作,2023(04):15-23..

[22]MORAN C. ChatGPT is making up fake Guardian articles. Here’s how we’re responding[N/OL]. The Guardian,[2023-04-06].https://www.theguardian.com/commentisfree/2023/apr/06/ai-chatgpt-guardian-technology-risks-fake-article.

[23]齐琳珲.新闻写作机器人性别偏见的个案研究[J].青年记者,2021(04):43-45.

[24]BIANCHI F, KALLURI P, DURMUS E. Easily Accessible Text-to-Image Generation Amplifies Demographic Stereotypes at Large Scale[C]//2023 ACM Conference on Fairness, Accountability, and Transparency.2023:1493-1504

[25]FENG S,PARK C Y,LIU Y.From Pretraining Data to Language Models to Downstream Tasks: Tracking the Trails of Political Biases Leading to Unfair NLP Models[M/OL]. arXiv,[2024-01-10].http://arxiv.org/abs/2305.08283.

[26]THOMPSON S A. Dark Corners of the Web Offer a Glimpse at A.I.’s Nefarious Future[N/OL]. The New York Times, 2024-01-08[2024-01-10].https://www.nytimes.com/2024/01/08/technology/ai-4chan-online-harassment.html.

[27][28][31][32]沈正赋.信息耗散模式与新闻真实性——兼论香农—韦弗“噪音”说和马莱兹克系统模式[J].安徽师范大学学报(人文社会科学版),2012(02):201-207.

[29]许向东,邓鹏卓.人工智能时代的对外新闻报道[J].对外传播,2019(06):65-67.

[30]黄晓钟,杨效宏,冯钢.传播学关键术语释读[M].成都:四川大学出版社,2005:34.

[33][35]叶丹妮,陈旭.从GPT-4的臆造现象看AIGC深度合成的法律风险和合规思路[N],法治周末.2023-03-30.

[34]TANDOC E C, ZHENG W L, LING R. Defining “Fake News”: A typology of scholarly definitions[J].2017(3):1-17.35 

[36][37]REPORTER J C S. ChatGPT is generating fake news stories — attributed to real journalists. I set out to separate fact from fiction[EB/OL]//Toronto Star. (2023-04-11)[2024-01-10]. https://www.thestar.com/news/canada/chatgpt-is-generating-fake-news-stories-attributed-to-real-journalists-i-set-out-to-separate/article_38d0f008-cf86-5cd3-af97-307a95b2296d.html.

[38]常江,罗雅琴.人工智能如何“生成”信息失序:原理、危机与反思[J].信息技术与管理应用,2023(03):65-75.



(田丽:北京大学新媒体研究院研究员、长聘副教授,北京大学互联网发展研究中心主任,本刊学术顾问;陈馨婕:北京大学新媒体研究院博士研究生)

【文章刊于《青年记者》2024年第2期】

本文引用格式参考:

田丽,陈馨婕.AIGC对新闻真实性的影响成因及路径分析.青年记者,2024(02):79-85.


新媒体研究

①知识、演化与动力:新媒体的六种话语


编辑:小青

长按下方二维码,即刻订阅《青年记者》


JCR媒匠
JCR媒匠(Journalism & Communication Research)用匠心深耕新闻与传播领域研究,引领业界新闻传媒前沿,发掘媒介伦理案例智库宝藏,搭建华中师范大学校园新媒体学术交流与展示平台,共促新传教学研优质发展。
 最新文章