网络首发 | 生成式人工智能(GAI)背景下的新型数字鸿沟识别框架研究

文摘   教育   2024-03-29 10:47   湖北  


网络首发时间

2024-03-25

网络首发地址

https://link.cnki.net/urlid/42.1085.G2.20240321.1548.002

引用本文

孙榕,李白杨.生成式人工智能(GAI)背景下的新型数字鸿沟识别框架研究[J/OL].图书情报知识(2024-03-25). https://link.cnki.net/urlid/42.1085.G2.20240321.1548.002

by Leo_Visions on Unsplash.



孙榕

南京大学数据智能与交叉创新实验室,南京,210023

南京大学数据管理创新研究中心,苏州,215163

李白杨

南京大学数据智能与交叉创新实验室,南京,210023



目的 | 意义

_

识别生成式人工智能背景下新型数字鸿沟的表现形式和核心内容,为破解数字弱势群体的认知和行动困境提供启示。


研究设计 | 方法

_

基于“认知—行为”视角,利用大规模文献调研的方法构建框架。


结论 | 发现

_

构建了一个“认知—获取—使用—评估”(CAUE)框架,以识别和解析生成式人工智能环境下新型数字鸿沟的三级指标;根据分析结果针对性地提出了对策建议,并对未来研究进行了展望。


创新 | 价值

_

提出识别和解析生成式人工智能背景下新型数字鸿沟的框架,为解决新型数字鸿沟相关的概念辨析、形态识别和弥合路径等问题提供参考。


关键词

_

生成式人工智能; 数字鸿沟; 智能鸿沟; 数字不平等;数字素养









_

1

引言


_


自2022年起,以Midjourney、StableDiffusion、Claude等为代表的生成式人工智能(Generative Artificial Intelligence, GAI)技术快速涌现并广泛应用。不同于Alpha Go、CARMEN等在专门领域专业训练的人工智能,生成式人工智能因其大规模参数预训练、多模态信息融合与生成、交互式人机共生等技术和应用的创新而有了较强的泛化能力,变革着人们的生产生活方式和社会经济形态,对劳动就业、学术科研、教育教学、知识服务等众多领域产生了较大影响。同时,GAI技术也为社会弱势群体提升信息获取和问题解决能力,获得更好的健康照护、教育资源和就业机会等带来了潜在机遇。


然而,生成式人工智能的自然语言交互功能和多领域泛化应用便利了用户使用并带来了普惠赋能,但由数字技术垄断、扩散和限制等导致的数字不平等问题是客观存在的。一方面,生成式人工智能是为了大规模普及应用,但其迭代速度、颠覆程度和应用的广度与深度为用户的认知和使用设置了门槛,对用户的生存力、适应力和创造力提出了前所未有的挑战;另一方面,用户的年龄、性别、受教育水平、社会经济地位等客观因素的差异也是催生生成式人工智能背景下新型数字鸿沟的诱因,即用户对生成式人工智能的认知程度、获取难度、使用能力和评估水平存在较大差异。数字弱势群体对GAI技术的认知和使用不足,可能会影响他们的教育机会和在就业市场上的竞争力,因此难以从新兴技术中平等受惠和规避风险。技术不平等与原有的社会不平等相互交织,向经济收入、政治参与、社会资本等范畴更广的不平等转化。


在此背景下,本文通过大规模、长周期的文献和网络调研构建了生成式人工智能背景下的“认知-获取-使用-评估”框架(Cognition-Access-Utilization-Evaluation,CAUE框架),用于识别和解析新型数字鸿沟的表现形式和核心内容。研究旨在破解数字弱势群体的认知和行动困境,指导其提高获取技术红利和化解技术风险的相关数字能力,以促进人本人工智能发展,弥合新型数字鸿沟,构建普惠包容的数字社会。



_

2

相关概念与研究基础


_


2.1   AGI、GAI与AIGC的概念辨析


从技术概念的角度来看,通用人工智能( Artificial General Intelligence,AGI)又称“强人工智能”(Strong AI)是指具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能。AGI强调计算机像人类一样思考和行动的通用能力,区别于在特定领域执行任务的狭义人工智能(Artificial Narrow Intelligence, ANI)。实现AGI是人工智能领域的长期目标,经历了漫长的技术迭代和发展周期,例如从循环神经网络(Recurrent Neural Network,RNN)到长短期记忆网络(Long Short-Term Memory,LSTM)再到Transformer等。


其次,生成式人工智能(GAI)专门指基于对抗生成网络(Generative Adversarial Network,GAN)、对比语言-图像预训练(Contrastive Language-Image Pre-Training,CLIP)、扩散模型(Diffusion Model)、Transformer等生成式模型(Generative models),能够实现文本、图像、音频等多模态内容生成的人工智能系统,区别于通过对条件概率建模,学习类别之间最优边界,以完成分类任务的判别式(Discriminant)模型。AGI和GAI的相同之处是都基于大模型语言(Large Language Model,LLM)而生,并通过包含了大量参数的预训练(Pre-Training),从事实现人工智能的泛化应用。


从内容分类的角度,人工智能生成内容(AI-Generated Content,AIGC)是指GAI生成的内容,与专业生产内容(Professionally Generated Content, PGC)以及用户生产内容(User Generated Content, UGC)相区别。此外,《人工智能生成内容(AIGC)白皮书》还将AIGC界定为“一种内容生产方式”以及“用于内容自动化生成的一类技术集合”。因此,AIGC概念具有内容及技术双重内涵。


2.2   数字鸿沟到智能鸿沟的概念演进


20世纪90年代,数字鸿沟(Digital Divide)的概念在政治和政策制定领域引发关注,其内涵经历了由 “接入沟”“使用沟”到“结果沟”的演变过程。起初,数字鸿沟的研究聚焦于互联网接入的二元划分问题。然而,21世纪初互联网访问逐渐普及后,人们使用技能的鸿沟仍在扩大。研究侧重点转移到使用互联网的目的、方式、活动以及使用技能和素养等方面的差距。“结果沟”则更关注接入和使用条件类似时,技术使用带来的积极成果的差距,包括在就业、教育、健康等领域的不平等。识别互联网使用带来的风险、危害等消极结果差距也同样重要,如儿童与媒体使用、隐私等方面的潜在风险。


新技术的扩散引发了新的社会不平等,驱动着数字鸿沟概念的内涵和外延更迭。在大数据、人工智能技术飞速发展的时代,国外大众媒体评论称“人工智能可能导致新的数字鸿沟”。学界也陆续提出以数据为核心和驱动力的“人工智能鸿沟(AI Divide)”“智能鸿沟”等新概念。在人本人工智能理念的指导下,智能鸿沟将智能技术及其应用、新型智能交互、用户认知与行为、数据和算法的公正性等问题纳入考量,革新了传统的接入、使用、结果三级数字鸿沟。在接入层面,智能技术发展的差距、社交机器人和物联网应用等AI赋能技术的接入、人工智能相关的功能和服务的获取差距等成为新的障碍;在使用层面,人工智能素养(AI Literacy)、算法素养(Algorithm Literacy)、算法意识(Algorithm Aware) 等新术语和新素养框架反映了智能背景下对使用技能的新要求;在结果层面,智能鸿沟造成的后果辐射至数字经济环境下的经济和就业、以数据为基础的歧视、算法监视与隐私侵犯、数字跟踪等更广泛的数字场景,带来更复杂、更隐蔽、更广泛深刻的影响。


2.3   生成式人工智能催生新型数字鸿沟


生成式人工智能的变革式发展,打破了人、机器和信息资源的边界,将重构人机关系、人智交互的方式以及用户行为模式,促进人机深度融合和更高水平的人智协同与共生。GAI的自然语言类人交互、多模态交互与生成、多场景任务解决等能力降低了用户认知负荷和使用门槛,有助于个体提升生产率、调用海量资源、突破认知局限,提供了弥合不同群体之间差距的宝贵机遇。如大模型能够在图书馆无障碍交互、学术咨询等众多场景中为弱势群体赋能。


然而,在技术创新加速化、技术影响扩大化、人机关系亲密化的趋势下,GAI背景下新型数字鸿沟的生成速度快、程度深、跨度广,造成的分化远超对已有差距的弥补。计算资源分配不均以及数据和算法歧视等技术鸿沟、访问限制等政策变量、人机协同能力等用户差距均会导致不同个体在与生成式人工智能交互的各个环节上拉开差距,尤其会放大数字弱势群体的脆弱性。如在认知环节,公众目前对GAI的态度较分化。观念相对更被动、保守的弱势群体可能对GAI工具知之甚少或没有意识到使用GAI工具的潜在好处,甚至可能会规避相关知识。在接入环节,发达国家与落后国家之间的技术及政策差距和不同版本工具的访问费用差异造成了接入难度和质量的差距,而弱势群体容易因境域、经济状况、身体障碍等限制丧失接入机会。在使用环节,用户构建和迭代提示词的能力极大影响了GAI工具生成内容的质量和解决问题的水平。如在语言学习领域,缺乏有效的操作技能和提示技巧会导致无法最大化GAI工具的教育价值,直接限制了弱势群体从技术中获益的机会。在评估环节,由于缺乏信息甄别能力,弱势群体更容易受到虚假信息和欺骗性信息的负面影响。GAI技术的缺失阻碍了弱势群体改善在教育、医疗、就业等领域的不利处境,他们甚至被排斥在就业市场和社会参与之外,在生成式人工智能技术发展的浪潮中被进一步边缘化。


目前,生成式人工智能背景下新型数字鸿沟的相关研究有以下两个特点。一是分散性,新型数字鸿沟问题在信息资源管理、人工智能、公共管理、社会学、传播学等学科领域的多个研究主题和研究场景中均有涉及,但缺乏全面的论述;二是难以量化,相关阐述或具思辨抽象性,或具场景局限性,缺乏一个普适、可量化、系统全面的描述框架。因此,本研究拟聚集和整合零散的研究碎片,提出系统完整的新型数字鸿沟识别框架,为新型数字鸿沟的量化实证研究提供理论指导,为相关数字素养教育的理论框架和内容方法提供启示。



_

3

研究方法与设计


_


本文从“认知-行为”的视角出发构建了新型数字鸿沟的CAUE识别框架。在此基础上,本文使用大规模文献调研法扩充CAUE框架的具体内容,具体包括:


3.1   相关文献获取


2022年9月-2023年12月间进行定期的调研与文献资料维护,即使用中文检索式“TI = 生成式人工智能or 人工智能生成内容 or GAI or AIGC or ChatGPT”在中国知网CSSCI子数据库中检索中文文献,得到643篇中文文献。用外文检索式“ TI = Generative artificial intelligence or GAI or AIGC or ChatGPT ” 在Web of Science核心合集数据库中检索,得到1,664篇外文文献,共计2,307篇相关文献。


3.2   文献筛选清洗


由于所获得的文献并不是都对本文研究主题有所涉及,所以对文献进行了手工整理,筛选标准主要是考虑标题、摘要、主要论点等核心内容,将与分析框架有关的文献进行分类,最后剔除不相关文献136篇,保留2,171篇文献。


3.2  文献分析


首先,基于“认知-行为”理论分解用户使用生成式人工智能的认知-行为过程,构建包含“认知-获取-使用-评估”四个维度的鸿沟识别主框架。其次,对筛选清洗后的文献作分析。包括以下三个层面:一是主题分类,将文献按照分析框架的一级标题进行归类;二是内容分析,按照已归类文献具体的研究内容进行深入分析和观点识别,提取与分析框架相关的信息;三是比较与总结,对不同文献中的观点、数据和结论等进行比较,找出共性与差异。最后,根据文献分析的结果扩充主框架下的二级指标和三级指标,形成包含三级标题的完整鸿沟识别框架。



_

4

生成式人工智能背景下

新型数字鸿沟的

CAUE识别框架


_


4.1   “认知-行为”视角下CAUE框架的构建


本文从“认知-行为”的视角出发,勾勒出生成式人工智能用户技术采纳和使用的“认知-获取-使用-评估”过程,然后从中划分出新型数字鸿沟的“认知差距-获取差距-使用差距-评估差距”四个维度,最后识别各维度的核心指标,构建起新型数字鸿沟的识别框架。


行为心理学的“刺激-反应”观点将人的行动视作个体对环境做出的反应,而认知心理学主张人的行为是建立在认知基础上的,人的思想和行动之间相互联系。如Newell和Simon提出的认知加工心理学理论把人脑类比为计算机式的信息加工系统,不断接受来自外部的刺激信息,并通过信息感知、加工、短期记忆、存储、分析、长时记忆和行为反应的过程进行处理。有研究据此提出“认知-态度-行为”的过程,来将认知活动和外部行为关联起来。综合行为学派和认知学派的观点,认知行为主义理论(Cognitive-behaviorism)强调认知和行为的结合和联系。认为人的行为受到学习过程中对环境的观察和解释的影响,通过认知过程可以预测人的行为,通过行为的改变也可以影响人的信念。


Brenda Dervin和MS Nilan首次将认知方法应用到信息行为的研究中,开启了信息行为研究从系统方法到认知方法的转向。在认知视角下,知识异常态理论、意义建构理论、Kuhlthau的信息搜寻过程模型、Ingwerson的整体认知理论等都强调认知对信息行为的塑造作用。作为信息行为研究的重要分支,技术采纳和使用的相关研究也吸纳了认知观,假设技术的实际使用行为是由行为意图决定的。个体对使用信息技术的反应-使用信息技术的意愿-实际使用行为的“认知-行为”过程构成了技术采纳模型(Technology Acceptance Model, TAM)、创新扩散理论(Innovation diffusion theory, IDT)、整合技术接受模型(Unified Theory of Acceptance and Use of Technology, UTAUT)等技术采纳理论的认知基础。


沿袭技术采纳研究中的认知-行为视角,用户对GAI这一新兴技术的采纳和使用也遵循“认知-意愿-行为”的过程。结合GAI工具的实际使用过程,本文将使用行为再细化为获取、使用和评估三个环节。据此构建起用户与GAI工具交互时的“认知-获取-使用-评估”过程(如图1所示),即CAUE框架。



_



_
_

图1   生成式人工智能背景下的新型数字鸿沟识别

_


首先,认知影响使用意愿,进而决定是否发生实际的使用行为;认知同时也指导整个行为过程,新的行动经验再被同化到原有的认知体系中,反过来不断建构和修正固有认知。其次,获取是发生行动的条件,获取受限制,人们理解和使用GAI的机会就更少。再次,使用是行动的核心环节,是将GAI的认知和获取转化为成果的关键,使用技能会影响生成内容的质量、满意度以及体验。最后,评估是需求交互的过程,用户根据首先,认知影响使用意愿,进而决定是否发生实际的使用行为;认知同时也指导整个行为过程,新的行动经验再被同化到原有的认知体系中,反过来不断建构和修正固有认知。其次,获取是发生行动的条件,获取受限制,人们理解和使用GAI的机会就更少。再次,使用是行动的核心环节,是将GAI的认知和获取转化为成果的关键,使用技能会影响生成内容的质量、满意度以及体验。最后,评估是需求交互的过程,用户根据需求对内容和系统质量进行评估后重新建构认知,进而在认知指导下重新调整使用意愿、接入选择、使用技能和策略以及评估内容和手段。以此类推,各环节之间形成动态交互、叠加循环的整体过程。


据此,可以划分出数字鸿沟存在的四个维度:不同认知影响使用意愿,再导致使用行为是否发生的过程产生了“认知差异”;能否获取及获取质量的差异是“获取差异”;使用技能的差异是“使用差异”;评估能力和评估结果的差异是“评估差异”。在此基础上,本研究通过文献调研识别和扩充了各维度鸿沟的核心指标。


4.2   CAUE框架对新型数字鸿沟内容的识别及解析


在本节采用CAUE框架识别GAI背景下的新型数字鸿沟的具体内容及表现,并对这些差距进行解析。


4.2.1  认知差距


Hoff和Bashir指出,使用诸如人工智能的未知的新兴技术需要“信仰的飞跃”。受到基础设施、AI教育投入程度、技术普及水平、个体受教育水平和专业背景等因素影响,公众目前对GAI技术的认知态度分化,对GAI的信任和接受程度不一。一部分人认为GAI技术重要且应用价值高,而另一部分人主张应禁止不可靠的GAI 技术的使用,导致使用意愿和行为的巨大差异。识别用户的认知差异(如表1所示)对消除认知障碍、普及GAI技术具有重要意义。



_

表1  认知差距的指标构成


_


一是技术性认知。正确认识GAI技术需要全面的知识储备和对新技术的及时追踪。具体包括技术运行逻辑和特点、常用的GAI工具和应用、技术发展趋势和最新进展、人工智能和统计学等跨领域技术知识等。全面深入的技术认知有助于提高使用意愿、进行高质量的人机交互、产生积极的期待等。


二是价值性认知。根据技术采纳模型,感知有用性和感知易用性会影响用户的使用意愿,进而影响使用行为。价值性认知是指对新技术的价值评估,包括对GAI技术的应用价值和市场潜力的感知,和其他工具相比的相对优势,如自然语言问答、生成速度优势、专业知识优势、效率等,生成内容的可信度和专业性,创造性和有趣性以及技术需求匹配。


三是易用性认知,包括人机交互界面的简约性、学习成本和认知负荷、媒介的自然性和类人性。易用性反映用户使用GAI工具的舒适度。提升易用性会减少用户的学习成本和心理压力。


四是局限性认知。是指GAI技术的功能范畴及用户使用中的限制,包括认识到GAI生成信息的局限以及系统功能的局限。其中,生成信息的局限包括生成虚假信息、对话容量限制、使用门槛、数据偏差、数据污染、信息源的时间限制等;系统功能的局限包括互联网实时在线检索、系统故障、缺少审核反馈机制等。了解GAI技术的局限性能够避免不利因素对于信息交互过程的影响,并审慎评价和验证生成内容,形成正确的价值观。


五是风险性认知,指GAI技术在实际应用中的潜在风险和造成的负面影响,包括认知风险、心理风险、社会风险、安全风险和法律风险等。对技术风险感知过高的社会和个人可能更不愿意接受技术;风险感知过低又不利于意识和规避风险。适当的风险感知有助于形成对技术的批判性理解。


4.2.2  获取差距


获取是人们使用生成式人工智能的第一步,然而,现实中如ChatGPT这类AIGC工具的获取并非平等和均衡,甚至有很多专业研究者都未曾获得ChatGPT账号或其高级账号。此外,还有一些网络通信等基础设施问题对AIGC的获取和访问构成障碍,如跨境互联网的封锁和屏蔽、账号封禁、环境配置等。总的来说,根据现有研究成果,数字鸿沟中的获取差距主要包含以下因素(如表2所示)。



_

表2  获取差距的指标构成


_


一是信息基础设施建设,主要包括技术基础设施、可重用模型和工具、数据、人才、政策等。由于不同国家和企业拥有的资金、能源、数据数量和质量、计算资源、技术人才等存在差距,其智能技术的发展水平大相径庭,进而影响到用户的接入水平。如拥有大量高质量、细粒度数据的国家能够开发出高水平的GAI工具,而面临“数据赤字(data-deficit)”的国家和企业将无法充分发挥GAI的潜能。此外,由于技术垄断和网络封锁,国家是否具备独立开发模型的能力决定了访问受限时是否有可替代的可用模型。如中国有百度公司旗下的文心一言、阿里巴巴公司开发的通义千问等类ChatGPT工具缓解技术垄断。


二是工具可用性,包括用户能否注册及登录账号、工作环境中是否配置GAI工具、GAI交互时使用的语言以及跨平台和跨系统的可访问性。账号注册和登录上,ChatGPT账号注册困难影响了用户的获取,因此国内出现了许多ChatGPT的注册教程和中文套壳程序。工作环境中,部分企业或个体工作者可能因成本考量、技术门槛、认知不足、数据安全等因素未配置GAI工具,造成了GAI工具获取的场景局限。交互语言上,ChatGPT针对部分小语种的信息生成质量十分有限,限制了相应地区用户的获取和使用。跨平台和跨系统访问上,GAI工具在网页端、桌面端和移动端之间的跨平台可访问性和安卓和IOS、Windows和MacOS之间的跨系统可访问性也影响了工具的受众范围。


三是使用成本,具体体现在计算机设备、网络接入和软件付费上。如每月20美元订阅费的ChatGPT Plus服务接入了GPT-4,它优化了多模态输入和上下文长度等,更新了最新的数据,并提供互联网浏览等功能。虽然GPT-3.5免费向公众开放,但经济水平较高的用户可以选择获取性能更优的模型,这将进一步导致用户之间的使用差距。


四是数字无障碍,即为视觉、听觉、认知和运动等障碍人士提供获取机会。如是否提供无障碍的使用界面方便有障碍人士的使用会影响普通用户和弱势群体之间的获取差距。


4.2.3  使用差距


网络的普及降低了人们获取和使用信息的差距,也引发了知识传播新模式和知识普及的革命性浪潮,但是信息爆炸也为用户带来了信息过滤和使用的难题。AIGC的大语言模型基础使大规模数据的组织和生成得以实现,通过上下文推理、多模态融合、智能人机交互等得以实现知识获取和使用的智能化、精准化、便利化,人们使用AIGC工具解决问题已经成为了一种潮流。


然而,生成式人工智能背景下的人智交互对使用技能提出了新的、更高的要求。从用户行为的角度审视,研究发现AIGC工具使用行为的异同也影响着使用效果,使用差距所带来的鸿沟仍是客观存在。此外,对于AIGC的不当使用所带来的负面效果也是各界关注的重点,例如AIGC驱动的虚假信息、网络暴力、电信诈骗等已成为“网络公害”,有的不当使用行为不仅不符合道德伦理标准,更是突破了法律法规底线。因此,用户使用行为差距(如表3所示)主要表现在以下方面。



_

表3   使用差距的指标构成


_


一是操作能力,包括根据自身需求选择和使用适合的AIGC工具和使用AIGC的基本操作方法。实际上不同类别的AIGC工具对用户操作能力要求不同,如AI绘画工具Midjourney和Stable Diffusion相比,前者侧重于实现一句话生成,而后者则提供十分复杂的细节设置,用户在使用中也形成了显著差异。


二是人机交互能力,主要是对AIGC工具的提示词使用能力和人机交互能力,如能不能较好地描述自身需求,使用的语言是否明确简洁,提示词是否符合AIGC工具规范以及多模态人机交互的使用行为。


三是利用AIGC解决问题的能力,随着AIGC应用从文娱扩展到对生产力的革命,人们使用AIGC工具辅助工作已成常态,但是其解决问题的高低也形成了显著差距。例如处理生成内容的能力、领域知识库与通用大模型融合使用的能力、跨平台融合使用的能力等。


四是负责任使用能力,既包括了自身使用过程中对数据的保护,也涵盖了使用AIGC工具要合乎技术安全边界、道德准则和法律规范。负责任使用是各国AIGC政策关注的重点内容,2023年7月,中央网信办联合多部门联合发布《生成式人工智能服务管理暂行办法》,重点规定了使用AIGC的安全监管、社会公德和伦理道德等内容。


4.2.4  评估差距


GAI生成信息和交互界面成为用户获取知识、解决问题和决策的重要途径。然而,概率生成和算法黑箱可能导致虚假信息和算法歧视等问题。提升对GAI生成内容和系统本身的批判性评估能力有助于用户对GAI技术形成准确的意见、规避相关使用风险以及充分、负责任地使用GAI。此外,GAI工具间的性能差异、用户的使用技能差距等均会造成评估结果的差距,进一步影响用户对GAI技术的信任水平以及接受和利用GAI技术的程度和方式。个体间评估能力和评估结果的差距可能体现在如下方面(如表4所示):



_

表4   评估差距的指标构成


_


一是信息质量评估,包括准确性、真实性以及信息源的正确性、格式标准化和兼容性、相关性和个性化程度、客观性和公平性、完整性和丰富性、可重复性和一致性、时效性等。信息质量是GAI产生评估差距的核心。能否正确、客观、全面地评估信息质量取决于用户的信息溯源和甄别能力 与批判性思维,如能否通过追问信息来源、要求GAI工具解释生成结果、多方验证等方式评估生成内容的可信度。


二是算法可解释性,是指算法向用户解释为何以及如何生成了决策结果的能力,包括透明性和责任感。如果能够清晰、透明地解释生成信息的依据,用户将更容易理解并减少评估差距,并提升对GAI技术的信任水平。而使用不透明的“黑盒”模型将造成较大的评估差距,特别是在高度敏感的领域尤其成问题,如医疗保健和其他与人类生命、权利、财务和隐私相关的应用。


三是交互过程,包括安全风险评估、导航能力、生成信息及人机交互的模态、允许用户追问、交互过程的无害性等。GAI能否提供安全的决策方案、友好的用户交互界面、多模态融合交互接口、及时有效地响应和反馈用户追问、个性化定制选项等,均会影响到用户对交互质量的评价和使用GAI工具的意愿。同时,用户能否在交互中合理使用提示词迭代、思维链、上下文学习等提示技巧也会影响交互质量和交互评估。


四是社交职能,包含语言风格的拟人化、友善性和亲社会行为以及情感表达与互动。已有研究成果表明,情感表达与人工智能全面性、准确性、可靠性、可访问性、灵活性和及时性之间都存在显著关系,当GAI能够准确理解和反映情感时,用户将更易与其建立情感连接,进而对GAI的社交职能持积极评价。但GAI语言和交互过程受到文化和社会差异的影响,对于不同文化和社群的用户,对于语境、用语的理解可能存在偏差,从而导致产生评估差距。



_

5

应对新型数字鸿沟的建议


_


在政策维度,制定实施包容性、创新性和可持续性的政策是缩小数字鸿沟的有效措施,有助于社会各阶层平等受益于数字化带来的机遇。首先,政策制定需要以包容性引导策略为主,关注社会不同用户群体,尤其是弱势群体的显化需求;规范数字企业的社会责任,促进科学技术服务和数字包容项目的有序展开,引导数字技术的可持续发展;社区或公益组织可开展全民数字素养提升服务或活动,合理引导大众正确认知GAI技术,合理规避技术陷阱。其次,缩小数字鸿沟需要综合关注不同国家政府和企业对新兴技术产业等重点领域的战略规划和路径设计,以均衡调节数据技术资源在社会群体间的平等流动。最后,加强国际合作,推动知识共享和技术开放是缩减发展中国家与发达国家之间数字差距的有效途径,同时强化机构的合作性质,引导政府、企业、组织和社会公众等的广泛参与,以合作为基础在全球范围内提升数字技术能力,平等共享科技进步的产业红利。


在技术维度,既要发展易于用户交互的数字化集成平台,也要保证数字技术及工具的可访问性、可理解性和普及性。在基础建设方面,打造广泛覆盖、安全可靠的互联网基础设施和数字化教育平台是确保各域平等访问高质量信息和教育资源的基石;使用包容性数据集,减少对社会弱势群体的偏见歧视,尊重少数群体的文化和价值观;提供有效可及和无障碍辅助的模型工具能够保障特殊群体便利化获取数字内容;加强替代模型的建设,加速技术下沉和普及程度。在技术推广层面,标准化的技术信息传播方式、制作清晰易懂的信息图表和示例可以帮助用户更好地理解技术逻辑原理及操作流程,从而降低用户获得技术产品及服务的门槛;优化GAI系统中的人智交互设计,包括用户界面、提示词等,减轻交互过程中的认知负担和学习成本。在内容科普层面,推动线上线下双联动的技术教育可以提高用户计算机科学知识和信息技术应用能力,特别是提供与GAI技术相关的培训课程在一定程度上可以拓宽用户技术接受渠道。通过科技传播活动将“高专精”的复杂概念转化为易于理解的形式可以具化用户对技术的兴趣锚点,充分发掘认知价值流中的技术赋能优势。


在用户行为维度,数字鸿沟面临的挑战源于用户层面的技术缺位和认知阈值,全面提升用户对新概念或新技术的理解是解决鸿沟问题的重要内容,而结果导向和情境响应下的技术应用是解决现实问题的重要驱动力,因此按需选择合适的软件工具、清晰识别自身需求、跨工具融合应用、多场景迁移使用均是数字化时代用户需要培养的基本数字素养。针对不同身份、类型、层次的用户设计生成式人工智能背景下数字素养教育框架和内容,提升用户的智能工具认知和使用水平、信息甄别能力、批判性思维和抵御虚假信息和舆论操控等风险等能力是强化用户数字素养的有效措施。如针对学生群体设置GAI工具辅助科研工作流、GAI的科研使用伦理、使用风险等数字素养课程。同时,有效量化数字鸿沟的存在方式、差异化程度和影响结果,需要建立全面可行的评价指标体系,包括基础设施准备度、技术平台集成度、数字素养完整度、产品技术服务度、领域知识部署度、协作使用共享度等多个方面,供需端以此为标准来综合反映不同层面和用户群体在数字技术认知、获取、使用和评估方面的差异,帮助精准识别GAI背景下的数字弱势群体。



_

6

结语


_


在生成式人工智能技术快速更迭的同时,不可忽视的是,不同群体间知识差异、认知差异所形成的新型数字鸿沟问题亟待解决。本文以生成式人工智能所引致的新型数字鸿沟为研究对象,基于认知行为理论以及深度的文献调研,从“认知-行为”视角构建了生成式人工智能背景下的“认知-获取-使用-评估”CAUE框架,以识别与解析新型数字鸿沟的表现形式与核心内容,并提出了破解数字弱势群体认知和行动困境的数字鸿沟弥合建议,以期为建设健全生成式人工智能数字政策、推动构建普惠包容数字社会提供参考。


本文所涉及的研究范畴虽较好地解决了生成式人工智能背景下的新型数字鸿沟概念辨析、形态识别以及弥合路径等问题,但仍具有不足之处,如在定量分析方面仍有待加强,未来的研究需进一步采取量化研究的方式对认知差距等数字鸿沟表现维度进行定量分析,以探讨不同层次的社会人口变量对不同维度数字鸿沟的影响机制和作用路径,进而对生成式人工智能弱势群体进行精准识别,从而提出针对弱势群体数字素养教育提升的有效解决方案。



_

*参考文献略,请详见原文。


_




END






版式设计

陆澜


制版编辑

王淳洋





关注公众知识状态 / 引领学科发展潮流

Focusing on the State of

Public Knowledge

Leading the Development Trends of

the Discipline


网络首发 | AI换脸技术焦虑的生成机制:基于SEM和fsQCA的实证分析

网络首发 | 社交网络圈群极化:不同类型意见领袖的异质性分析

网络首发 | 人工智能素养教育:全球进展与展望

网络首发 | 如何走出 AIGC的“科林格里奇困境”:全流程动态数据合规治理

网络首发 | 基于用户抵制理论的共享住宿平台用户不持续使用意愿——一项混合方法研究


图书情报知识
教育部主管,武汉大学主办,武汉大学信息管理学院和信息资源研究中心承办的“图书馆、情报与档案管理”综合性专业学术期刊。系全国中文核心期刊、CSSCI来源期刊、中国图书馆学优秀期刊、人大复印报刊资料重要转载来源期刊、国家社科基金资助期刊等。
 最新文章