2024算法与AI大模型的用户认知调研报告(免费下载)

学术   2025-01-14 08:30   广东  

在当今这个科技飞速发展的时代,AI大模型正以前所未有的速度融入我们的生活。从智能语音助手到自动驾驶汽车,从个性化推荐到医疗诊断辅助,AI大模型的应用无处不在。然而,面对这股汹涌而来的科技浪潮,我们真的做好准备了吗?

一、AI大模型的认知现状

(一)认知度有限

尽管AI大模型在多个领域取得了显著的成果,但据清华大学2024年算法与AI大模型的用户认知调研报告显示,消费者对AI大模型的认识和使用尚未普及。在收集的8030份问卷中,超半数的受访者完全没有使用过AI大模型。对于使用过AI大模型的受访者,仅有10.19%左右的消费者非常了解其工作流程或工作原理,部分了解的人数占57.21%,不太了解和完全不了解的人数占30%左右。这说明,尽管AI大模型已经在我们的生活中悄然出现,但大多数人对其仍知之甚少。

(二)对可解释性的诉求强烈

在对AI大模型的认知中,消费者对于其拒绝使用权以及可解释性的诉求十分强烈。超80%的受访者认为用户应该享有主动拒绝使用算法和AI大模型的权利,只有11%的受访者认可无权拒绝使用。关于企业是否需要向用户解释算法和AI大模型,39.3%的受访者认为需要详尽解释,44.7%的受访者认为需要简单解释,而认为不在乎和不需要解释的受访者比例只有16%。这表明,消费者希望在使用AI大模型时能够更加透明,了解其背后的工作原理,以便更好地掌控自己的数据和决策。

(三)实用性得到认可

尽管认知度有限,但AI大模型的实用性已经得到了用户的广泛认可。调查结果显示,在那些已经使用过AI大模型的受访者中,分别有57.42%40.95%35.32%的受访者在学习、工作和生活场景中应用了AI大模型。高达95%的受访者认为AI大模型对他们的工作和生活起到了积极作用,其中超过半数的人认为AI大模型的作用极为显著,甚至达到了不可或缺的程度。这说明,尽管人们对AI大模型的整体认知仍较为浅显,但其在提升效率和便利性方面的实用价值已经得到了普遍认可。

二、消费者对AI大模型的态度

(一)积极的第一印象

用户对AI大模型持有普遍积极的第一印象。在调查受访者对AI大模型的看法时,诸如高效、便捷、创新和进步等正面词汇的使用频率均超过了半数。相比之下,如武器化、失控、威胁、欺诈和失业等负面词汇的使用频率大多维持在10%左右。这表明,大多数受访者对AI技术持有非常积极的态度,认为其能够为我们的生活带来诸多便利和创新。

(二)期待更深层次的互动

人们期待与AI大模型能够提供更深层次的互动,不仅能够充当工具,还能够进一步成为伙伴关系。35.5%的受访者认为AI大模型对于人来说应该是工具,这表明这部分人更倾向于将AI视为提高效率和解决问题的手段。然而,超六成的受访者认为,AI大模型不仅仅是一个简单的工具,它们在人们心中还扮演着伙伴的角色。这反映了人们期待AI大模型在提供服务时更有人情味,希望它们能够像人类伙伴一样提供帮助和支持。

(三)普及策略应区别对待

多数公众认为AI大模型的普及策略应根据不同领域的实际情况有序推进,只有少数认为应当普及或严格限制。67.6%的受访者认为在不同的领域,对AI大模型的应用保持不同的态度。这意味着人们认为AI技术在某些领域可能具有更大的应用价值和发展潜力,而在其他领域则可能存在风险或不适用的情形,所以应该区别对待;16.23%的受访者认为应该严格限制AI大模型的使用范围,对AI技术的潜在风险和负面影响保持非常谨慎的态度;12.58%的受访者认为应该普及AI大模型,他们可能认为AI技术具有广泛的应用前景,能带来积极的社会和经济效益,因此支持其普及。

三、AI大模型的风险与挑战

(一)风险认知多元化

用户认为AI大模型存在风险,但大多数人认为风险可控。90%左右的受访者都认为AI大模型是存在风险的。其中,66.2%的受访者对AI大模型持谨慎乐观态度,认为虽然存在风险,但这些风险是可以被控制和管理的;22.08%的受访者认为AI大模型存在较大的风险,这表明有一部分人对AI的发展持担忧态度;仅有4.26%的受访者对AI大模型的发展保持非常抵触的态度,认为应该立即停止使用。有4.48%的受访者认为AI大模型完全没有风险,这可能表明这部分人对AI技术非常信任,或者对AI的了解不够深入。

(二)隐私保护和就业替代问题突出

公众最关注AI大模型使用中的隐私保护和就业替代问题。公众在使用AI大模型的过程中面临多方面的挑战,人们对AI大模型的风险认知呈现多元化的特点,隐私保护和信息安全是人们最关注的问题。超半数的受访者遇到了数据隐私和安全问题,60.09%的受访者认为AI可能会不受控制地收集和处理个人信息。这说明数据保护和隐私安全是一个非常重要的议题,需要企业和开发者投入更多资源来确保用户数据的安全。此外,人们也担心AI技术的发展可能会放大现实层面的问题,如就业替代等。

(三)产品性能有待提升

公众认为目前AI大模型最大的问题是隐私保护不足和产品性能达不到个人需求。在使用AI大模型时,超过一半的受访者遇到过数据隐私和安全问题,40%的受访者表示遇到过生成结果不令人满意的问题。此外,也有超过四分之一的受访者表示还遇到了系统成本过高、技术复杂难以学习、偏见歧视和错误判断以及错误和无用信息等问题。这表明,目前的AI大模型在性能方面仍然存在较多问题,需要持续改进。

四、应对AI大模型风险的策略

(一)个人权益保护意识增强

在个人权益保护方面,多数用户在事前做好自我预防措施、事后向相关机构积极反馈。当自己的权益受到损害时,65.02%的受访者会向监管机构举报,35.45%的受访者会向企业反馈,这显示了用户对法律途径和企业的信任和依赖,希望通过正式渠道解决问题。除了寻求外部渠道的帮助,受访者自身也采取积极的应对措施,比如注重信息和隐私安全、加强对大模型的学习等。也有一部分受访者在遇到权益损害问题时,会选择不再使用该产品,表明了用户对于AI潜在风险的担忧。

(二)构建多元主体开放合作的治理机制

公众普遍认为,为了降低AI大模型的风险,必须构建多元主体开放合作的治理机制,期待在未来实现技术创新和法律法规的协同完善。在监管层面,61.83%的受访者认为AI大模型未来的发展需要完善相关法律法规;在企业层面,受访者认为企业不仅要重视自身的监管和审查,技术创新、商业场景的突破也可能解决潜在的问题;在社会层面,59.2%的受访者认为应该构建开放、合作、协商的多元治理机制。这些措施共同构成了一个综合性的风险管理框架,旨在确保AI技术的安全与可持续发展。

(三)对法规及自身权益了解有限

公众对AI大模型安全的相关法规及自身的合法权益了解有限。仅有17.77%的受访者自己阅读过AI大模型安全相关的法律法规,对自身享有的权利有一定的认知,48.12%的受访者仅听说过部分内容,17.07%的受访者只听说过名字,有17.04%的受访者甚至完全不了解我国在AI大模型安全领域的相关立法。这表明,我们需要加强对AI大模型相关法规的宣传和教育,提高公众的法律意识和自我保护能力。

五、与国际社会的对比

(一)青少年对AI的认知与态度

据联合国发布的报告,我国青少年对人工智能的认知度略高于全球平均水平。88.88%的中国青少年意识到AI的存在,而全球平均水平为85%。此外,中国青少年对AI工作原理的了解程度可能高于全球平均水平。在对AI大模型的态度上,国内外青少年群体都相对积极,但国内青少年更少担心就业压力。隐私保护和失业风险是国内外青少年普遍关注的议题,但国际青少年还更加关注算法偏见、技术问题和武器研发等风险。在人与AI的关系认知上,国际青少年倾向于将AI定义为工具,而国内青少年更加期待AI作为伙伴。

(二)消费者对生成式AI的认知和态度

据波士顿咨询公司的报告,消费者对人工智能的认知度高于预期,新兴市场对AI的认知超过成熟市场。中国消费者对AI的认知度为86%,与本课题组的调查结果基本吻合。新兴市场消费者对AI的态度更加开放,对AI感到兴奋的比例较高,而发达经济体的总体态度偏负面。在全球范围内,消费者对工作场所人工智能的看法在不同的职业领域有所区分。对于AI在工作和生活场景中的应用,消费者的态度也较为积极。

六、消费者对算法认知的变化

(一)算法透明度提高

消费者对算法的认知了解水平有明显提高,对基于个人信息标签的算法推荐接受程度有所提高。在2024年的调研中,约66%的受访者表示对企业提供互联网服务使用算法的行为是完全清楚或比较清楚的,只有7.21%的受访者表示完全不清楚。此外,受访者对基于个人信息标签的算法推荐接受程度也有所提高,反映出消费者在接受个性化推荐的同时,也在依法保证个人隐私及利益的诉求在加强。

(二)算法安全风险感知减弱

消费者对于算法所造成的风险,感知程度有所减弱。认为不存在风险的受访者比例从5%提高到了10%,认为存在很高风险的受访者比例则从20.3%降低到了10.5%。同时,面对算法可能带来的不利影响,消费者主动的保护意识和能力有所增强。

(三)算法公平性好转

关于利用算法进行人为信息扭曲的现象,消费者整体评价好转。认为企业利用算法进行的信息扭曲现象减少的受访者比例为53.7%,认为有所加重的只有10%。此外,消费者认为企业使用算法进行差别定价的行为整体上在好转。

(四)算法向善评价提高

消费者对算法自动推荐的信息流,正面评价的比例有显著提高。选择推送精准、节省了我获取有用信息的时间的受访者合计比例从40%上升到了52%。同时,消费者普遍认为平台在人性化设计方面,有一定的进步。

AI大模型正以不可阻挡之势改变着我们的生活,它既带来了前所未有的便利和创新,也引发了诸多风险和挑战。作为消费者,我们需要提高对AI大模型的认知水平,增强个人权益保护意识;作为企业,需要重视AI大模型的安全和隐私保护,加强技术创新和伦理审查;作为监管部门,需要完善相关法律法规,构建多元主体开放合作的治理机制。只有这样,我们才能在享受AI大模型带来的便利的同时,有效应对可能出现的风险,让AI大模型真正造福人类社会。

......

在水木人工智能学堂公众号对话框回复关键词ai9945,可获取完整报告下载链接。


水木AI知识荟2025.1.13日最新AI报告更新


往期回顾


🔥【精选报告】清华大学2024年AIGC发展研究报告3.0版(附下载,181页)

🔥【精选报告】重磅:2024年全球AIGC产业全景报告(附下载,58页)

🔥【精选报告】斯坦福李飞飞最新巨著《AI agent综述》Agent AI开启多模态交互新纪元(附下载,中英版)

🔥【精选报告】生成式AI如何重塑未来,吴恩达等AI领袖的独家观点不容错过!(附下载,160页)

🔥【精选报告】重磅:2024年全球人工智能全景现状最新报告(212页,中英文版,附下载)

🔥【精选报告】华为&清华大学--2024年AI终端白皮书:AI与人协作、服务于人(附下载)

🔥【精选报告】清华大学-大模型工具学习(附下载)

🔥【精选报告】海外权威报告:生成式人工智能(114页,附下载)

🔥【精选报告】腾讯研究院:向AI而行, 共筑新质生产力--行业大模型调研报告(85页,附下载)

🔥【精选报告】国际先进人工智能安全科学报告中期报告(132页,附下载)

🔥【精选报告】2024大模型应用实践报告--爱分析(35页,附下载)

🔥【精选报告】AIGC实践案例集锦:对话先行者,洞见新未来(附下载)

版权声明:本号内容部分来自互联网,转载请注明原文链接和作者,如有侵权或出处有误请和我们联系。
“阅读原文”下载报告。

水木人工智能学堂
水木人工智能学堂专注分享和普及AI知识,由清华大学、天津大学、深圳大学等AI团队创建,内容涵盖机器学习、深度学习、图像分析、语音及语义分析、AI求职及职业规划、行业报告等,汇集云知声、奥比中光、极视角等AI专家分享干货,欢迎关注。
 最新文章