2024年11月15日,中国人民大学社会科学高等研究院(深圳)数字经济研究中心与对外经贸大学数字经济与法律创新研究中心联合举办了题为“消费者认知与人工智能治理”的数字经济沙龙。沙龙探讨了近日中央网信办、工信部等机构发布的“关于开展‘清朗·网络平台算法典型问题治理‘专项行动的通知“中关注的信息茧房、信息操纵、算法向善等问题。沙龙围绕四大核心议题展开了深入探讨:消费者认知水平对算法和AI大模型应用的影响、消费者认知“鸿沟”及态度分化对人工智能应用的影响、公众的期待和担忧如何影响人工智能政策与监管,以及人工智能治理如何实现“以人为本”。
中国信息通讯研究院人工智能研究中心高级业务主管呼娜英,腾讯研究院高级研究员彭云,蚂蚁集团研究院研究总监王培成,对外经贸大学数字经济与法律创新研究中心主任许可,中国人民大学经济学院副院长及数字经济研究中心研究员李三希,中国人民大学社会科学高等研究院(深圳)数字经济研究中心主任程华,中国人民大学法学院副教授、未来法治研究院执行院长张吉豫以及中国人民大学法学院副教授黄尹旭参加了研讨会。
中国人民大学社会科学高等研究院(深圳)数字经济研究中心主任程华
首先,中国人民大学社会科学高等研究院(深圳)数字经济研究中心主任程华介绍了《算法与AI大模型的用户认知调研报告(2024)》的内容。报告基于8030份消费者问卷数据,对用户关于大模型和算法的认知、使用情况、算法与人工智能治理、自身权益保护等问题进行了分析。
关于AI大模型的认知
在基础认知层面,消费者对AI大模型的认识和使用尚未普及,对其内部运作机制也缺乏了解,与此同时,对于AI大模型和算法的拒绝使用权以及可解释性,诉求比较强烈。另一方面,数据还反映出AI大模型正逐步融入人们的学习、工作和日常生活之中,其实用性得到了用户的广泛认可。
在AI大模型的应用方面,消费者普遍持有积极的态度,超过半数的受访者选择了进步、创新、高效和便利等具有正向评价的词汇。在与AI大模型的关系上,人们期待更深层次的互动,不仅能够充当工具,还能够进一步成为伙伴关系。对于AI大模型的普及应用,多数人支持不同领域进行区别对待。
关于AI大模型的风险和问题,人们普遍认同AI大模型存在风险,但多数人认为风险在可控范围内。人们对AI大模型的具体风险感知是多维的,涵盖了就业、隐私、歧视和政府监管等多个方面,其中超过半数的受访者担心AI不受控制地搜集个人信息以及对人类就业岗位的替代。消费者对目前的AI大模型性能满意度不高,存在一定数据隐私和安全带来的挑战,以及生成的结果不够令人满意。
面对AI大模型的风险,公众倾向于采取积极主动的应对措施避免可能受到的权益损害。在向监管机构和企业进行反馈的同时,自身也会采取主动学习及自我保护等行为。公众普遍认为,为了降低AI大模型的风险,必须采取全面而多元的治理策略。
关于算法认知的变化
报告还基于课题组2022年的问卷数据,与2024年问卷进行了对比分析,研究发现:
在算法透明方面,消费者的认知水平有明显提高,对基于个人信息标签的算法推荐,接受程度有所提高。
在算法安全方面,关于算法对消费者权益造成损害的风险感知,尽管整体评价仍偏负面,但这两年有明显的减弱趋势;面对算法可能带来的不利影响,消费者主动的保护意识和能力有所增强。
在算法公平方面,消费者仍然认为存在一些利用算法进行人为信息扭曲的现象,,但整体评价有所好转;企业使用算法进行差别定价的行为整体上在好转。
在算法向善方面,对于算法自动推荐信息流,正向评价的消费者比例有所提高;在平台人性化设计方面,受访者普遍认为有进步。
中国信息通讯研究院人工智能研究中心高级业务主管呼娜英
在听完整体报告介绍后,中国信息通讯研究院人工智能研究中心高级业务主管呼娜英分享了她的观点:首先,从算法到大模型,人工智能时代的到来势不可挡。消费者的认知是从下往上非常重要的一环,因此,深入理解消费者的看法具有重大意义。其次,消费者对大模型风险的担忧,这包括失业、欺诈和失控等,显示出了从自身安全到衍生安全、从最小的单元再到宏观安全性的思考。最后,过去几年政产学研普遍强调数字素养的重要性,并展开了各项推广教育工作,这显著提升了消费者对大模型的认知水平。尽管安全问题是全球关注的焦点,但社会整体对大模型的发展保持着积极乐观的态度。
中国人民大学法学院副教授黄尹旭
中国人民大学法学院副教授黄尹旭表示,人工智能是一项重要的全球性议题,就目前情况来看,中国的大模型生态系统尤为丰富,技术处于相对领先的地位。从公众的角度审视人工智能显得尤为关键,因为公众的需求在很大程度上是由其认知水平决定的。对比今年发布的报告与2022年的报告,可以观察到,随着算法技术的不断进步和大型模型技术的兴起,公众的看法在哪些方面发生了变化。通过分析这些变化,我们或许能够揭示出一些新的制度需求和政策建议,促进人工智能的技术向善。
中国人民大学经济学院副院长、数字经济研究中心主任李三希
中国人民大学经济学院副院长、数字经济研究中心主任李三希在讨论中强调了消费者认知与技术扩散之间的互动关系,认为消费者对AI的态度会影响其在各行业的应用和扩散,同时,AI技术的影响与行业特性有关,正面和负面影响取决于行业对AI技术的依赖程度,不同行业对AI的感知存在差异,如翻译和设计行业的变化。李三希认为需要通过更细致的行业数据分析,了解AI技术的影响,探讨AI技术的使能性和替代性对人们态度的影响。他还强调了AI教育和培训的重要性,认为这是提高公众对AI认知的关键,并建议利用大数据和媒体分析来更准确地捕捉公众对技术的真实态度。
腾讯研究院高级研究员彭云
腾讯研究院高级研究员彭云分享了腾讯研究院关于人工智能技术社会影响的调查结果,调研显示,人工智能生成内容(AIGC)的使用率显著提升,但城乡使用率差距扩大;公众关注的焦点集中在数据安全与隐私风险;对于青年群体,数字鸿沟虽有所缩小,但失业替代压力成为他们的主要顾虑,尤其是在校生对就业问题的关注度最高。同时,社会对AI的理性认知在增强,部分人开始通过学习新技能适应技术带来的变革,但学习意愿与资源分配不均的问题仍然突出。最后,她强调数字素养的提升是治理的重要因素,并提出需要对AI发展中的数据隐私保护和中小企业利益保障给予深度关注。
中国人民大学法学院副教授、未来法治研究院执行院长张吉豫
中国人民大学法学院副教授、未来法治研究院执行院长张吉豫表示,虚假信息可能是监管层更加关注的,但消费者更加关注的是隐私和个人数据安全问题,当设计相关审查程序时也应当考虑在内。
张老师认为无论是联合国方面还是本调查的统计,都体现出人们对AI的态度非常积极。过去大家更多从政策角度出发,这是一种发展导向的治理。但实际上,从很多人的切身体会来看,大家表现出较为积极的态度,AI创新带来的便利、效率有很好的期待,这为如何平衡安全和发展提供了很好的佐证。另一方面,消费者对AI的担心也是相关领域发展的重要障碍,尤其是对个人数据安全的担心,当涉及AI相关产品审查程序时也需要考虑消费者的主观感受。
对外经贸大学数字经济与法律创新研究中心主任许可
最后,对外经贸大学数字经济与法律创新研究中心主任许可对研讨会进行了总结。许可老师认为社会治理无论是继续发展还是解决原来的问题,核心在于民众认知。因为目前不同群体的认知之间存在大量的断裂,尤其是与社会公众之间的断裂。这里面既有对消费者和用户培育数据素养的问题,也有数字监管的关切与公众认知之间存在断裂的问题。民众大量关注的是失业或者其他风险,而非虚假信息。
许可认为应当首先关心的是眼前的问题,即就业相关的问题,而虚假信息和产权保护问题虽然重要,但是它带来的影响需要更加长远地看待。第二,目前还需要做的工作是相关议题的跨国比较,在中国的语境下提出与全球治理不一样的思路。中国以发展为基础的人工智能导向非常有潜力,应当让AI的应用继续落地,实现为个人赋能。第三,在研究方法上,许可建议在更具代表性和典型性的平台上进行新一轮的问卷投放,以保障研究结果更加接近真实情况。
相关链接
金融投资精英首选!人大深圳专题研修班启动报名
家族企业接班人必修!人大深圳推出新生代企业家专题研修班
300位专家学者、律界精英、企业代表参加,这场知识盛宴有多精彩?