【会议纪要】数与智:人工智能时代的多学科融合(下)

文摘   2024-11-23 00:03   上海  

文章来源于

第二十一届北京论坛分论坛“数与智:人工智能时代的多学科融合”,北京大学人文社会科学研究院

2024年11月2日下午,第二十一届北京论坛分论坛“数与智:人工智能时代的多学科融合”第三场讨论在北京大学英杰交流中心第二会议室举行,主题为“治理架构”。上海交通大学凯原法学院教授郑戈、中国政法大学数据法治研究院教授张凌寒、北京大学国际关系学院副教授雷少华、北京大学法学院副教授胡凌作主题发言,北京大学法学院助理教授左亦鲁主持。


2024年11月3日上午,北京论坛(2024)“数与智:人工智能时代的多学科融合”分论坛第四场在北京大学英杰交流中心第二会议室举行,主题为“逻辑哲思”。本场会议邀请国内哲学和逻辑学的代表性学者,研讨人工智能兴起的底层结构。清华大学哲学系刘奋荣教授、浙江大学哲学院廖备水教授、中山大学(珠海)哲学系王轶教授、山西大学哲学系叶闯教授发言,北京大学哲学系王彦晶教授主持。



第三场·治理架构


人工智能时代的个人隐私保护


上海交通大学凯原法学院郑戈教授做了主题为“同意的计算与操纵:对个人信息保护法的批判性反思”的报告。郑戈老师认为,数字时代的个人信息保护需要新的方法论。当前我国个人信息保护遵循的是合同法模式,将个人同意作为个人信息处理的一般原则(即同意-告知原则),其背后的假定是方法论的个人主义与理性选择模型,即认为只要用户了解了平台告知的采集个人信息的目的、方式、用途和范围,用户就可以做出理性的信息披露决策;在当前的现实生活中,这种基于个人同意的个人信息保护主要体现为隐私政策和用户协议。郑老师指出,数字平台的特点在于能够将用户的瞬间欲求、片断想法和点滴披露融合起来,描绘出完整的个人画像,并对用户的未来选择进行推导和预测。因此,在数字时代,理性选择模型存在方法论上的局限性,看似个体的独立选择实际上可能是平台企业操纵和设计的结果,这就是“暗模式”,即平台通过一些设计技巧来操纵用户采取他们原本不会采取的行动,以损害消费者及其隐私。所以,基于理性行动者假设而构建的制度在很大程度上是一种让个人控制其数据传播的无效方式,它注定会失败,并造成了一种隐私虚无主义的现实。


大数据“杀熟”

图源:视觉中国


接着,郑老师回顾了当前部分国家和地区对“暗模式”的代表性立法,讨论了当前针对“暗模式”的规制努力。郑老师认为,相较于之前,当前的网络环境已经发生了变化:Web1时代是一种创生性的互联网生态,这一时期的互联网体现为一种开源的创生性网络,每个人分散的创造性活动汇聚成社会生产;而在Web2时代,互联网已经形成了平台垄断的生态,大多数用户不愿意了解所使用设备的底层原理为智能终端制造商和政府追踪和操控用户提供了极大的方便。作为结论,郑老师认为,将合同法模式用于个人信息保护是工具错配,无视了数字技术商业应用的现实情形;公法规制才是唯一有效的方式,人民的福祉而非人民的意愿应该成为法律的标准。具体到应用层面上,郑老师建议对用户界面进行规制,使其化繁为简、化难为易,最终个人隐私保护需要在个人福祉、集体利益、规制目标与个人自治等因素中取得平衡。


人工智能治理的中国进路


中国政法大学数据法治研究院张凌寒教授做了主题为“从风险治理到价值统合:探索人工智能治理的中国进路”的报告。张凌寒老师首先考察了当前部分国家和地区对人工智能基于风险的规制法案,指出风险治理包括风险识别与风险应对两个主要步骤,但当前这些基于风险的人工智能规制法案对人工智能风险的识别、分类和评估并不够准确,对人工智能的复杂性认识不足。具体而言,张老师认为,当前基于风险的人工治理规制模式存在四个主要问题:一是人工智能的风险中蕴含了太多的价值判断,为规范化治理造成阻碍;二是对人工智能活动引发风险的量化分析极为不易,沿用旧有的分析框架无法精确界定与测量风险;三是各种人工智能风险分类中的某些风险是人工智能带来社会变革的必然影响,因此不应称之为风险;四是人工智能很快将具有自我复制与自我完善的能力,算法比实物更容易复制或获得。因此,张老师认为,采取基于风险的治理模式是一种治理惯性,但人工智能有其特殊性,基于风险的治理与人工智能治理的现实需求存在错位;人工智能治理体系的建构目的不是为了限制该项技术应用,而是通过划定合法性边界、扫清影响技术创新的制度障碍等方式推动人工智能创新发展。


2023 年11月6日,OpenAI 首席执行官萨姆·奥尔特曼

在旧金山举行的首届开发者大会上演讲


接着,张老师回顾了中国人工智能规制的探索阶段、明确定向阶段和系统集成阶段三个不同时期,并分别对每个时期的风险认知与治理手段中的共性与特色进行了阐释。作为结论,张老师认为,人工智能具有数字时代的基础设施和新的生产组织形式两种属性,需要在风险治理的基础上构建基于价值的人工智能治理体系,梳理个性化的治理需求,构建人类命运共同体。


人工智能与中美关系


北京大学国际关系学院雷少华副教授做了主题为“构建安全未来:中美开展人工智能治理学术合作”的报告。从华为的案例引入,雷少华老师简要回顾了近年来中美科技竞争的历史和态势,认为当前美国存在一种科技领域领先地位被赶超的焦虑,而这种焦虑又因为新技术新产业发展方向存在不确定性而进一步加强。雷老师对中美两国的科技创新之路进行了比较分析,认为美国强调以科技创新带动产业发展,其优势在于始终保持前沿科技优势,劣势在于创新无法创造新型产业;而中国强调以产业集群驱动科技创新,优势在于技术与产业结合密切容易形成规模效应,劣势在于在最尖端的技术领域存在短板


在山东国瓷功能材料股份有限公司,员工用AI工业视觉识别品质检测系统操控蜂窝陶瓷颗粒捕捉器对产品进行质量检测(周广学 摄)

图源:视觉中国


雷老师认为,近年来中美的科技创新模式正在出现趋同,两国都颁布了鼓励先进制造业的规划。具体到人工智能上,雷老师认为对中美两国而言人工智能存在政治、军事、网络安全、就业、隐私保护、知识产权法律、教育、社会平等、色情暴力、医学伦理和贫富差距等十一个方面的潜在共同风险;中美之间如果就人工智能展开激烈竞争,可能会进一步加剧技术风险和地缘政治风险。技术风险主要体现在中美两国可能最后各研发一套以本国为核心的硬软件系统,加剧技术和产业脱钩风险;地缘政治风险则主要体现为中美竞争的外溢效应可能导致其他国家不得不选边站队,造成基于不同人工智能技术路线和生态体系的全球分裂。考虑到当前美国两党在对华高科技领域的围堵打压方面已形成少有的跨党派共识,且中美两国技术密集型领域的竞争作为结构性矛盾,双方都没有太多的妥协空间,雷老师呼吁中美构建主要由高校、智库、政府研究机构、人工智能公司等参与的“自下而上”的人工智能治理合作模式


人工智能时代

知识产权保护的法社会学


北京大学法学院胡凌副教授做了主题为“技术、组织和知识公地:思考人工智能的法律需求”的报告。胡凌老师回顾了“生成式人工智能作品第一案”,认为其争论的核心在于人工智能生成物的法律性质是否是作品,涉及对人工智能生成物独创性的判断。接着,胡老师提出了“传统法律思维”与“现实法律思维”的区分,认为前者在真空中发问,后者会结合具体情境与后果发问。在此基础上,胡老师提出,有必要从组织角度重新理解社会的法律需求。胡老师区分了知识生产组织所具有两类社会化功能,一是将劳动者组织起来生产,并提供激励;二是为劳动者提供知识性的生产工具。由此,胡凌老师划分了计划经济下的单位、市场经济下的单位、更加自动化的内容平台和大模型软件四种不同的组织形式,并回顾了我国宪法围绕生产活动变化所发生的变化。基于这个理论框架,胡凌老师对著作权法进行了讨论,认为著作权法保护作品或专利,首先是为了确保生产的社会化过程,但始终是生产社会化的一个阶段,因此会伴随组织能力、流动性、生产成本等因素而不断调整,存在兴起、错位、非法兴起和受控市场等阶段。


2023 年6月1日,机器人艺术家 Ai-Da 在2023年伦敦双年展上亮相,它是首个使用人工智能算法来设计家居用品的机器人


胡凌老师认为,对现阶段的人工智能而言,大模型内容生成软件在生产组织意义上是分裂的:就汇聚知识资源而言,使用各类数据库对大模型进行预训练,对生产者提供了创作的便利工具,这也是一个非法兴起的过程;就组织劳动者生产而言,人工智能尚未形成稳定的商业模式,目前并未进行平台式运营,也放弃著作权和任何控制力。因此,作为结论,胡老师认为至少在当前生成式AI侵权场景下,责任规则可以广为适用且负外部性不大,现阶段仍然需要为确权提供充分激励


所有嘉宾发言完毕后,现场与会师生就规制与发展的关系、AI时代从业者利益的保护等问题展开交流,论坛第三场在热烈的讨论中落下帷幕。


北京论坛现场


第四场·治理架构


逻辑与人工智能的交汇:

因果推理、社交网络分析与系统验证


刘奋荣老师的报告以“逻辑与人工智能的交汇:因果推理、社交网络分析与系统验证”为题,首先解释了逻辑和人工智能的紧密联系:第一,逻辑作为推理和计算的科学,提供了人工智能发展的基础;第二,逻辑作为知识表达的手段,提供了一套表示人类知识的符号系统,人工智能的发展也从中受益;第三,规范和验证既是计算科学研究的内容,也是逻辑学研究的内容;第四,逻辑证明可以帮助理解人工智能及一切技术之局限性。


2017年的纪录片《AlphaGo》记录了

李世石与AlphaGo“人机大战”的全过程


本场报告主要聚焦前两点关联。刘老师首先以因果推理为例,说明了人工智能之所以能够理解变元,进行因果推理,背后其实有逻辑学的作用。例如珀尔的“Do-演算”(Do-Calculus)使得人工智能能够区分数据的相关关系和因果关系(Pearl, 2000),盖格等人则将因果抽象方法引入神经网络研究中,通过映射高层次因果结构,使神经网络可解释,并揭示了神经网络与自然逻辑推理的相似之处(Geiger et al., 2020)。在因果推理的基础上,研究认知、信念和欲望等如何与因果关系相互作用,是学界的一个前沿话题。接着,刘老师介绍了社会影响和群体信念方面的逻辑学研究及其与人工智能的关系。日常生活中,人们观点的改变可能受到专家意见、大数据推荐和同一群体内部其他主体的影响。研究群体信念的方法之一是通过建立信念矩阵,模拟群体信念的变化,判断迭代收敛(即群体信念趋同)的条件,并考察群体信念趋同时矩阵的形态。在此基础上运用逻辑学的方法,可以定义一个群体的潜在信念(potential belief),这一工具有助于研究群体信念受人工智能干预的情形。


2024年11月5日,国家会展中心(上海),

媒体记者和AI下棋机器人下棋

图源:澎湃新闻


最后,刘老师介绍了其他与人工智能交叉的逻辑学前沿研究,例如对知识图谱、大语言模型、推荐系统的研究,并简单介绍了逻辑学在规范和验证上起到的作用:例如,人工智能是否满足伦理标准,就可以通过逻辑学的方式表达和验证。虽然目前还没有一个足够好的系统用于理解大语言模型本身,因此还缺乏对其进行验证的工具,但这方面的研究也已在进行中。


机器伦理的哲学基础、基本特征与方法


随后,廖备水老师作题为“机器伦理的哲学基础、基本特征与方法”的报告。本报告所称的“机器”指的是具有行动和信息处理能力的程序或智能系统,一方面,近十年来,随着机器被赋予越来越多的自主决策能力,机器必然要面对伦理道德问题。另一方面,道德决策通常涉及义务冲突和复杂的因果联系,人类伦理学家无法设计出一套普遍而完整的伦理原则,因此希望机器能够辅助或自动进行伦理决策。以上两方面原因体现出了机器伦理研究的重要性。


通过参考现有的人类伦理体系,可以建立机器伦理方法。现有的伦理体系分为强调道德情感和道德直觉的描述性伦理,和强调理性道德决策的规范性伦理。根据对决策主体、决策本身和决策结果的不同侧重,又可区分美德论、道义论和功利论三大方法。虽然这些人类伦理方法为机器伦理研究提供了基础,但是要将这些方法适用到机器伦理中,还需要考虑机器伦理的基本特征:第一,目前的机器仍不具备主体性(agency)和体验性(experience),无法承担主体责任,所起到的功能仍以工具为主;第二,机器的弱主体性说明,机器决策所反映的是受其行为影响的人类社会相关方的决策,相关责任需要由人类来承担,因此机器伦理中需要平衡不同的社会利益和伦理诉求;第三,文化对人们的道德判断有着重要影响,文化差异性是机器伦理中需要考虑的重要内容;第四,机器必须具备对决策结果进行解释的能力,并以人类能够理解的方式表达出来,实现有效的人机交互。


2023年10月26日,在德国马格德堡大学举办的“人工智能与声学节”活动上,人形机器人“Ari”与人们握手互动

图源:Cphoto


由于机器的弱主体性,实现机器伦理的主要方式是伦理对齐,即使得机器的行为和人类的伦理价值对齐。廖老师提出了三种实现途径:一是知识驱动方法,即把伦理价值和规范表示为知识,并通过推理来实现道德决策。这种方法便于表达人类社会规范和价值观,也易于为人类所理解,但必须基于既有的伦理学理论来建构知识,知识的获取不易,且对语境不敏感。二是数据驱动方法,即通过数据学习人类的决策或偏好,这种方法对于理解语境差异有天然优势,但人类的规范和价值没有得到直接表达。三是混合方法,可通过集成知识树或引入逻辑的推理引擎,综合数据集中隐含的知识和人类显性的知识,进行伦理判断。最后,廖老师从哲学、心理学、逻辑学和计算科学等多学科的视角展望了机器伦理领域未来的工作。


胡话的社会生成与自然语言处理:

从逻辑学的视角看


王轶老师在关于胡话(bullshit)的报告中首先介绍了胡话研究的历史。胡话研究发端于上世纪60年代末,学科史上对胡话的定义和特征有不同的说法,如法兰克福对胡话的基本判断是,胡话不涉及真假,缺少和事实的连接,这使之与谎话(lie)严格区分开来(Frankfurt, 2005)。近年,迈鲍尔从意图方面尝试定义胡话,认为胡话具有确信性、与事实关系松散、与问题无关等特点(Meibauer, 2016)。法利斯和斯托克则从语境方面定义,认为胡话是和讨论的问题无关的话(Fallis and Stokke, 2017)。总体上,给胡话下定义是困难的,但日常生活中又不可能避免胡话,这成了王老师对于胡话的研究兴趣的起点。


《仿生人会梦见电子羊吗?》Do Androids Dream of Electric Sheep?1968年英文初版书影


但从逻辑学角度进行胡话研究的挑战在于,真假问题已经成为逻辑学的核心问题,但胡话无关真假。王老师和合作者采用的做法是,回避对胡话的定义这个问题,而是研究说胡话这个行为本身,解释胡话为何易于传播,为何容易导致茧房效应等。本研究对于胡话的基本假设是:说胡话者是一个有意图的主体;胡话无关真假,往往(但未必)涉及语境,无法放进信息的有害与真假的四象限中。研究建立了一个博弈模型分析社交网络上的互动行为,研究参与者的发言、同意、分享等行为,其收益在于获得追随者。通过对这个博弈模型的分析认为,不存在一种关于胡话的模式(stereotype),胡话本身是一种约定俗成。这一模型能够解释为什么某些社交媒体比其他媒体更可能产出胡话,以及为什么胡话的传播会导致信息茧房。不过,现在的胡话研究还面临着更进一步的问题,例如胡话的判定比较困难,为此,需要一个逻辑学模型。


王老师继续说明胡话研究和大语言模型的关联。希克斯等的最新论文指出,以ChatGPT为代表的大语言模型本质上是在说胡话:机制上,大语言模型其实是在假装自己说的内容关乎用户提出的问题;内容上它的产出不关心真假,只是为了让用户觉得从其产出中获益,甚至可能携带有制造者和使用者的欺骗意图(Hicks, Humphries and Slater, 2024)。运用哈贝马斯的沟通行动理论,王老师指出,大语言模型的产出是否属于胡话,取决于使用者是否能够采取积极的倾听策略。


人工智能系统文本输出之

语义解释及其元语义根据


叶闯老师的报告旨在与《使人工智能成为可解读的》(H. Cappelen and J. Dever: Making AI Intelligible: Philosophical Foundations, Oxford University Press, 2021)一书商榷,指出关于人工智能的文本输出,需要一种新的元语义说明。过去讨论人工智能问题,主要试图解释人工智能系统之输出背后的产生机制,对于另一个重要问题,即如何理解人工智能系统所输出文本的语义,较少有人关注。《使人工智能成为可解读的》一书乐观地认为,人类可以按照理解人类语言的方法来理解机器语言,基本根据是:人类对人类语言的理解是通过一种抽象过程进行的,理解机器语言亦然;人类对机器进行适当训练,这一过程使得外在因素介入了机器语言,使得某种经过修改的外在主义元语义学(主要是克里普克的语义学模型)适用于解决可解读性问题。


ChatGPT回应“计算机是否具有创造性”的问题


叶老师认为,该书提出的解决方案过于简化,并从人工智能系统本身和人的区别、人工智能系统作为交流者和人的区别、外在环境的区别三个方面对该方案提出了质疑。第一,人工智能和人的智能系统接收输入的信息量不同,输入方式不同,在处理信息的方式上也有非常基础的差异。第二,现有哲学所熟悉的主要本体论范畴不能适用于人工智能。人与人沟通交流时,或将对方视为说同一种自然语言的语言共同体成员,或视为说一种完全未知的人类语言的语言共同体成员,或视为外星人,这些假设都无法适用于人工智能。第三,《使人工智能成为可解读的》一书采纳了外在主义的语义模型,但至少目前,外在主义最基本的假设,即语词的含义受到外部世界的影响,在人工智能领域的适用性是可疑的,因为机器学习的过程其实已经将人类理解的外在变为机器的内在。综上所述,需要为人工智能系统输出的语义解释提出一种新的元语义说明,而不能简单套用现有理


与会学者合影


会议最后,在场师生和嘉宾围绕四场报告的内容进行了深入而热烈的探讨,本场活动圆满结束。


往期推荐

中国人口形势报告2024:连续2年负增长

暴跌50万!2025考研人数跌破400w!

世态炎凉 ‖ 中央发文:强化博士生分流退出

编辑 | 嘉言宣轶

审核 | 风清扬

社科学人
展现中国特色、中国风格、中国气派的哲学社会科学,繁荣中国学术,发展中国理论,传播中国思想。
 最新文章