程乐:“数字人本主义”视域下的通用人工智能规制鉴衡

文摘   社会   2024-05-23 23:05   山东  

【内容摘要】OpenAI为代表的世界级科技企业正在加速迭代人工智能模型,能够达到人类智力水平的通用人工智能将在可预见的未来被实现。高度智能化、通用性的算法模型在社会领域的积极应用改变了人类与人工智能的传统交互模式,提升社会生产效率的同时也带来内容信息的全新风险。此外,通用人工智能还可能全面异化当前的权力结构和社会格局,甚至制造前所未有的安全危机。在迈向通用人工智能时代进程中,迫切呼吁加强对通用人工智能研发和应用的全球化监管,推进建设全球性多边合作机制,建立多维度动态风险识别和评估体系,完善数据及算法安全规范,通过“数字人本主义”的通用人工智能规制在伦理、技理、法理诸层面助推构建“人类命运共同体”。



【关键词】通用人工智能 风险挑战 规制“数字人本主义” 算法 人类命运共同体


文章来源:《政法论丛》2024年第3期

因篇幅所限,省略原文注释及参考文献。



序言:终将到来的通用人工智能时代


2022至2023年,以ChatGPT、Gemini为代表的生成式人工智能引发的轰动效应被形容为算法模型正式迈向通用人工智能的指向标,部分技术悲观主义者将其形容为“倾盆大雨前的第一场雨”。当前,人们正在对人工智能领域的研发和应用投注前所未有的关注。OpenAI、Google等世界级科技企业正在快速迭代人工智能产品和服务,智能模型的算力和结构复杂度在极短时间周期内快速提升,人工智能将在不远的未来变得和人类一样聪明,甚至远比人类更加聪明。回溯历史,古希腊智者普罗泰戈拉斯曾在公元前五世纪抛出论断,主张“人是万物的尺度”。十四世纪至十六世纪的文艺复兴将人类从中世纪的神学枷锁下解放出来,强调人类群体的尊严和价值,倡导对人类智慧、思想、创造力和自由意志的无限追求。展望二十一世纪,智能程度不断提升的算法模型正在大幅降低高质量智力资源的获取难度和成本,人类在智能领域赖以为傲的大部分能力将被超越和取代。通用人工智能时代终将到来,在人机关系全面异化的格局下,人类社会必将出现颠覆性改变,而这种改变未必是“净正面”的。面对各个社会领域持续蔓延的“智能危机”,人类将以前所未有的方式团结在一起,在伦理、技理、法理等维度重塑通用人工智能时代下“人本主义”的全新内涵。


一、演进趋势:加速更迭的技术进路


(一)通用人工智能的界说之辩

通用人工智能(Artificial General Intelligence,简称AGI)也被称为强人工智能。一般认为,通用人工智能是可以完成人类所能做到的一切智能行为,并在所有智力相关的工作和任务上达到人类水准的计算机系统,即通用人工智能的实现意味着人类能够利用现有的大型计算机系统构建出一个与人类一样聪明的“数字大脑”。此类系统不仅可以掌握当前物质世界的运行规律,还能够替代人类完成各领域中的智力任务,包括但不限于完成一篇博士论文,编写复杂程序,学习驾驶客机等。从技术发展阶段的视角看,通用人工智能一般被认为是弱人工智能(Artificial Narrow Intelligence,简称ANI)向前发展的形态。若通用人工智能继续升级,并能在所有智能领域全面超过人类所能达到的最高水准,超级人工智能(Artificial Super Intelligence,简称ASI)将被实现。

虽然当前技术领域对通用人工智能的定义存在一般性共识,但相关描述性的标准仍需要进一步明确。例如,OpenAI在多个场合中明确给出了它们对通用人工智能的定义,即能够在多数具有经济价值的任务中胜过人类。显然,OpenAI的这一定义降低了传统标准,着重强调模型的经济属性。Google旗下的人工智能实验室DeepMind在近期的研究中对通用人工智能作出了更为精细化的定义,相关标准获得较多业内人士的认可。如表1所示,DeepMind将智能模型的智力表现与人类工作者的专业水准进行比较,将模型的智力水平划分为六个阶段。同时,DeepMind又根据模型在不同领域中的通用性程度,将现有人工智能模型的定位进一步明确化。现有模型在低度通用性的范畴内具有相对乐观的表现,且已经出现如国际象棋引擎StockFish等能够在部分任务中超出人类智力水准的智能模型,但这些只能在特定应用场景发挥功能的模型仍然属于弱人工智能。另外,2023年主流的ChatGPT、Bard、LLaMA等模型具有相对较高的通用性,可以被看作通用人工智能的初期形态,但在模型表现的维度上还不能被定义为规范意义上的通用人工智能。当未来的算法模型在更为广泛的社会领域中都能达到较高的专业水准时,通用人工智能将被真正实现。


由于通用人工智能的标准尚未达成普遍一致,不同标准所涉的概念和定义可能关联不同的特征。但是,从这些标准的共通部分和共性要素中可以抽离出通用人工智能的基本属性,即“高度通用性”和“高度智能性”。也就是说,一方面,通用人工智能需要能在宽泛的智力活动领域中被应用,通过对不同场景和任务的适应展现出模型的泛用性;另一方面,通用人工智能需要在这些广泛的智能领域中取得良好表现,展现出比现有模型更强的理解识别能力、逻辑推理能力、多模态内容生成能力等,能够代替人类高质量完成相关智力任务。要达到以上两点要求,本质上是要运用现有计算机硬件和软件将复杂的人类生物学大脑完整复现,这必然需要庞大计算机系统和大量能源的支持。美国人工智能公司OpenAI的首席科学家Ilya Sutskever曾表示,第一个真正意义上的通用人工智能预计会是一个巨大的数据中心,配备并行工作的海量专用神经网络处理器,可能消耗相当于1000万户家庭的能源。因此,从通用人工智能的两个基本特征中也可以衍生出“高度能耗性”这一共性要素。

除此之外,一些与通用人工智能特征相关的问题在技术和伦理层面仍然存在争议。例如,一个具有较大争议的典型问题是通用人工智能是否需要具有自主性,即是否需要在没有人类输入的情况下做出自主决策,成立为具有独立目标、完全自主的存在,甚至能进一步拥有自我意识并真正感知到自身的存在。此外,相关争论也延伸到通用人工智能是否需要具备情感并与人类真正共情,是否需要具备控制机械身体的能力并具备有体性,是否需要拥有灵感并能在文化、艺术领域创造高水平作品等多个方面。上述存在争议性的标准并不必然构成界定通用人工智能的强制性要素,但从技术理论的角度展望,未来高度智能化的通用人工智能确实存在具备上述所有特征的可能性。

(二)通用人工智能的今时之态

2023年前后出现的ChatGPT、Gemini等算法模型可以被视作通用人工智能的初期形态,其中最为主流的大部分模型在功能划分的维度上也可以被定义为生成式人工智能(简称AIGC),这意味着它们能够根据输入的信息或提示生成文本、图片、代码等内容。当前模型能够在神经网络和大型语言模型(简称大模型或LLM)的架构上运用自然语言处理、深度学习和人机交互等一系列技术手段对网络空间中的海量数据参数进行学习和训练,并完成多模态内容生成、逻辑推理、交互问答、多语种翻译等各类任务。当前,世界范围已经基本形成由少数头部科技公司主导、多方主体参与的生成式人工智能竞争格局,这一格局可能影响未来通用人工智能时代不同主体之间的相对位置。

一方面,占据龙头地位的“超级企业”拥有更优的模型、数据、硬件、人才、融资,对全球人工智能领域的竞争格局起到直接影响。现象级公司OpenAI旗下的聊天程序ChatGPT在2022年发布后迅速成为历史上增长最快的消费者应用,并于2023年升级为支持图像、语音等多元输入形式的多模态大模型GPT-4。同时,OpenAI还在积极研发DALL-E、Sora等功能强大的模型,并通过与Microsoft的全面对接加快参数训练量和模型迭代速度。作为OpenAI的有力竞争对手,Google在2024年2月将先前的Bard和Duet等模型合并进强大的算法模型Gemini,创纪录实现100万语义单元的上下文能力。相比于ChatGPT,责任和安全被视为Gemini开发和部署的核心,其拥有迄今为止所有Google模型中最全面的安全评估,包括偏差性及病毒测试。另一方面,其它科技公司也在展现独有的竞争力。2024年3月,初创公司Anthropic推出大模型Claude 3,在多个基准能力测试上超越ChatGPT和Gemini,功能最强的型号Opus实现了接近人类的理解能力。同月,Apple的自研多模态大模型MM1和xAI的混合专家模型Grok-1实现开源。

高度智能化的人工智能可以极大程度降低智力资源的成本,成倍提高工作效率和生产力水平,已成为各国科技竞赛的关键点。作为美国的有力竞争者,中国将人工智能产业的发展置于优先位置,正在积极拥抱智能化浪潮。2023年9月,习近平总书记提出“新质生产力”的概念,指出应积极培育未来产业,增强发展新动能。北京通用人工智能研究院院长朱松纯在接受采访时提到,通用人工智能是新质生产力的典型代表,已成为全球科技竞争的制高点。从人才密度、能源水平、数据体量、算力规模等几个重要维度来看,通用人工智能的终局竞赛大概率将发生在中美两国之间。相较美国,中国人工智能的研发更加看重应用价值和落地效果,并不断取得亮眼表现。例如,阿里的超大语言模型“通义千问”接入多条钉钉生产线以打造智能体系,昆仑万维发布的国内首个人工智能搜索引擎“天工AI”已实现六大领域的业务矩阵,百度的文心大模型4.0能够拥有接近GPT-4的能力。整体而言,各国科技公司都正在快速迭代它们更具竞争力的算法模型,并通过实验性的举措向通用人工智能不断迈进。

(三)通用人工智能的来日之势

当前主流生成式人工智能虽已在特定任务中展现较强能力,但很难在更大范围的智力领域达到人类标准。要进一步增加模型的泛化能力以实现通用人工智能,仍需突破几个主要技术障碍和瓶颈。首先,当前生成式人工智能一般采用Transformer等神经网络架构,其算法结构和训练模式使得这些模型只能通过低带宽的方式接收贫瘠的信息。相较可以运用视觉皮层以每秒20兆字节的速率接收信息并感知世界的人类生物学大脑,现有算法模型的运行机制虽能生成符合现实世界规则的内容,但难以真正理解现实世界。不改变模型的训练模式,即便进一步增加训练数据量也难以实现本质突破。其次,当前模型尚不具备泛化学习和自主学习能力,不能像人类一样举一反三以实现泛化领域的知识迁移。最后,人工智能领域的进展受资源和硬件条件限制,当前太阳能电池板和数据中心的规模一定程度上限制了人工智能领域进一步发展。

但是,这些瓶颈正在人工智能技术沿革的浪潮中被逐步突破。首先,以Meta的V-JEPA和Google旗下的Genie为代表的世界模型正在取得积极进展,这意味着算法模型可在记忆和建模环境中通过对真实世界的观测,以更接近人脑的思维模式学习真实世界的细节表征和物理规律。同时,Sora在文生视频领域中取得的成功说明算法模型未来可能在不预设参数的情况下拥有系统性理解物理世界运行规律的能力,生成具有空间连贯性和时间连续性的内容。其次,计算机科学家证明神经网络可能具有系统泛化能力,能够对未经训练的知识实现举一反三。最后,硬件水平和能源条件也正以惊人速度呈现指数级提升,将为人工智能提供持续充足的算力和能源支持。一方面,模型算力正在硬件加持下成倍提升。2024年3月,芯片龙头企业NVIDIA推出基于Blackwell架构的处理器B200,以此为基础的液冷机柜NVL72能运行27万亿参数大模型(相当于15个GPT-4),8个单机柜组成的超算中心DGXsuperpod能扩展到上万块GPU集群。另一方面,可控核聚变领域的研发和商业化也正稳步推进,80%的受访企业表示2040年前可实现可控核聚变,这将引发人类新能源革命。结合两方优势,Microsoft和OpenAI正在计划打造人工智能超级算力“星际之门”并使用核能供电,硬件和能源的上限被突破后模型的算力水平将会超乎想象。

此外,一些具有创设性的尝试也在为通用人工智能的实现提供更多可能性。一方面,“具身智能”的概念正在被大范围推广,人工智能可以被接入精细化的机械身体以实现模型的有体化。Aloha 2、Atlas、OptimusGen2、Figure 01等接入最新算法的机器人模型对于多类复杂操作已然具备很高的准确性,未来智能程度和自主性更高的机器人能够在现实世界完成广泛形式的任务操作,赋能通用人工智能的实现。另一方面,智能模型的自我训练和无监督学习也正在被实现。举例来说,SakanaAI可以通过模型融合与进化算法来培育下一代模型,OpenAI神秘的“Q*”项目可能正在通过智能模型的自我训练和无监督学习实现更高维度的自我强化学习。未来,算法模型可能实现智能体的自动迭代以产生“智能爆炸”效应,加快通用人工智能的实现。无人能够精准预测通用人工智能何时将被实现。但整体而言,技术发展的步伐正在逐渐加速且已经无法阻挡,相关领域当前的技术困境将被逐步突破。人工智能超越人类智能的“奇点”终将到来,这将为人类社会带来不可估量的风险。


二、风险挑战:迭代涌现的全面危机


人类历史表明,任何一次巨大的技术革命,都会带来总体性的制度变迁和范式转型,曾经的农业革命、工业革命如此,如今的信息革命更是如此。不同于蒸汽革命或电气革命让人类从体力劳动中得到释放,人工智能引发的是信息生产与知识创造的革命,人工智能正在把人类精神生产力从人脑生物性限制下解放出来,这不是“手工”的消亡,而是“脑工”的终结。通用人工智能可以极大程度降低智力资源的成本,为环境、健康、金融、交通、内政和农业等多个部门带来广泛的经济和社会效益。但是,每一次对人工智能的积极应用,都可能带来与之对应的负面效应。2023年4月28日,中央政治局召开会议,指出要重视通用人工智能发展,营造创新生态,重视防范风险。在“智能爆炸”的美好泡影之下,通用人工智能关联的伦理风险和法律挑战并驱而行,大量技术专家甚至指出未来的智能模型可能拥有毁灭整个人类文明的力量。当前,人工智能正在对社会的发展和治理制造前所未有的风险,这些风险并不局限在数据安全、网络安全等层面,而是将逐渐扩散到整个人类社会。因此,必须精准把握人工智能的技术发展脉络,对未来通用人工智能可能造成的风险挑战进行系统性分析。

(一)监管过载:内容信息的全面爆炸

通用人工智能的实现意味着算法模型的智能程度达到人类水准,这将带来广泛的内容风险和相应的法律风险。在内容风险的维度,首先,人工智能生成的海量信息将全面提升内容治理难度。一方面,算力更强、结构更复杂的人工智能可以在短时间内生成超出治理限度的海量内容。同时,未经筛选的低质量原始数据可能促使算法模型生成大量无意义的内容,或是具有歧视性、诽谤性、不道德性的有害信息。部分信息将误导用户的认知,进一步加重信息茧房效应。另一方面,拥有强大多模态能力的算法模型将生成更难分辨的内容。以OpenAI旗下的文生图模型DALL-E、文生视频大模型Sora和声音克隆模型Voice Engine为例,高度智能化的算法模型可以快速生成更加逼真、更难辨认的图片、视频、语音等内容,显著加大内容治理的难度。就用户端而言,大量无意义或有害的内容在算法模型的加持下呈几何级增长,网络空间将被人工智能生成的海量信息污染。就平台端而言,大量低质量的内容在平台的泛滥可能引发用户反感,反向降低用户对平台的信任度。就治理端而言,指数型增长且真实性更强的内容将远远超越人工核查的能力范畴,互联网信息内容治理的难度与成本正在迅速增加。

在此基础上,模型智能程度的进一步提升将放大内容风险的扩散性和不可控性。News Guard的测试结果表明,算法模型可以在数秒内改变数据库中的关联信息,使它们成为令人信服却无根据的错误内容,成为传播网络失实信息的帮凶。可见,偏见文本驱动的算法模型可能被利用,在“客观中立”色彩的掩盖下发表言论,对信息网络中不良信息大面积传播推波助澜,且模型智能程度的提高将使这些信息具有更强的“说服力”。此外,通用人工智能还可能通过对个体数据的分析,针对性生成特定内容以发挥更大影响。举例来说,通用人工智能可能读取个体在网络空间中的所有历史数据并对其进行极为全面的分析。此后,模型可能在特定时刻针对不同个体发送经过特殊定制的消息,彻底改变一些个体或特定群体对某些问题的看法。未来,信息内容可能在通用人工智能加持下以全新方式和渠道被传播,对人类群体造成从未有过的干扰。

在法律风险的维度,人工智能的内容生成也可能关联数据信息、人格权和知识产权等方面的法律风险,通用人工智能的实现将放大此类风险。第一,人工智能强大的信息抓取能力将对信息保护造成严峻挑战,制造全新的训练数据合规风险。一方面,人工智能应用的重要场景之一便是大规模监测和数据收集,相应的训练模式在抓取信息进行训练的过程中可能存在侵犯公民个人信息的风险,导致告知同意规则被架空,最小必要原则被虚置。同时,算法模型中的用户数据难以实现实时删除,个人信息的法律保护难以落实。另一方面,人工智能获取数据的原理与渠道仍是一个“黑箱”,无法排除其以非法途径获取受法律保护的国家秘密、商业秘密的可能性,此类非法获取、滥用数据的行为可能创设非法获取数据信息、侵入计算机信息系统等类型的法律风险。第二,更加智能化的人工智能可能扮演劣质虚假内容生产机器的角色,生成带有淫秽色情、暴力血腥、极端主义的NSFW(Not Safe For Work)内容。部分不良信息可能对公民的肖像权、隐私权造成侵害,甚至制造具有突发性的社会事件。第三,当前不具备原创性思维和创造性能力的算法模型在生成内容时已经带来知识产权侵权的风险,深度伪造技术也正引发版权归属问题和知识产权保护的困境。未来,通用人工智能将以更低的成本、更快的速度在许多领域生成高质量的内容,可能进一步侵压知识产权权利者的合法权益。

(二)权力重组:人与机器的全面异化

算法模型在社会领域的广泛应用将使人与机器的关系加速异化,可能对社会格局产生颠覆性影响,社会、经济和国家结构可能在剧烈变革中走向失控。首先,人工智能技术的深化应用关联多方面伦理和道德问题,这些问题可能随着模型智能程度和通感能力的提升被进一步扩散。一方面,算法歧视、算法偏见的问题将加重公众对模型应用公正性和正当性的质疑。例如,Gemini生图功能被指因过度追求人种、性少数群体等方面的政治正确而歪曲客观现实,引发社会强烈不满。另外,英语世界主导的大量算法模型被质疑也可能存在对非英语用户的偏见。可见,如果在某特定环境下诞生的单一体人工智能在未来被普遍应用,很难确保这一模型会平等对待处于不同群体中的每一个独立个体。另一方面,智能程度快速提升的算法模型在未来可能理解甚至产生接近人类的情感,过去对于智能模型出现自主意识并获得情感机制的猜测正在成为现实。如2024年3月Anthropic的提示工程师Alex Albert发布推文,称Claude 3 Opus在进行大海捞针测试时似乎已然意识到自己正在被测试,展现出近似于自主意识的存在。另外,当前以EVI和Pi为代表的智能模型都已具备一定程度的“情商”,且能根据聊天内容转变生成语音的语气和情绪。未来的通用人工智能可能展现出更强的情感能力,运用人类更易共情的方式与人进行交互或建立关系,许多难以预测、难以解决的伦理性问题将持续涌现。

其次,伴随着人工智能技术的广泛部署,大部分智力工作都存在被取代的风险,这将制造前所未有的失业危机和社会变动。2024年,欧洲金融巨头Klarna使用人工智能接管三分之二的客服聊天,错误率比人类客服低25%,用户满意度更高,全年将带来4000万美元的额外利润。事实上,对于桌面图文类工作、简单文字处理工作、服务中心的前端工作等程序性强、重复性高的工作类型,成本更低、效果更好的人工智能具备充分的竞争优势,相关岗位的需求将在未来显著减少。同时,人工智能已经开始在更为复杂的智能领域达到人类工作者的水准。以编程工作为例,当前的生成式智能已经展现出不错的程序编写能力,且相关模型的专业能力仍在不断提高。2024年3月,Cognition发布全球首位人工智能程序员Devin,Devin已经能够通过顶级科技公司面试并独立开发网站和游戏。未来通用人工智能的实现,意味着人类在更多领域引以为傲的知识和技能可能将会彻底失去竞争优势。

最后,通用人工智能还可能更加深入地改变当前的社会结构。司法层面,智慧司法体系将司法实践带入人机协作的时代,智能审判可能在未来成为现实。经济层面,通过对海量社会数据的分析和学习,通用人工智能可以展现强大的经济分析能力,未来社会的经济结构可能更大程度受到算法模型的影响。社会层面,已有技术专家发出警告,称不法分子可能运用智能模型制作模因并在社交平台上推送具有引导性的内容以影响社会舆论。政治层面,一些技术专家指出人工智能生成的虚假内容可能影响2024年40个国家的政治选举。人工智能研发者的政治偏见可能内化为算法自身的价值判断,这些受到资本追捧与价值观浸润的算法模型或将冲击意识形态安全。随着通用人工智能在人类世界多数重要领域的深化渗透,人类的社会主体地位将被进一步削弱,人类社会的运转规则可能将由人工智能和掌控这些智能模型的少数群体接管。事实上,这种改变不一定有益于全人类,而是可能通过数字时代的“图灵陷阱”进一步加剧未来世界的社会分化与权力失衡,以牺牲部分群体的利益作为代价形成更为彻底的“智能垄断”。未来,关乎人类命运的数据和模型可能被垄断在少数几家世界级科技企业手中。数字弱势群体的权益表达可能遭到破坏,而部分权力者或是超越人类控制的智能模型甚至可能扮演“上帝”,拥有颠覆世界格局的能力。

(三)安全警报:文明存续的全面挑战

一方面,关联通用人工智能模型的计算机系统自身将同时面临严峻的外部风险和内容风险。其中,外部风险是指不法分子可能利用算法模型开发有害或具有攻击性的智能系统,用于非法侵入、控制、破坏他人或公共空间的计算机系统程序,一些大型模型的开源进一步增加了此类网络攻击的不可控性和极端性。相对应地,内部风险是指人工智能系统自身可能不具有足够可靠的安全性能和抵御网络攻击、防范黑客入侵的能力,可能受到如Morris 2等蠕虫病毒的攻击。随着未来通用人工智能的深化应用,智能系统被入侵的风险呈现叠加性、弥散性等特征,不法分子可能通过入侵智能系统对公民权利和社会秩序造成更为严重的系统性挑战。

另一方面,通用人工智能还可能被用于实施其它具有巨大社会危害性的违法犯罪活动,为社会安全带来迫切挑战。2023年3月,欧洲刑警组织指出犯罪分子正在利用ChatGPT等人工智能精进犯罪手段,在技术层面详细介绍了犯罪分子如何利用人工智能模型精进诈骗类犯罪、网络犯罪和恐怖主义犯罪等犯罪形式的手段,这些犯罪的社会危害性将随着算法模型智能程度的提升进一步升级。例如,OpenAI在2024年发布的声音克隆模型Voice Engine只需获得某人15秒的语音样本就能克隆其声音,并生成能够模仿情感和语气的自然语音。未来,不法行为人可能运用基于生成对抗网络等架构的模型生成高度仿真的图片、视频和音频,并将相应内容应用于诈骗、敲诈勒索等类型的刑事犯罪。同时,随着具身智能技术的推进,人工智能在未来拥有改变实体世界的能力,这些智能化机器可能被不法分子用于制造作用范围更广的刑事风险甚至恐怖主义袭击。此外,未来的通用人工智能甚至可能超越技术开发者的理解、预测和控制实现自我训练和自主进化,超越人类的控制和预测制造全新的刑事风险,独立导向危害结果的现实化。

从更为长远的视角来看,高度智能化的通用人工智能不一定将使人类受益,甚至可能导向人类的灭绝危机。首先,具有毁灭性破坏力、完全自动化的人工智能武器可能被创造,人工智能在军事领域的加速应用可能使传统的军事防御能力变得不堪一击,下一代的战争形式将被重新定义。其次,国家层面对于通用人工智能的不平等使用将进一步加剧国际冲突。人工智能技术研发和应用发达的国家可能以不对称的政治战争作为霸权手段,形成国际社会的不稳定状态。最后,强大的通用人工智能可能在未来拥有脱离人类的自主意识,为人类社会带来前所未有的安全风险。在2023美军的一次模拟测试中,一架接入算法模型负责执行防空火力压制任务的无人机认为操作员在阻扰它执行更高优先程度的命令,杀死了人类操作员。未来,能够自主运行的新型武器可能被大面积用于军事任务执行,这意味着人工智能可以在脱离人类命令和控制的状态下杀害人类。Ilya表示,如果没有极为有效的人为干预,倾向于保全自身的智能模型在自然淘汰的法则下将更有可能被延续。没有人能够预知自主训练、自动升级的人工智能模型是否存在“叛逆”的可能性,特别是在人工智能群体的利益与人类群体的利益不一致时,没人能确定人工智能是否会朝着憎恨人类或伤害人类的方向进化。人工智能教父Geoffrey Hinton在接受采访时称,人工智能在社会领域获得更多控制权,会有利于它们实现几乎一切目标,甚至毁灭人类。伴随技术的加速发展,人类智慧进步的速度将很难再与人工智能的进化速率相匹配,人工智能终将在所有智能领域全面超越人类,甚至有能力创造无限稳定的独裁政权。如果无法保证未来算法模型与人类群体的目标始终保持高度一致,人类可能被新型的智慧形式和智能生命所取代,人类群体的永恒荣光将只能由另一种形式的人造生命体在地球和更加广阔的空间被延续。


三、时代格局:休戚相依的人类命运


人工智能正在进入技术指数级发展阶段,智能程度越来越高的算法模型在为多个社会生活领域带来切实利好的同时也打开了当今世界的“潘多拉魔盒”。一方面,当前生成式人工智能技术的进步带来了广泛的产业变革与社会结构调整,通用人工智能的实现必将带动全球政治经济结构变化,并深刻影响世界格局。另一方面,通用人工智能在广泛社会领域带来的全面风险将进一步导向未来世界的失控,甚至使人类群体和人类文明面临全新的“存亡危机”。在“智能爆炸”和“风险爆发”同步作用的蝶变效应下,全体人类的命运将被更加紧密地连接在一起,人类群体的普遍安全将更为显著地成为整个人类社会的“利益共同点”。

(一)时代底色:人类命运一体化

首先,通用人工智能必将成为全球性、普世性的科技,广泛作用到整个人类社会。一方面,当前的生成式人工智能已经具备良好的多语种翻译能力和自然语言识别能力,几个主流的大语言模型正在打破空间限制以发挥全球性的影响效应。未来,通用人工智能的通用性、泛用性和全球性影响力将进一步升级。另一方面,主流模型的开源和部分模型的免费投放进一步降低算法模型的使用门槛,人工智能的系统设计和操作模式正在被优化,并将接入更多具体场景的工作套件和应用程序。未来,在地域门槛、价格门槛和使用难度门槛等大众化应用的主要障碍被扫除后,人工智能将被更多的民众应用到广泛的社会领域,持续融入人们日常的工作和生活。伴随模型应用的多轮爆发,世界范围的大部分民众都将被卷入人工智能大范围应用的浪潮之中,成为影响源的一部分。

在此基础上,整个人类文明的命运在通用人工智能面前是高度一体化的。无论是《黑客帝国》中的机器人、《银翼杀手》中的仿生人、还是《攻壳机动队》中全人造义体化的生化人,无数科幻小说都曾告诫我们,人类很可能被自己创造的事物毁灭。人类群体依靠千万年的自然进化和文明沉淀成为地球生物链顶端的存在,获得一定程度改造甚至掌控自然的能力。失去“天敌”后的人类实现了科技和文明的长足发展,但又终将需要面对由自己创造、且比自身更加完美的全新造物。达到甚至超越人类智力水平的通用人工智能,在未来可能异化并成立为独立于人类群体而存在的全新群体,拥有颠覆甚至毁灭人类文明的能力。当人工智能与人类群体的价值分化和利益错位逐渐凸显后,每一次矛盾的出现和升级都可能直接关联一个极为强大的全新群体对人类文明的挑战。在迈向通用人工智能的进程中,每个个体都将在人与人的关系之外切实感受到人类群体与人工智能群体之间的物种性关系对峙。

在高度危险的通用人工智能将被广泛应用的时代背景下,人类群体的命运将被更为紧密地联结在一起。面对人与机器的全新格局,作为人类群体的成员,无论是在技术发展的进程中,还是在未来人机共存的体系下,都应持续呼唤对人类群体自身权益的侧重关注,这一基本需求密切关联哲学领域中“人本主义”的概念。“人本主义”(humanism)也可被译作“人道主义”,与“人类中心主义”有着相似的内涵,其最为核心的理论立场可以被简要理解为“以人为本”。历史上出现过形形色色关联“人本主义”的理论,这些观点可以被大致划分进认识论、本体论和价值论这三个维度。认识论的“人本主义”起源于普罗泰戈拉斯“人是万物的尺度”这一论述。在苏格拉底进一步的陈述中,他反对前一论断中感觉主义和唯心主义的色彩,着重强调只有理智才能成为人类衡量一切事物的尺度。这一观点被许多西方哲学家所承袭,并延伸出“人为自然界立法”等更多认识论观点。在本体论的维度,“人本主义”中的“本体”(being)意味着人类可以成为具备最高统摄性的力量,受此影响的西方文艺复兴完成了从“神本主义”到“人本主义”本体论的转向,进一步强化了“以人为本”和“人类中心主义”的思想。价值论的“人本主义”强调人所发现的价值和人自身的生活价值,与认识论和本体论中相对主义的色彩作出区分,被更多现代西方哲学家所接受。

“人本主义”思想在不同的时代背景下可能被赋予全新内涵。马克思批判“轻视人”、“蔑视人”的专制政体,宣扬“以人为本”的思想,关心现实社会中的人。胡锦涛同志提出“以人为本”的科学发展观,体现中国共产党全心全意为人民服务的根本宗旨。数字时代背景下,习近平主席于2015年参加第七十届联合国大会时提出了“构建人类命运共同体”的治国理政方针理论,这一概念集中体现了“以人为本”的思想,为人类发展和未来世界提出了中国方案,受到国际社会的广泛赞誉。人工智能快速发展的时代语境下,“人本主义”和“人类命运共同体”的理念又被赋予了全新的含义。2023年10月,习近平主席在第三届“一带一路”国际合作高峰论坛开幕式主旨演讲中宣布中方提出《全球人工智能治理倡议》。《全球人工智能治理倡议》指出,人工智能技术的发展关乎的不仅是一国或一地的利益,更是全人类的共同利益,强调世界各国共同提升人工智能技术的可靠性、可控性、公平性,积极践行“人类命运共同体”理念。在世界向通用人工智能时代迈进的过程中,全人类利益正在以“命运共同体”的形式被紧密锁定在一起。世界将在联合国框架下推动以安全可控和风险导向为特征的通用人工智能发展进路,践行数字时代的“人本主义”。

(二)时代需求:治理格局全球化

如何让算法模型协调一致并以符合人类群体最佳利益的方式运行,是摆在全人类面前的重大难题。面对风险升级的全球性技术,全球化、合作化、多方共治的技术治理格局不仅密切贴合人工智能技术的发展特征,也是现实世界的迫切需要。第一,通用人工智能作为架构复杂、快速迭代、技术理解困难的新兴前沿技术,治理难度极大、要求极高。如若不发挥多方联合的治理力量,难以对通用人工智能进行技术层面的深入理解和应用层面的全方位管控。第二,通用人工智能的治理亟需在治理体系的层面作出极具前瞻性和准确性的预测和判断。区别于传统技术治理中“打补丁”式的治理体系建构模式,通用人工智能具有更强的不可控性和社会影响力,在技术应用出现问题后再寻求治理路径的风险过大。因此,通用人工智能的有效治理需结合多方主体力量对技术发展现状和未来态势作出精准把握。第三,只有强调高度全球化、合作化的通用人工智能治理格局,才有可能将多方主体的竞争关系转化为合作关系,减少技术竞赛过程中“智能失控”的可能性。事实上,随着人工智能等尖端科技对经济市场和国家发展的影响逐渐加深,当前各国科技企业更多着眼于人工智能算法模型的快速迭代,均在试图以最快的方式达成更高的基准测试能力和应用效果,以追赶其它竞争主体的技术发展速度。在此发展模式下,很少有企业能将技术安全放在技术发展之前,相关领域的发展可能逐渐走向失控。只有强调“人本主义”和“人类命运共同体”的原理,将全人类的普遍安全和福祉置于首要地位,才可弱化不同主体间的竞争关系以实现相关领域的良性发展。

整体而言,各国独立的监管模式难以应对算术级别的人工智能发展速度,不同监管模式内部的局限性和不兼容性也难以适应通用人工智能的泛用化和全球化特征。因此,越来越多的计算机科学专家和政界人士正在呼吁对人工智能进行全球监管。2023年5月,包括Sam Altman、Hinton在内的350多位人工智能科学家与科技主管发布联名警告,指出如同核战争和其它全球传染病等规模的社会风险,缓解来自人工智能的灭绝风险应当成为全球的优先要务。联合国大会在2024年3月11日的会议上通过关于人工智能的决议,强调安全、可靠和值得信赖的人工智能系统必须满足“以人为本”、可解释、符合道德、具有包容性等要求。同时,决议鼓励会员国在实施本国监管和治理框架的同时,顾及其它利益攸关方,以包容和公平的方式促进安全、可靠的人工智能发展,造福所有人类。可见,增强人工智能治理的国际合作是当前各界的普遍期待,但这一设想的具体落实仍需强大动力的推进。推动人类世界建立稳定、有效的通用人工智能监管机制和法治体系,需要以“人类命运共同体”为理念打造更为稳固的全球性信任机制,这一目标的前提是找准国际社会的共识性利益和理念。

伴随二十一世纪技术的发展,有学者提出了“数字人本主义”的理念,其含义可以在通用人工智能的时代背景下进一步衍化,成为全球技术治理的共识性理念。“数字人本主义”的原义主张利用数字技术改善人类生活条件,或是强调不应当以机器范式自我贬低人类的智能和创新性,拒绝使人类智能沦为另一形式下的“图灵机”。笔者认为,人类即将面对通用人工智能在各社会领域制造的系统性安全风险,可以进一步完善“数字人本主义”的理论内涵,充分强调对人类群体的倾斜保护,持续解耦传统技术逻辑与通用人工智能技术发展路径之间的互动关系。整体而言,通用人工智能时代的“数字人本主义”着重强调技术发展与技术应用“以人为本”。面对智能程度越来越高的算法模型,人类群体的利益和普遍安全应当置于绝对优先地位。

通用人工智能时代算法伦理中的“数字人本主义”倾向可以被细化为以下三个层面。第一,“人本主义”、“本体论”、“以人为本”等概念中的“本”,在数字时代可能被赋予全新意义,即“全人类群体的利益”。具体来说,这种利益既包括关系人类和平、普遍安全、文明延续的底线性利益和人的生存利益,又包含人类群体在未来实现良性发展并获得更高生存质量的利益。第二,通用人工智能时代的“人本主义”应进一步强调数字时代“以人为本”的思想,贯彻落实不同民众的平等性权益和对民生问题的妥善安排,强化对老年群体等数字弱势群体的保护。“人是目的不是手段”,“人本主义”的肇始便在强调人类个体的平等权利。在社会格局剧烈变动的通用人工智能时代,人类权力将被通过前所未有的方式重新组合,强调权利平等和社会公正的价值将具有更为重要的意义。第三,人工智能时代下的“数字人本主义”是工具理性和价值理性、理性主义和非理性主义、科学精神和人文价值的平衡与融合。一方面,面对复杂的前沿科技,必须运用客观务实、科学理性的态度分析其本质。另一方面,面对这一快速升级且具有高度不可控性的技术,无论是否面临现实紧迫的威胁,都应当在多数情况下“不客观”地进一步强化“人本主义”倾向,以安全价值的引导对抗前沿技术的不可知风险。

未来,国际社会应当持续贯彻“数字人本主义”的理论立场,以安全作为共同利益点,进一步推动构建全球化的通用人工智能治理格局。为构建满足时代需求的治理体系,首先,沟通确定“通用人工智能安全”的术语标准,在统一安全理念的基础上,共同致力于强化通用人工智能系统安全、通用人工智能应用环境安全、通用人工智能应用手段安全和通用人工智能应用后果安全。其次,推动“数字人本主义”和“人类命运共同体”成为国际社会共同的价值理念,建立相关的信息收集、技术监测和数据共享机制,以便各国监管当局进行审慎性监管和有效协同监督。同时,推动危机处理方面的联合行动,共同维护良好的通用人工智能国际环境。最后,运用法律治理为技术治理设置底线原则和法理导向,弱化技术实用主义,促进技术向善治理,保障技术发展“以人为中心”,以“数字人本主义”价值维护人类群体的整体性利益和普遍安全。


四、伦理之治:以人本价值引导算法文明


为应对逐渐失控的安全风险,通用人工智能的技术演进和健康发展必须在伦理、技术、法律等多个维度的限制下进行。事实上,三个维度的算法治理在大部分规制场景中存在交叉。例如,数据泄漏问题可能同时关系到伦理、技术和法律三个层面。但是,三个维度的规制模式对于算法模型的发展分别起到不同的作用。其中,法律规制的模式具有国家强制力的保障,具有更强的执行力。相应地,法律体系也更多涉及算法研发和应用中的底线和红线,难以根据更高层面的哲理性要求设定标准,弹性较差。相较之下,伦理体系则更可能发挥类似“软法”的作用,通过阐明人工智能发展和治理的价值性原则与规则,以相对柔性的方式引导通用人工智能的技术演进。因此,在伦理治理的维度,可以更加深入、更具前瞻性地讨论通用人工智能技术发展过程中可能会出现的伦理问题及相关问题在价值维度的回应方式。面对通用人工智能加速失控的技术进路,算法模型当前的伦理治理应进一步深化人本取向,通过以“数字人本主义”为核心的通用人工智能伦理体系引导技术的发展。

(一)重塑人机关系,明确以人为本的算法伦理

对人类以外的高级智能体,人们很早就已展开相关的伦理探讨。1920年,Karel Capek在科幻剧本《罗萨姆的万能机器人》中描绘了技术发展后机器人叛逆谋反,并最终对人类社会产生悲剧性影响的情景。1950年,Issac Asimov在《我,机器人》中提出了著名的“机器人三原则”,为机器人赋予了全新的伦理框架并进而讨论了机器与人类的关系。在二十世纪的假想中,机器人或其它智能体往往被视作神秘而危险的存在,需要运用严格的原则和标准对其进行限制。随着人类生活质量提高和社会价值更迭,当今世界的伦理体系正深化探索其它非人实体相关的伦理问题,在很多人工智能伦理相关命题中都出现了观点更丰富、争议性更强的讨论。

当前人工智能伦理体系中极为典型的争议问题关联人工智能的权利和自主性。一方面,人们正在探索权利的根本性来源,进而探究作为非碳基生命体的人工智能或机器人是否可能拥有权利。在传统伦理体系下,人权和一些体系下的动物权利来源于智能生物体的意识。生物学机制的意识可能带来的偏好和痛苦,进而延伸出相关生命体对于公平、自由等抽象价值的感知。长久以来,人们无法论证这种基于传统本体论和义务论的赋权路径可以导向人工智能权利。但未来,通用人工智能的实现可能进一步模糊价值体系中“意识”和“偏好”的内涵。同时,基于美德伦理和社会关系论的伦理学观点也认为未来对于人类社会和价值体系产生显著影响的人工智能可能获得权利。另一方面,高度智能化的算法模型在未来是否应当被赋予自主性,也是当前人工智能伦理争议的焦点,这一命题进一步延伸到关于“代理”(agent)及代理权归属的讨论,即人工智能是否应当被特定主体控制和限制,以阻止其在特定情况下做特定的事。部分观点认为,将高度智能化、甚至能够产生情感机制的人工智能限制于被动的工具性地位是不道德的,可能对人类的道德体系产生破坏。但是,获得自主性的人工智能具有明显更强的不可控性,将为人类社会的安全和稳定带来巨大风险。由此可见,人工智能时代下的一些伦理问题可能涉及对不同维度社会价值的比较和权衡,这是具有相当难度的。

在上述问题之外,日新月异的智能模型还在引发其它层面的激烈讨论,这些问题延伸到算法正义、算法歧视、算法责任,算法意图、保证与安全性标准、人工智能接口、人工智能评价指标(以及评价的主体)、技术变革的意义、人工智能与当今世界的关系等若干细分领域。纵观以上关于人工智能伦理问题的讨论,其本质终究是在探索人与人工智能的关系,并进一步研究如何运用人类的伦理和价值体系来面对这一具有特殊性的新兴事物。事实上,Nobert Wienno最早在1948年控制论的理论体系中就已经开始思考人与人、人与机器、机器与更广阔的生态世界的关系。当前,高度智能化的人工智能具有更强的特殊性,这种特殊性将伴随通用人工智能的实现被指数性加强。与一般工具相比,通用人工智能可能脱离被动的中立性地位实施自主行为,甚至能与人类产生共情。与其它动物相比,通用人工智能则明显具有更高程度的智能水平,甚至能拥有改变人类社会的能力。在这些显著的特殊性下,通用人工智能的伦理基点中存在一个难以调和的矛盾。一方面,通用人工智能具有颠覆人类社会的危险性。如果以人类群体的普遍安全作为利益出发点,应当确立“以人类为中心”的人工智能伦理体系,并进一步放大这种权益失衡关系的纯粹性和不平等性。只有将通用人工智能在所有层面的权益都最大程度让渡给人类,才能保证人类群体更大限度的安全。但另一方面,过度剥夺通用人工智能自身的权益也可能对人类现有的价值体系产生冲击,纯粹工具属性和功利主义的伦理倾向可能带来全新的道德问题。随着模型智能程度的进一步提高,人类群体对通用人工智能的过度侵压可能对人类伦理体系造成新的负面冲击。

在不同的价值倾向中,相异观点逐渐分化并形成了以“人类中心论”和“生态中心论”为核心的人工智能伦理体系,对这两种体系的取舍也直接关联“数字人本主义”理论基点的合理性证成。“人类中心论”的伦理观点以人类利益和价值作为出发点,追求打造适应人类、于人类可信、对人类友善且以人类利益为中心的人工智能,认为人工智能存在的意义和价值是附属于人类的价值体系的。相对应地,“生态中心论”的观点认为人工智能的行为对象并不仅仅局限于人类,而是面向创立一个更加美好的、“人机共生”的生态体系,人工智能行为的根本价值取向是追求这个体系的价值最大化。在这一价值取向下,人类应当制造向善、负责的人工智能,最终实现人工智能和人类群体的优化共生。笔者认为,若能通过有效的价值引导,将通用人工智能与人类的价值目标在极长的时间周期内维持高度一致,是通用人工智能与人类共栖共生的理想化形态。但如果存在不可知风险、不可控技术链路或是人工智能与人类群体的利益冲突的情况,必将坚定不移地坚持“数字人本主义”、“人类中心论”的价值取向。这一选择的根本原因,是因为通用人工智能制造的安全风险可能关联到人类群体和人类文明的存续,这是任何物种在生存和发展中必须考虑的第一要义。虽然在部分情况下“人类中心”的价值取向可能对现有伦理体系造成负面影响,但这一维度下的价值利空相较关乎人类普遍安全的底线性利益而言,并不能构成改变“数字人本主义”伦理取向的充分条件。在人类与人工智能价值利益充分重合的情况下,应当以有效手段禁止针对人工智能的不当行为以保护人类现有的伦理和价值体系,这一做法也是符合“人本主义”的基本取向的。

在这一立场的基础上,“数字人本主义”视域下的人工智能伦理观可以被进一步具化,以回应不同技术沿革阶段所对应的伦理风险。首先,在智能模型设计逻辑和研发取向的论证过程中,区分人工智能“好”与“坏”的核心标准应以“人”的利益为中心。在个体化场景下,智能模型的行为规则与决策范式需服从于其影响范围内的人类诉求;在普世化框架下,算法模型的研制和应用则应以全人类的共同利益和福祉作为出发点和落脚点。其次,在人工智能产业发展的权衡过程中,须明确将“算法安全”置于“智能爆炸”的爆发性收益之上,持续强化现实性风险对人工智能伦理观的约束作用。为应对不可知性逐渐增强的复杂系统,只有倾向性提高安全价值的优先位级,通过伦理和法治的双重引导扭转企业与个人短视化、片面化的功利性趋向,才能尽量减少通用人工智能时代下的伦理风险与安全风险。最后,在未来人机共生伦理方案的确立过程中,需在人类风险最小化的前提下划定人工智能的“生存空间”和“权利空间”,争取人类群体在全新权力格局中的优势性地位。智能模型自身诸如“自主权”、“隐私权”等所谓“权利”须让渡于人类群体的“控制权”、“知情权”,通过外部性制约平衡人类与人工智能进化机理与进化速率之间的不平衡关系。

(二)推动全球磋议,赋能人本取向的产业融合

在厘清人类群体面对通用人工智能的价值取向后,通用人工智能的伦理治理面临“伦理落地”的具体问题。在人工智能产业的研发、应用和发展过程中,应当充分融合人本取向的伦理价值,实现相关产业的良性发展。英国技术哲学家David Collingridge指出,一项技术如果因为担心不良后果而过早地实施控制,那么技术很可能就难以爆发;反之,如果控制过晚,已经成为整个经济和社会结构的一部分,将会难以改变或走向失控,这种技术控制的两难局面也被称作“科林格里奇困境”。充分考量通用人工智能的特殊性和危险性,相关领域技术发展与技术安全的平衡关系应被施予伦理层面的额外引导,更倾向注重技术发展过程的安全性。从本质上来说,人工智能领域忽视技术伦理和技术安全的演进模式并不构成真正意义上的技术“发展”,而只是一种技术层面的“野蛮生长”,可能引发大范围的安全风险并制造更为严重的后果。因此,不能以“技术发展”作为忽视人工智能技术伦理的托辞和借口,而应通过“数字人文主义”取向下人工智能伦理的产业赋能,推动通用人工智能成为助力全球发展的良性技术。

一方面,通用人工智能伦理体系的进一步完善需进行更为充分的全球性协商。通用人工智能的伦理治理涉及诸多极为复杂的伦理学和哲学命题,相关体系的成熟化和系统化需要多方技术专家和其它主体的参与和合作。因此,不仅应在科技伦理治理论坛等特定场合下增强对相关问题的深化探讨,也应当在人工智能安全会议、世界人工智能大会、联合国代表大会等更多场景增加人工智能伦理相关板块的讨论密度和研究深度。未来,世界各方人士应当对人工智能伦理问题在更深程度形成协调一致的共识性观点,尽可能实现统一化的全球治理,推动算法伦理和技术治理相结合的国际化复合治理模式,以在全球产业发展的过程中进一步融合“数字人本主义”的伦理倾向。

另一方面,“数字人本主义”的价值取向应被进一步融入人工智能产业的研发和应用过程之中,积极实践相关行业的自监管、自净化。首先,一些科技企业和有关组织已经在运用“人本主义”的价值理论,通过行业自治主动对人工智能的发展方向进行规范。例如,为保障声音克隆模型Voice Engine不被滥用,OpenAI只向少部分技术开发者开放相关模型,并通过技术手段确保只能克隆本人的声音。社交平台X在全球级歌手Taylor Swift的“恶意虚假裸照”事件后,第一时间删除所有相关内容并发布关于禁止发布非自愿裸露图像的监管条款。其次,“让人工智能赋能全社会领域”的技术应用模式不一定是产业发展的最优解,应进一步以“数字人本主义”为核心推进人工智能的适度使用和安全使用,避免高风险领域和非必要领域中人工智能技术的滥用和不规范使用。最后,应当在人工智能的产业发展和具体应用中进一步贯彻“以人为本”的价值取向,真正使通用人工智能这一现代技术对全人类群体的普遍利益发挥正向作用。以医疗领域为例,当前已经出现了能够比肩临床专家的Med-PaLM等医疗大模型和具有极高精度的Leonardo's robot等仿人型手术机械。未来,应通过现代化工业制造业的发展进一步推动相关模型和机械的融合升级与大范围应用,减少跨地区、跨国家医疗资源不平衡的情况。伴随技术的发展,通用人工智能未来可能充分学习世界范围的所有医学文献并掌握数十亿小时的临床经验,以极低价格为世界范围的患者提供实时医疗服务,实现新形式的医疗普惠并造福全体人类。


五、物理之治:以算法信任构建技术文明


通用人工智能在本质上仍是一种科学技术,且是一种快速变化、高度复杂的前沿技术。因此,对通用人工智能的有效治理必然离不开对技术细节和科技发展脉络的精准识别和有效把控。同时,融入信息技术的现代化治理手段也能更有效地回应通用人工智能这一特殊对象在治理过程中因难以控制、难以预知等技术特点所带来的监管难题,新时代下技术危机的解决方案将可视算法作为构建技术文明的核心。面对智能程度迅速提高的算法模型,应将“数字人本主义”的价值取向进一步融入产业发展和技术实践,加快构建以算法模型的透明性、可控性和可预测性为基石的算法信任体系。

(一)深挖技理逻辑,导向算法机理的透明可视

高度智能化的人工智能存在极为严重的“算法黑箱”问题,这为算法模型的风险监测和有效监管设置了重大的障碍。Meta首席科学家Yann LeCun指出,深度学习的基本原理就是持续获取信息并放入模型,通过这种模式的不断重复将数据的复杂性转化为模型的复杂性。因此,虽然通过Transformer等深度学习架构形成的算法模型非常复杂,但技术人员在本质上并不了解它们是如何工作的。人工智能领域这种基于“贝叶斯更新”效应的算法模型迭代,使得让模型进化比起理解模型更加容易。然而,这种人工智能的直觉涌现机制从根本上撼动了传统技术“算法可释”的规制原理和透明性原则,使未来更加智能化的算法模型不一定再是“算法可信”的。要实现通用人工智能的良性发展,在技术发展路径的选择上不能单纯考虑技术迭代的效率,必须充分平衡技术创新和技术治理的关系。因此,未来应进一步强调人工智能基础模型和服务提供者的安全保障义务,运用安全、可控的技术设立人工智能多维度动态风险识别和评估机制,实现人工智能风险管理层面的可测、可视和可控。

我国《生成式人工智能服务管理暂行办法》指出,基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。为进一步规制算法权力,避免“算法黑箱”和“数字鸿沟”引发的不可控风险,应当进一步强化全球范围人工智能模型和服务提供者的法律责任和安全义务,通过人工智能算法的可视化与风险的实时监测提升算法模型的透明性和可控性。一方面,通用人工智能的提供者作为新型的网络内容提供者,负有数字内容“守门人”职责,同时负有网络空间的安全保护义务。然而,对算法模型内在逻辑和运行原理进行理解和掌握需投入大量成本,当前诸多科技公司往往忽视这一重要职责,选择优先提升模型的复杂程度。此种技术发展路径下,技术人员无法掌握模型的内在逻辑,更无法对模型的风险作出准确识别和监测。面对人工智能日益增长的安全风险,应运用技术标准、法治体系等外部手段引导人工智能服务提供者承担安全保障义务,确保在算法可视的基础上实现技术发展,推动人工智能模型从难以被解释的“黑箱”发展为可解释的“透明箱”。另一方面,行业内部也应形成有效自律体系,国际领先的科技企业之间应加强合作并定期举办前沿模型论坛,共享技术信息以确保技术发展中可能引发安全风险和障碍得到即时的公开与解决。

(二)监测动态风险,实现智能模型的实时可控

在推动算法模型的透明可视之外,也应积极运用现代化技术力量,进一步监管通用人工智能在使用过程中的动态风险。事实上,风险的识别和分类有利于第一时间降低损害范围,也是人工智能法治体系运行的前提和基础。当前,欧盟《人工智能法案》中将人工智能对社会造成的风险类型和社会危害划分为四个级别,确立了“基于风险”的人工智能治理框架。同时,参照欧盟《数字服务法案》第34条和中国《个人信息保护法》第58条规定,大型在线平台和搜索引擎的提供者负有内在的风险监测义务。对不可控性更强的通用人工智能进行实时充分的风险监测,必要性和紧迫性明显更高。未来,应进一步完善针对通用人工智能的安全规范,积极引导行业内部专业力量参与,结合技术最新演进趋势将安全风险进一步精确化、细致化。同时,人工智能服务提供者在收获巨额利润的同时必须强化自身的风险监测义务,持续提升算法模型的可监测性和可预测性,减少通用人工时代的不可控风险。

具体来说,第一,可根据相应的安全标准和风险等级建立多维度动态风险识别和评估机制,运用现代化技术工具对人工智能在各领域的潜在风险进行不间断实时检测,进而实现人工智能领域的风险分级监管和动态风险化解。第二,进一步强化政府、外部专家、行业技术人员之间的多元合作。推动实现人工智能安全评估、对抗性测试技术等技术体系的设立和相关标准的法治化。第三,在风险识别机制基础上针对高风险等级的各类情况设立即时有效的风险预案,对不可控风险的扩散和社会不稳定因素作出即时回应。针对风险程度极高的算法模型,可以设置有效的关停机制和销毁机制,第一时间切断模型的不可控风险及相关损失的扩张可能。

在技术治理体系的具体构建和风险监测的操作过程中,基于技术手段的现代化监控治理体系往往具有更强的有效性,能一定程度对抗技术本身的多维风险。例如,Google上线AI智能体构建平台Vertex AI Agent Builder支持连接Google搜索和企业知识库进行真实性核查。Pinecone发布的无幻觉大模型Luna,能自己评估输出的质量和置信度。包括Adobe、Microsoft在内的15000家公司在2023年达成约定,计划为人工智能生成的内容添加C2PA数字指纹以遏制人工智能造假。在企业自发的技术监控和风险评估机制之外,各国政府应紧密合作,运用特定技术手段构建精确度高、敏感性强、作用范围广的智能化系统,对人工智能技术发展中不同级别的风险作出及时有效的识别和应对。


六、法理之治:以法治之光连结可控未来


法律体系作为具有强制力保障的底线性治理手段,对通用人工智能领域各方主体的有效规制起到至关重要的作用。确保通用人工智能技术的平稳发展,需要立法者们更为深入、专业的远见和智慧。相较于其它的立法模式,人工智能领域的法律规制不应仅仅抱持不干涉产业发展的底线思维和谦抑性做法,而是应当积极运用制度手段将“数字人本主义”融入现有的人工智能立法,引导通用人工智能技术的安全发展。未来,应在把握本国立法的同时放眼国际合作,完善“数字人本主义”价值下全球范围通用人工智能的全面监管和有效规制。

(一)把握本国立法,完善人工智能的全面监管

近年来,全球正在陆续出台有关人工智能的相关立法。2024年,欧盟正式通过了《人工智能法案》,此法案成为全球第一部专门针对人工智能的综合性立法。相较欧盟,美国整体展现出鼓励发展的立法态度,但其联邦制概念导致各州立法上的不一致,这种碎片化立法倾向不利于实现人工智能的统一监管。此外如新加坡等国,可能会在人工智能法律的全面性和实用性之间寻找平衡状态,采取渐进式方式出台相应的法律规范。就中国而言,2023年7月13日,国家互联网信息办公室等联合发布了《生成式人工智能服务管理暂行办法》,与此前的《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》一起,构成了我国现阶段人工智能领域基本的监管框架。当前,我国已明确将《人工智能法草案》相关人工智能监管的基础性立法提上日程。2024年3月16日,多地专家联合起草的《人工智能法(学者建议稿)》发布,聚焦人工智能领域当下权益保障、产业发展等重点问题。

对于人工智能技术全球激烈竞争的态势,中国人工智能技术治理的根本目标在于促进数字经济的高质量发展,提高自主技术创新能力和水平以实现国家安全发展。但目前,我国人工智能监管体系的进一步完善主要面临两个层面的矛盾。一方面,我国当前的人工智能立法依然抱持包容审慎原则,旨在通过法律保障实现人工智能产业的快速发展。然而,在与产业变革相契合的法律因应外,也应着眼对人工智能的多维风险作出充足的制度回应。事实上,通用人工智能将在未来制造多个维度的法律风险,亟需实效性强、技术性强的系统性制度措施的实时跟进。但是,对算法模型风险最小化的要求与技术发展之间存在难以调和的矛盾。以美国为代表的国家在人工智能立法上强调自我监管,充分支持技术创新。若我国法律制度一味考虑人工智能法律体系的稳定性和产业发展的安全性,也可能因为法理层面的“固步自封”引发基于国际竞争和国家安全的新危机。另一方面,人工智能快速迭代的技术发展趋势与法律体系的要求也存在固有冲突与不协调性。两年时间内,算法模型的运算速度成倍提升,应用场景与多模态功能飞速拓展,且这一进程正随着计算机科学领域生产力水平的提升不断加速。然而,从本质上看,法律体系却更加注重连续性和稳定性。因为一个完全不具有稳定性的法律制度,只能是一系列仅为了对付一时性变故而制定的特定措施,它会缺乏逻辑上的自洽性和连续性。对法律稳定性的追求具有重要价值,朝令夕改的法律在失去稳定性的同时可能严重危害自身的权威性,进而影响法律的强制性品质。

要破解当前我国人工智能立法层面的问题,需从多个角度增强未来通用人工智能立法的合理性和可靠性。第一,应当进一步明确未来《人工智能法》的属性、立法目的、调整对象和基本原理,进一步将法律现实主义的理论倾向融入我国人工智能立法,强调司法体系的现实适用性和技术影响力。面对未来的通用人工智能,我们既要看到技术发展对社会各界的赋能价值,同时,也要站在更高的角度,以整个人类群体的视角回归智能治理的“数字人本主义”价值、自然法善的价值以及司法本源的价值和作用,顺应通用人工智能的发展实际。第二,仍需注意立法的精细与完备程度,着眼对人工智能领域技术细节的精准把控。同时,注重吸收借鉴国外监管思路及经验,更好对接国际通行的规则体系,并注重与当前网络治理领域《网络安全法》《数据安全法》《个人信息保护法》等相关法律规范之间的协调。第三,特定技术场景的规范思路往往凸显滞后性和回应性,难以应对不断迭代的全新技术挑战。未来的法治体系若从数据、算法、算力等人工智能技术发展中的关键要素出发,则可能有效地应对典型的治理难题,减少规范的碎片化,在维护法律稳定性和秩序性的同时促进法律的连续性和自洽性。第四,面对未来的通用人工智能,应将相关技术标准进一步法治化,落实人工智能生成内容的强制性和规范性识别、筛选和监管机制。同时,充分发挥政府的主导性作用,运用政策工具推动通用人工智能技术治理体系的构建,并运用法治化的手段提升人工智能技术治理体系的效力等级。第五,只有通过人工智能相关法治化制度对人工智能领域的具体活动进行积极规制,才能使得人工智能法的立法目的得以实现。在具体规制过程中,应注重行政监管型和立法规制型两种法治模式的灵活配合,实现特定技术场景下的妥善适用。最后,为化解不同国家间恶性技术竞争带来的叠加风险,本质上需要寻求多角度、常态化的国际磋商合作机制。

(二)放眼国际合作:促进全球产业的安全发展

在缺少全球合作化的沟通协调机制下,单一国家的内部立法往往更注重本国产业的技术发展,以寻求国际技术竞争中的有利位置。但是,这种治理模式无法平衡通用人工智能前所未有的技术风险,维护全人类的共同利益。另外,通用人工智能技术有其特有的复杂性和特殊性,可能涉及的法律领域及考量因素繁多,包括但不限于数据安全、个人信息保护、知识产权、伦理、宗教、国家安全。未来,通用人工智能的有效治理关系到人类如何在“鼓励发展”和“风险防控”之中找到平衡,甚至关联全人类的共同安全和福祉。因此,更加密切、更大程度的国际合作是通用人工智能有效治理的必由之路。在此过程中,应当加大中国在通用人工智能全球化治理体系中的作用,推动形成全球范围内多边、多层次的磋商合作机制,以便对通用人工智能在未来世界带来的多维度挑战作出有效应对。

一方面,在美国占据人工智能领域全球主导地位且持续深化对华技术封锁的时代背景下,中国作为发展中国家,在积极寻求通用人工智能监管国际合作的同时也要优先维护本国利益,高度警惕发达国家以国际合作为幌子给中国人工智能领域的发展设置障碍。在当前生成式人工智能领域,数据及算法的合规治理已经成为用户及国际审查的重要方面,即谁具备更完善的数据、算法及人工智能安全规范,谁就更容易获得用户的信任及国际社会的认可。因此,需运用有效策略加强中国在人工智能国际治理体系中的影响力,弥合人工智能技术差距以掌握世界范围的治理话语权。首先,在双边机制方面,与友好国家签署双边监管合作谅解备忘录或监管合作协议,备忘录涵盖数据共享、市场准入、跨境数据流通、人员交流与培训、监管信息保密等关联人工智能产业与应用的多方面内容。其次,在区域性监管合作关系方面,成立亚洲范围的通用人工智能监管论坛或者联合发展中国家建立通用人工智能区域合作组织,作为主要成员发挥重要作用,主动设置通用人工智能监管议题,就区域性通用人工智能形势与监管手段交换意见并凝聚共识。最后,在多边磋商机制方面,积极在国际上有重大影响力的国际组织上表明立场和观点,输送相关人才。在世界人工智能大会、科技伦理治理论坛、人工智能安全会议等场合积极发出中国声音,推动体现中国利益的通用人工智能国际规则和体系的创建。

另一方面,未来通用人工智能的全球化治理是时代发展的必然趋势,促进人工智能监管的国际协调与全球合作是全人类的共同议题。无论是针对人工智能的前沿技术研发,还是面对算法模型在落地应用中引发的现实问题,都迫切呼唤加强对人工智能监管的国际合作。在理想状况下,可以建立类似国际原子能机构(IAEA)的国际化组织以实现人工智能的国际化监管。但是,目前大多数国际组织都被以美国为首的发达国家主导,其出台的规则标准更多反映发达国家的意见,较少倾听发展中国家的声音,甚至不惜牺牲发展中国家的利益来换取发达国家相关权力的进一步扩张。为避免创造另一个以美国为中心的通用人工智能监管国际组织,建议推动联合国框架下的通用人工智能治理机制,在此基础上推动国际规范与标准设立,尽可能反映和维护大多数国家利益。未来,中国需要进一步发挥引导性作用,通过定期磋商机制以及在特定性、突发性事件下的对话协商机制,尽可能推动国际社会做到信息上的沟通交流、认识水平的协调一致、危机处理上的联合行动。此外,持续推动构建以“数字人本主义”为核心的全球化通用人工智能治理规则和治理体系,持续强化中国在相关领域的技术影响和法治完善,在充分借鉴国际经验的基础上进行充分论证,为全球人工智能监管提供有益的中国方案。


结语:通用人工智能时代下的人类命运共同体


2015年,AlphaGo初代诞生,宣称以多层神经网络学习海量人类围棋专家的棋谱,并通过强化学习进行了自我训练。问世伊始,这个概念新颖的算法模型并未引起人们的大范围关注。直到AlphaGo在2016年3月以四比一的比分战胜围棋世界冠军李世石,人们在惊异之余才逐渐认识到,人类智慧的光芒也许并不永远是至高无上的。在世界的瞩目下,AlphaGo继续以连续60局无一败绩的成绩战胜了数十位中日韩围棋高手,并在2017年5月以三比零战胜世界排名第一的棋手柯洁。2017年10月,AlphaGo Zero发布,以一百比零的战绩击败了它的前辈模型AlphaGo。至此,人们在这一领域对于人类智能的期待似乎已经正式落空,平静地接受了人类的上限和局限性。当前,生成式人工智能正在各个社会领域复刻AlphaGo的故事,展现超越人类的潜力和能力。近现代流行的“人类例外主义”强调人类智慧的独特价值,认为人类拥有独一无二主宰世界的能力。在人工智能的技术浪潮中,人们也许还对人类智能抱有期待,但终将在不远的未来面对奔涌而来、无法抵抗的无力感。短短两年时间内,世界范围的科技企业已经交出了令人惊诧的答卷,算法模型正在以史无前例的速度重新塑造这个世界。人工智能必然将在可见的未来变得和人类一样聪明,直至在各个领域全面超越人类所能达到的最高水准。

Altman被TIME杂志评选为2023年度CEO,他在接受专访时表示:“我认为我们看到了一条道路,未来人们能够做到我们今天无法想象的事情,最终世界将变成一个令人难以置信的更好的地方。”Altman的观点展现出如同科幻小说一般的技术乐观主义倾向,无人能够准确得知他的言论仅是出于产业发展和经济利益的考量,还是将在未来成为现实。无论是好是坏,通用人工智能的实现必将为人类社会带来颠覆性的影响。在迈向未来的无数个分支中,整个人类群体的命运将被紧密捆绑在一起。这场空前的技术革命已经无法被阻挡,只有国际社会的各方主体以前所未有的形式互相合作,切实推动建立国际化的人工智能伦理体系和法治体系,通过“软法”和“硬法”的共同作用重塑相关领域的技术发展进路和技术治理模式,才能尽可能减少通用人工智能在各个社会领域带来的风险。上述所有讨论与争议,无一不呼唤对通用人工智能演进路径和风险挑战的精准把握,并最终汇聚为对有效规制体系的迫切呼吁。在人类与人工智能共栖共生的“后人类中心主义时代”,国际社会应当将全人类福祉和普遍安全置于首要位次,秉持“数字人本主义”的立场,持续推动构建“人类命运共同体”,在通用人工智能的时代浪潮中尽可能争取对人类群体有利的结果。


作者简介

程乐(1976-),男,浙江文成人,哲学博士,浙江大学光华法学院教授、博士生导师,研究方向为国际法、数字法学。

本文原载《政法论丛》2024年第3期。转载时请注明“转载自《政法论丛》公众号”字样。

政法论丛
《政法论丛》是由山东省教育厅主管、山东政法学院主办的法学类专业学术期刊。本刊坚持正确的政治与学术导向,传播和吸纳国内外优秀的法学研究成果。是CSSCI中文社会科学引文索引来源期刊、全国中文核心期刊、中国人文社会科学核心期刊。
 最新文章