在人工智能技术的迅猛发展背景下,其对社会和政治的影响日益显著。全球科技巨头如亚马逊、苹果、DeepMind等已建立合作伙伴关系,致力于探索人工智能的最佳实践、推动研究并促进公共对话。然而,依赖私营企业和非政府实体来监管人工智能存在潜在风险。欧盟正积极制定严格的道德标准,旨在为人工智能立法奠定基础,强调以人为本的设计、符合伦理要求,并以信任作为社会和法律上可接受的人工智能的核心条件。本文将对这些关键议题进行深入讨论。
一、以人为本的人工智能
以人为本是人工智能伦理的出发点。以人为本的人工智能可以定义为在任何关于人工智能及其发展和使用的考虑中,都将人类置于中心地位。以人为本和以科技为中心在本质上似乎相左,后者把系统放在设计过程的首位,在最后阶段才考虑人工操作员或用户。在这种方法中,人类的角色相对被动,只能跟随操作技术设备。以人为本的方法则呈现出不同的选择,它把人类个体及其需求和偏好放在设计、营销和商业战略的中心,旨在使用参与式或共情式的机制来设计思维过程,从而提高用户体验和满意度。从这个意义上说,人工智能技术的目的在于更好的为人类服务,创造出更大的价值。以人为本不仅需要体现在通过新技术满足人类需求,更是保障个人权利、增进人类福祉的理念。因此,它应该发挥保护作用,防止科技行业为了实现利润最大化而侵犯个人隐私、权力和尊严,甚至威胁人类生命等基本权利和价值观。
以人为本不仅意味着关注个人,还意味着关注整个社会的福祉和人类生活的环境。以人为本的人工智能与基本权利密切相关,需要采取强调人类自由和个人尊严是有意义的社会法规的整体性方法,而不只是关注单纯的个人中心描述。因此,当劳动力市场因人工智能系统的普及而受到影响并发生变化时,应充分考虑以人为本的重要性。
从监管角度看,以人为本的实现形式多种多样。绝大多数情况下,需要在早期设计阶段就采取措施遵循“设计中的伦理”样板,尊重基本道德价值观和权利。这个方法的难点在于,以人为本的实现依赖于算法开发实体,而他们的权利受商业秘密法规或知识产权法规的保护。即使道德准则或约束性法律对人工智能算法的正确开发和使用有规范作用,对透明度和可解释性的要求也仍然使得如何确保法律和监管机制的适用性成为真正的挑战。以人为本还包括采取非常严格的措施,限制甚至禁止危险技术在某些敏感行业的开发和部署。其中一个例子就是对自主武器系统生产和使用的管制,自主武器系统是能够在无人干预的情况下,选择并攻击目标的武器系统。
以人为本的人工智能的监管方法包括采取政策、立法和对部署人工智能技术的投资激励等,这些均对人类有益。这种监管方法可以提高那些把人类置于风险中的危险任务和工作的自动化程度。负责任地开发人工智能技术可以提高安全标准,减少人类因工受伤、接触有害物质或危险环境的机会。
在涉及以人为本的法律与道德问题中,有一条非常重要,这就是人工智能的法律人格权。从理论上讲,赋予人工智能自主法律地位需要考虑多方面的因素,可以借鉴儿童的特殊法律地位,其部分权利和义务由成年人代为行使,或借鉴公司法中关于公司法人资格的规定,使得公司能够拥有资产、签订合同并承担起相应的法律责任。从这个意义上说,我们可以接受根据人工智能的义务而非权利来构建其法律人格的概念。对人工智能法律人格权的考虑除了上述提及的责任鸿沟外,还应把人工智能创意作品的普及、创新程度的提升和经济增长等相关方面纳入考虑。将“有限责任”的概念转移到基于人工智能的系统中,并授予其有限的法律人格,这种方式可能会在人工智能工程师、设计师和作品之间建起一道防火墙。尽管逻辑上是有限责任,但是我们应该记住“揭开公司面纱”的原则。这一原则也可能运用在“数字人”身上,这意味着在某些情况下,索赔可能不直接针对“数字人”,而是追溯到其背后的个体或法人。
二、符合伦理设计的人工智能
符合伦理是欧洲人工智能开发的一个关键概念,要求从设计之初,就贯彻执行用道德和法律规则塑造可信赖算法的理念。“通过设计保护......”的概念并不新颖,这是保护隐私和数据保护领域的通用规则。《通用数据保护条例》(General Data Protection Regulation)中提出,数据保护系统的关键组成部分之一是通过设计保护隐私。这是一种积极主动的预防性方式,提倡在设计和选择数据处理方式时就采用合适的程序和数据保护标准,并在数据处理的全过程贯彻落实,确保全周期的数据保护。把这种方式运用在与人工智能相关的技术上,就意味着开发人员、设计师和工程师要在确保符合立法或监管机构制定的道德和法律标准上承担主要责任。
与通过设计保护隐私原则类似,道德标准应该蕴含在设计中,且成为设计过程的默认设置。就人工智能技术而言,通过设计保护伦理任务非常繁重且难以实现。这与设计方法和设计算法紧密相关,为了让自主智能体能够在社会环境中做出符合以人为本、道德和法律标准的抉择,我们需要为其算法提供相应的解决方案,或者赋予其具有身体感知的能力。要在人工智能设计上真正执行设计中的伦理原则,需要研究员、开发人员和企业转变思想,不再单纯追求更高的性能表现,而是追求对开发技术的信任度。
从监管角度看,欧洲强调对符合伦理设计的人工智能的监管方法,需要建立在关于基本权利、消费者保护、产品安全和责任原则上,或者建立在无约束力的可信赖人工智能准则之上。因此,如果没有连贯牢固且有约束力的法律框架,强加在人工智能开发人员和部署人员身上的设计中的伦理规则在执行时可能会遇到很多困难。应探索通过合作颁布法律形成约束力,制定通用道德标准,制定确保合规性的机制,共同保证设计中的伦理原则的成功应用。
三、将信任作为社会和法律上可接受
的人工智能
信任是确保人工智能以人为本的先决条件。人们普遍相信,只有坚持公平、问责、透明和监管才能实现对人工智能的信任。由于信任是确保人工智能以人为本的先决条件,所以人工智能监管环境最重要的前提是相信人工智能发展的目标不应该是人工智能本身,而是成为服务于人类的工具,最终目的是增进人类福祉。人们相信,可以通过围绕人工智能建立相应的法律、伦理和基于价值的环境来实现信任,确保人工智能以值得信赖的方式设计、开发、部署和使用。
显然,建立信任是一个长期且极为困难的过程。运用机器学习和推理机制的人工智能技术可以不受人类干扰地做出决定,这引发了一系列信任问题。这类人工智能应用将很快成为智能手机、自动驾驶汽车、机器人和网络应用等商品和服务的标准配置。然而,算法做出的决策可能来自不完整的数据,因此不太可靠。网络攻击者可以操纵算法,而算法本身也可能存在偏误。因此,如果在开发过程中不加反思地运用新技术,将会带来一些问题,从而导致用户不愿接受或使用新技术。因为这些问题的存在,关于伦理和监管的思考将涉及透明度、可解释性、使用上的偏颇、数据不完整或被操纵等问题,这将成为人工智能发展的驱动力。
在欧洲,可信赖人工智能旨在促进人工智能创新得以持续发展,这将保证人工智能系统从设计、开发到应用的各个环节都具有合法性、道德性和稳健性。根据欧洲的实践,人工智能应该值得个人和集体的信任。确保人工智能系统的设计、开发和应用都是合法、符合伦理要求和稳健的,是保证有序竞争的关键。欧盟的指导方针旨在促进负责任的人工智能的创新,寻求使伦理成为人工智能开发方法的核心支柱。在欧盟层面,伦理准则区分了负责任的人工智能的四项原则,即尊重人类自主权、预防伤害、公平和可解释性。这些是源自基本权利的典型道德准则,为了保证人工智能系统值得信赖,必须考虑并遵守基本权利。人工智能系统为个人和社会带来巨大利益的同时,也会带来一定的风险,还可能会产生难以预测、识别或衡量的负面影响。因此,充分且成比例的、程序性的以及技术性的措施,应该成为减轻上述风险的先决条件。
要想确保对人工智能技术的可信赖度,仅寄希望于通过建立最全面的法律、道德和技术框架是不够的。只有在利益攸关方正确实施、接受并内化了上述全面框架时,才能够真正实现可信赖人工智能。可信赖人工智能的主要条件,即合法性、道德性和稳健性,这三个条件可以适用于人工智能以及人工智能系统的全生命周期。参与可信赖人工智能实施的利益攸关方包括:开发人员(包括研究员和设计师)、部署者(使用人工智能技术进行运营,并向公众提供产品和服务的公共和私营机构)、终端用户(直接或间接与人工智能系统互动的个人)以及整个社会,包括所有直接或间接受到人工智能系统影响的人。每个群体都有各自的责任,部分群体还拥有权利。在最初阶段,开发人员应该在设计和开发过程中遵守相关要求。开发人员是利益攸关方链条中的关键一环,负责执行设计中的伦理模式。部署者需要确保他们使用的人工智能系统、提供的产品和服务符合相关要求。最后,终端用户和整个社会应该行使自身权利,获得相关要求的知情权,并期望相关方遵守这些要求。其中,最重要的要求包括:人的能动性和监督、技术稳健性和安全性、隐私与数据治理、透明度、多元化、非歧视性和公平性、社会福祉、环境福祉和问责制。
四、评估可信赖的人工智能
可信度评估尤其适用于直接与用户交互的人工智能系统,主要由开发人员和部署人员开展。对合法性的评估是法律合规审查的一部分,人工智能系统可信度的其他要素需要在特定的运行环境中进行评估。对这些要素的评估,应通过包含运行和管理水平的治理架构来实施。评估和治理是一个定性和定量的双重过程。定性过程旨在保证代表性,由来自各个行业、规模各异的实体提供深入的反馈意见,评估的定量过程意味着所有利益攸关方都能通过公开的商讨提供反馈意见。然后,相关结果将被整合到评估清单中,目标是实现可以横跨所有应用程序的框架,由此确保可信赖人工智能能够应用于各个领域。
我们可以通过各种结构对评估过程进行管理。具体可以通过把评估过程融入现有治理机制,或采取新的过程来实现。应该始终根据实体的内部结构、规模和资源,选择相匹配的方式。另外,还应该采取更多措施,在行业内部或行业之间,在监管方、意见领袖和其他相关群体之间,构建高效的沟通渠道,鼓励相互分享最佳实践、相关知识、经验和已验证的模型,讨论困境或报告新出现的道德问题作为法律监督和监管审查的补充措施。
遗憾的是对于如何保证可信赖人工智能,还没有为利益攸关方提供普遍被接受的准则。同样地,在如何保证发展道德且稳健的人工智能也没有相关指引。虽然许多法律已经满足了其中部分要求,但是这些法律的适用范围和效力依然存在不确定性。同时,在开发和使用能确保人工智能系统可信度的评估措施上也缺乏统一标准。
免责声明:本文转自元战略。文章内容系原作者个人观点,本公众号编译/转载仅为分享、传达不同观点,如有任何异议,欢迎联系我们!
推荐阅读
技经观察丨美国人工智能军事应用战略布局及在“印太地区”的落实
转自丨元战略
研究所简介
国际技术经济研究所(IITE)成立于1985年11月,是隶属于国务院发展研究中心的非营利性研究机构,主要职能是研究我国经济、科技社会发展中的重大政策性、战略性、前瞻性问题,跟踪和分析世界科技、经济发展态势,为中央和有关部委提供决策咨询服务。“全球技术地图”为国际技术经济研究所官方微信账号,致力于向公众传递前沿技术资讯和科技创新洞见。
地址:北京市海淀区小南庄20号楼A座
电话:010-82635522
微信:iite_er