摘要:近年来,生成式人工智能不断取得新的突破,开始涌现出智慧化特征,创造力愈发强大,不但能生成文本,还能生成音频、视频、图片、代码等。这种智慧化的创造生成能力是一把双刃剑,一方面能带来生产力的提高、生产关系的变革和不同行业的转型升级等正面效应,另一方面也可能带来诸如数据安全和隐私泄露、性别和种族歧视、学术剽窃、人类主体性消解等伦理风险。负责任创新旨在为科技创新带来的重大社会风险提供道德上可接受、社会上可认同、发展上可持续的解决方案,为应对生成式人工智能创新带来的风险提供了一种伦理治理路径。将负责任创新的预期、反思、协商和反馈等四个维度嵌入生成式人工智能的迭代升级和实践应用过程,能够促进生成式人工智能的健康可持续发展。
关键词:生成式人工智能;ChatGPT;负责任创新;科技伦理
生成式人工智能(Generative Artificial Intelligence)是利用特定的算法、规则和模型等,通过大规模的数据学习,智慧化和创造性地生成新内容的人工智能技术。这项技术以智慧化和创造性为显著特征,被认为是人工智能技术的重大突破和创新,不但能生成文本,还能通过训练学习生成音频、视频、图片、代码等,在多个领域呈现出惊人的应用潜能和广阔的应用空间。作为科技界的一项重大突破性创新,生成式人工智能既能为人类的社会生活提供方便和动力,也可能为人类的发展带来不可预知的风险和后果。负责任创新(Responsible Research and Innovation)作为一种科技创新伦理治理工具,以实现创新过程和结果在道德上可接受、在社会上被认可和在发展上可持续为目标。近年来,国内外相关学者将负责任创新理论应用于合成生物、纳米技术以及地球工程等新兴技术领域的伦理治理研究逐年增多,但对于生成式人工智能这一重大突破性创新技术可能带来的社会风险和挑战的关注较少。而以ChatGPT为代表的生成式人工智能一经发布便引起了全球各国的强烈反响与争论,从负责任创新的视角探讨生成式人工智能技术的创新与应用,具有一定的理论和现实意义。
2022年11月30日,OpenAI公司发布大型语言模型ChatGPT,不但能够根据上下文语境与使用者进行持续且符合逻辑的对话,而且能够通过训练学习,从事文本写作、计划和程序编制等工作。ChatGPT一经发布便受到了全球广大使用者的追捧,上线短短两个月时间,使用者便已过亿。与以往的分析式人工智能(Analytical Artificial Intelligence)不同,ChatGPT不但能够通过对数据的学习训练智能化地提取信息和预测趋势,而且能够创造生成新的内容,属于典型的生成式人工智能技术。其工作机理可以分为四个步骤。首先,通过数据投喂,训练数据模型的文本排序规则。研发人员在语料库中投入大量的文本,基于相应的算法和规则,让数据模型学习文本排序的规则,然后将模型所做的回答与语料库中的文本对比,发现二者之间的差距。其次,收集人类数据,引导数据模型学习人类回答问题的思维方式。研发人员就一些问题让人类回答,并将这些问题及人类给出的答案交给数据模型学习,引导数据模型的回答符合人类的期望。再次,收集和对比数据,奖励符合人类评价标准的数据模型。研发人员针对数据模型的多种回答进行质量排序,将最符合人类评价标准的答案作为奖励模型,训练数据模型以此标准作答。最后,强化学习,优化奖励模型。数据模型通过自我学习和奖励模型的强化,不断优化答案,实现数据模型生成内容的智慧化和创造性。
随着互联网和信息技术的发展,数据安全和隐私问题开始引发关注。尤其是在人工智能时代,个人信息的不当使用和隐私泄露问题日益增多。生成式人工智能在模型的训练学习过程中需要从外界获取海量数据,模型运行过程中需要的数据量更大,这些都面临着数据安全和个人隐私泄露的风险。
在数据输入层面,生成式人工智能模型建构的方式分为主动建构和被动建构两种类型,前者多以数据爬虫技术为工具,通过相应的程序自动收集互联网上的海量数据,后者则是通过相应对话框自主输入数据,然后将之存储并形成模型。目前,无论是主动“爬取”还是被动输入的数据都存在着安全隐患。对于主动“爬取”的数据来说,鉴于数据在信息社会的重要价值,国际社会对基于正当目的且通过正当程序所爬取的数据一般予以认可。但如果这些数据是未公开的、涉及隐私或者涉密的,则是不被允许的。生成式人工智能可能被某些组织或个人所用,爬取一些未公开的、涉及隐私或者涉密的数据,这些数据可能会对国家安全和个人隐私泄露带来风险。对于被动输入的数据,从OpenAI公司用户协议来看,虽然用户注册时同意对相关数据的收集,但是有关个人隐私的相关信息应当被删除,而OpenAI公司并没有对删除的方法、时限等作出进一步的规定,这些信息仍可能被保留和用于训练模型,存在侵害个人信息权益的可能。意大利个人数据局就曾因OpenAI公司涉嫌非法爬取大量用户信息数据而封禁了ChatGPT的运行。
在数据存储层面,生成式人工智能往往需要从大量数据中学习和生成模型。这些数据会被处理成某种格式的文本存储在数据系统之中,可能存在泄漏风险。比如,ChatGPT将存储在系统中的用户个人信息、密码、信用卡信息等敏感数据用作迭代升级,就可能导致模型输出的结果不经意间泄漏这些信息。另外,生成式人工智能具有很高的智慧,能够把一些看似分散但却相互关联的数据进行整合,进而获取某个人的比较全面的数据。一些原本不在隐私范围内或者隐私程度较低而没有被保护起来的数据,可能被生成式人工智能所获取。通过相应的学习和训练,这些合法获取、不属于隐私范围内的数据可能会将某个人完全暴露出来,使其成为“透明人”。总之,生成式人工智能在数据输入、存储以及处理过程中存在着安全隐患,稍有不慎就会造成个人隐私泄露的风险,给社会和个人带来消极影响。
以ChatGPT为代表的生成式人工智能通过大规模语言模型训练,具备了强大的逻辑推理和文本生成能力,使其生成连贯性文本成为可能。其实际运用将会对学术研究产生“巨大助力”,比如,能够高效地梳理学术研究内容,降低知识获取的难度等。随着生成式人工智能在学术研究中的不断应用,学界也开始担忧其可能产生的学术伦理风险。
生成式人工智能可能引发学术剽窃风险。生成式人工智能拥有强大的计算能力、逻辑推理能力和文本生成能力,使其能够在较短时间内整合大量的数据和信息,并根据用户的个性化需求生成某种特定的结果。Study.com(在线课程供应商)曾在1000名18周岁以上的学生中开展一项调查,询问他们学习过程中使用ChatGPT的情况,结果显示有超过89%的学生使用ChatGPT完成家庭作业。学生可以用生成式人工智能完成家庭作业,学者也有可能利用它生成科研论文。从ChatGPT的生成文本逻辑来看,所生成的论文基于前期的投喂,而前期投喂数据的内容和观点都是来自他人作品,基于这种方式生成的论文缺乏原创性和创新性,只能算作“高强度的集成产品”,模糊了原创和抄袭的边界。另外,ChatGPT的“产品”是在对人类的学习强化基础上产生的,所生成的论文与人类的思维和表达方式极为相似,如果ChatGPT在转码过程中隐匿抄袭的事实,人类通常很难甄别出抄袭行为,导致学术剽窃的隐蔽性和无意识性。同时,ChatGPT利用反馈学习机制获得相关学者的学术思想后生成学术作品,这种情况亦有剽窃学术思想之嫌。
生成式人工智能可能剥夺人类学术的创造性思维。学术研究本是一个艰辛的探索过程,一篇优秀的学术论文需要人类阅读大量的文献和进行深入的思考,然后提出研究问题和解决问题的创新性方案,并对之进行严密的论证。生成式人工智能的出现颠覆了这一学术研究过程,人类不再需要花费大量的时间去阅读文献和整理资料,只需将相关文献和知识投喂给生成式人工智能模型,然后对之进行训练和强化,人工智能“甚至在短短的几分钟之内就能‘创造’出符合逻辑的学术成果”。生成式人工智能以这种方式在学术研究领域为人类提供便捷的服务,帮助人类提高学术研究的“效率”。而人类对于生成式人工智能的依赖,或使其成为技术的被动接受者,久而久之会形成某种“习惯”。在这一过程中,人类正在不自觉地让渡思维主导权,思维主体将可能由人类转向生成式人工智能,这在一定程度上会剥夺人类的学术创造性思维能力。
人工智能是人类在实践活动的基础上,基于满足自身生存、发展以及推动人类进步的目的,创造出来的用于模拟、扩展和延伸人类智能的一种技术,人类在这项技术中扮演着创造者和使用者的主体性角色。但是人工智能也会对人类产生一种反作用,消解人类的主体性。尤其是生成式人工智能,已经具备了相当强大的生成能力、认知能力、实践能力以及价值判断能力,这些能力在一定程度上存在消解人类主体性的风险。
生成式人工智能可能影响人类的自我认知。人类的自我认知是人类对于自身的思考、感受和行为等方面的理解和认识,能够帮助人类更好地对诸如情感、压力等外部环境作出回应。生成式人工智能存在着影响人类自我认知的风险。首先,生成式人工智能可能提供某些虚假错误的信息。从生成式人工智能的生成逻辑来看,如果前期投喂的数据失实或者错误,那么其生成的信息也可能是错误或者虚假的,可能会干扰人类的认知。其次,生成式人工智能可能会基于错误的信息,提供错误的观点。如前所述,生成式人工智能是基于大量的数据训练而具备类人化的回答问题的能力,当这些数据中存在错误的价值判断时,其所回答的问题就会包含错误的观点,比如性别歧视或种族歧视的观点等,这些错误的观点可能会对人类的认知产生影响。另外,人类也可能会对生成式人工智能形成情感依赖。生成式人工智能因其出色的知识储备能力、沟通能力以及分析和解决问题的能力而得到人类的认可,人类会将生活和工作中出现的问题求助于生成式人工智能,久而久之会对其更加信任和依赖,这种信任和依赖将会逐渐影响人类自身的认知。
生成式人工智能可能侵蚀人类的自由。霍布斯把“自由人”描述为“一个在其能力所及的范围内不受限制地做他所愿意做的事的人”,可见,人的自由表现为个人在决策过程中的自主性,即自由的人具有决策自主权。在人工智能时代,大型科技企业拥有人工智能技术的算法权力,掌握着数据资源,随着人类对生成式人工智能的依赖性逐渐增强,生成式人工智能参与的决策也会逐渐增多,最终将可能取代人类参与决策,一旦决策权转向生成式人工智能,人类的自主决策权力就会被削弱,自由也将受到侵蚀。侵蚀人类自由的风险来自于两个方面:一方面,人类的自由可能受到科技企业的侵蚀。生成式人工智能企业凭借对强大数据资源的控制支配力,占据着与用户博弈的主动权。以ChatGPT-4为例,作为拥有1.6万亿级别参数的大模型,其内部神经网络发达,堪比人的大脑。用户输入的信息会被科技企业用于技术的迭代升级,个人信息有被滥用的风险。科技企业一旦收集了数据,就会拥有数据权力,随着对数据的训练、整理和开发,这种数据权力就会得到强化,然后将这些数据服务于商业目的。在商业利益的冲击下,个人将成为透明人,其自由也将受到侵蚀。另一方面,人类的自由可能受到公权力的侵蚀。生成式人工智能具有强大的数据生成能力,能够高效率地收集、整理和开发跨区域、跨部门、跨边界的政务数据,协助公共部门进行决策,提高政府和公众之间的沟通效率。但是生成式人工智能数据生成内容的过程是不透明的,这种“算法黑箱”会剥夺人类的知情权、参与权和监督权,导致公共决策中的个体处于被支配的地位,被支配则意味着自由决策权的丧失。
生成式人工智能潜藏着巨大的社会风险,其应用颠覆了传统人工智能产生的社会影响,促使人类反思如何治理才能更好地实现该技术的伦理可接受性和社会可持续性。负责任创新理论是近年来被学界广泛认可和接受的一种有关新兴科技伦理治理的理论。肖姆伯格认为负责任创新是在技术创新过程中创新者与其他利益相关者相互沟通与反馈,以实现整个创新过程和创新产品的伦理可接受性、社会可持续性以及社会合意性,让科技创新恰当地嵌入人类社会,并反映人类社会的价值和发展期望。欧盟委员会将负责任创新定义为一种路径,这种路径会对创新的潜在意蕴和社会期望进行预期与评估,帮助人类设计具有包容性和可持续性的科技创新。因此,将负责任创新理论嵌入生成式人工智能的创新与应用过程,对生成式人工智能实施一种更高层次的伦理治理,有助于保障生成式人工智能的发展与应用更好地满足人类社会的需求。
负责任创新是继可持续发展理念之后全球公认的理想型科技发展理念,是人类对科技发展的长期关切和系统思考的产物,内容涵盖了对科技发展的预测和管理。同时,也是一种价值取向和道德理念、一种具有伦理价值的科技创新理念。虽然负责任创新理论最初应用于合成生物、纳米技术等领域,但是随着学界对该理论不断认可,其应用范围逐步扩大,相关学者将之应用于数字经济、胚胎植入前遗传学检测技术的伦理治理等领域。近年来,随着生成式人工智能不断取得新的突破,其智慧性和创造能力越来越引发人类的关注,理论界开始关注生成式人工智能的负责任创新问题,已有学者从负责任创新的角度研究ChatGPT的阻碍因素及其发展方向问题 ,但相关成果还比较少。另外,由于生成式人工智能还处于初始发展阶段,人类还没有完全了解其可能产生的各类风险,有必要对之进行深入研究,以负责任的态度发展和使用生成式人工智能。
从全球范围来看,国际组织和主要科技强国表示要以负责任的态度推动生成式人工智能的发展。比如,2019年6月,G20国家率先提出了人工智能的发展原则,包括“以人为本的价值观和公平”“包容性增长、可持续发展和人类福祉”“稳健性、安全性和可靠性”以及“问责”等。2021年11月,联合国教科文卫组织发布《人工智能伦理问题建议书》,强调发展人工智能应遵循“保护尊重和促进人权、人类基本自由和尊严”“确保多样性与包容性”“促进环境和生态系统发展”“建构公正、和平和相互依存的人类社会”等原则。2022年6月,加拿大制定《人工智能和数据法案》,明确提出建立负责任的人工智能发展框架,要求人工智能的发展遵循人类管控、公开、透明、公正、安全、问责以及有效性等原则。2023年5月,联合国发布的《全球数字契约》将“透明、公平、问责”作为人工智能发展的核心内容。欧盟也在2024年2月制定了《人工智能法案》,强调要防范任何人工智能对“人类健康与安全构成威胁,保护人类的基本权利和价值观” 。与此同时,英国、澳大利亚等国也都制定了发展和使用人工智能的相关法案,“负责任”成为其遵循的基本原则。
中国在发展负责任的人工智能方面也进行了有益的探索。2017年7月,国务院制定《新一代人工智能发展规划》,提出发展人工智能的安全、开源、开放和共享原则。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,明确提出中国要发展负责任的人工智能,并制定了发展人工智能各方主体应共同遵循的原则,包括和谐友好、公平公正、安全可靠、尊重隐私、包容共享、责任共担、开放协作和敏捷治理等。2021年9月,该委员会发布《新一代人工智能伦理规范》,提出保护隐私安全、促进公平公正、提升伦理素养、强化责任担当以及增进人类福祉等伦理要求。2023年5月,为促进人工智能的健康发展和防范人工智能风险,国家网信办等七部委联合制定《生成式人工智能服务管理暂行办法》,明确指出发展和使用生成式人工智能要遵循伦理道德,维护公共利益,保护公民、法人等的合法权益。
生成式人工智能作为一种技术创新,在技术逻辑、技术成果以及技术意义等方面均实现了重大的创新和突破,其出现与应用彰显了人类的巨大创造力。作为人类社会重要创新成果,生成式人工智能将会在提升生产力、变革生产关系、加速各行业转型升级等多个方面对人类产生重要影响,人类对它的依赖程度也会越来越强,它给人类带来的风险和挑战也会随之增多。因此,在这一背景下探讨生成式人工智能的负责任创新具有重要的理论和现实意义。
生成式人工智能的负责任创新是在该技术的创新和应用过程中,基于公平性、包容性、前瞻性、透明性、安全性以及可问责性等原则,对其进行全面审视与评估,充分考虑其可能对人类带来的风险和挑战,通过利益相关者之间的相互沟通与反馈,形成符合伦理道德的决策和行动,实现生成式人工智能创新过程和产品的伦理可接受性、社会可持续性以及社会合意性,使生成式人工智能的创新恰当地嵌入人类社会,同时促进生成式人工智能的健康可持续发展。
编辑部信息
邮箱:bj@clas.ac.cn
电话:028-85223853
网站:www.globesci.com