# 点击蓝字👆 关注我们 #
韩大元
中国人民大学法学院教授、法学博士
一、演讲题目的思考
二、对议题的研究进路
三、历史的视角:科技与宪法发展史
四、科技发展对人的尊严构成了何种挑战?
五、宪法如何应对科技发展挑战?
内容提要
法学的使命不是赞赏科技发展带来辉煌的成就,而是要审视科技可能带来非理性的后果,以及如何通过法治降低科技发展可能带来的风险与非理性,如何通过宪法控制科技对人类文明、尊严与未来的威胁。在当代这样一个价值多元化、科技发展具有不确定性的世界面前,我们要更加珍惜人类文明的价值,更加重视宪法功能和宪法价值,更加强化宪法的价值共识——人类共同体的价值和人的尊严的价值,让宪法真正成为这个时代最具有价值共识的最高法、高级法。
关键词:
人工智能;隐私权;人的尊严;宪法共识
一、演讲题目的思考
最近宪法学研究方面有很多热点问题,在国际社会也出现很多新的宪法问题。其中,如何用宪法价值约束科技的非理性是大家普遍关注的问题,特别是美国出现 Facebook 泄露 8000 多万用户信息的事情后,这种担心更加重了。
在全球范围内出现的重大宪法问题是,如何在科技发展的背景下保持人的尊严。我们看到经济发展,特别是科学技术发展、信息化和各个国家之间科技竞争越来越激烈,但人的价值在某种意义上不是越来越提升,而是越来越边缘化。人类所创造的文明在自己创造的科技、信息化面前反而使得主体的价值越来越低,越来越减损。
所以,我们需要共同思考这样一个问题,人生的意义在哪里?人类的未来在哪里?目前很多法学院、科研机构花很多力气研究人工智能、大数据、算法等,中央政府也放弃“科技中立”的立场,出台人工智能方面的政策,直接介入科技发展的进程中。司法机关纷纷推出智慧法院、智慧检察院等。我们要考虑,所谓 AI 是否需要我们花这样大气力研究?我们研究的目的是什么?过了十年、二十年后法学院还需不需要呢?如果人工智能可以代替律师的工作、法官的工作、检察官的工作,我们还需要培养法官、检察官吗?一般的法律服务市场里,AI 确实可能替代我们一些重复性的劳动。当所谓的机器人来代替人类传统的生活方式时,包括部分法律服务市场的工作时,我们要想一下,那个时候人类会怎么样?学法律的人至少要考虑五十年以后的世界,法律并不仅仅是为了今天的生活而安排的,而是为了对明天的生活有合理期待,所以我们需要认真思考科技与法治、技术与人的尊严等基础性问题,包括法治的现代功能。过去我们过于依赖以事后追责为核心的救济机制,包括国家赔偿。但在信息化的时代,当人的尊严、人的价值处于边缘化,生命、健康的价值受损而无法“恢复”的时候,再有效的事后救济也无法挽回已经失去的生命,无法挽回受伤害的人的尊严和人的思想自由。在这种情况下,要思考怎么样把法治功能从事后的救济提前到事先的预防功能,强化立法性功能,预防对人的尊严、生命与健康的伤害。
美国政府最近对叙利亚进行打击,理由也很简单,说叙利亚政府使用了一个化学武器。这里暂且不谈这个理由是否成立,在国际社会有一个基本的共识,化学武器是任何情况下都不能使用的,但是核武器并不是绝对禁止。五个核大国,包括中国在内,我们是有核武器的,但我们的目的是通过核武器来维持和平衡世界的秩序,你有核武器,我也有核武器,你打我,我也打你,靠核武器的威慑建立平衡。所以,大国之间力量的所谓平衡,未必都是以和平为基础而建立,而是靠强大的核武器的威慑力。但是有些武器是绝对不能开发的,比如化学武器。自主的机器人绝对不能开发,自动的机器人是可以的。自主的机器人,如所谓的杀人机器人是不能开发的,因为它有独立的伤害人的决策能力;自动的武器,人类是可以控制的。
在人类历史上,我们正面临着一个最大的考验:是选择坚持人类控制技术的文明发展史,还是要改变人类文明史,让所谓的无机生命代替有机生命。人越来越工具化,人的尊严越来越边缘化,似乎我们愿意把很多事情交给机器人做,那就想一想五十年后、一百年后人类会怎么样。我们要重新写人类文明史,当无机生命主宰我们的未来时,我们的法学、医学、文学,我们的创造文明到底有什么意义?这个意义上,当我们谈到 21 世纪的宪法挑战时,首先要谈到的问题就是在科技面前如何保障人的尊严性。宪法上的尊严性虽然是德国的概念,但它也成了世界的基本共识。宪法上的尊严就是指人是主体性的、目的性的存在,绝对不能客体化。但在现实生活中,我们感到,有时人越来越客体化,为了国家、为了某种目的可以牺牲我们的健康和生命,甚至有的时候在整个国家发展面前,人成为一种客体化的东西,日益远离宪法上的尊严价值。
最近我一直思考一个问题,在科技发展的背景下,我们当然要充分肯定科技发展给人类文明带来的积极作用,但法学的使命不是赞赏科技发展带来辉煌的成就。人类之所以需要法治,就是要思考科技可能带来什么样的非理性的后果,如何通过法治降低科技发展可能带来的风险与非理性,如何通过宪法控制科技对人类文明、尊严与未来的威胁。科技的非理性必然造成人的尊严的侵害,如何预防侵害,如何坚持人的尊严价值立场?要回答这个问题,文明需要回到宪法的基本共识。所以,今天的演讲重点谈一下科技对人的尊严的侵害与宪法控制手段,这也是讲座题目定为“科技发展的宪法界限”的原因。
二、对议题的研究进路
下面简单说一下我思考这一问题的总体思路。十多年来,我一直在思考宪法与科技的关系问题。我认为,宪法学的基本命题和核心的价值就是任何时候都不能把人性边缘化,以牺牲人性尊严为代价带来的任何发展,所谓的改革本质上是不符合现代宪法的基本价值,也就是远离了我们追求法治的理想,损害了人类的尊严,违背了人权发展的逻辑。任何时候,无论以任何理由,把人性边缘化而取得的任何一个辉煌、任何一个所谓的成果,都不符合我们所追求的法治理想,更不符合社会共识。
我的基本学术立场是:科技发展要基于人的尊严和宪法共识。任何时代科学技术都有双重性,既造福于人类,又损害人类。在座的各位同学,可能都有手机,我们的生活似乎离不开手机。我问一个问题,人类什么时候开始有了手机技术?五十年代、六十年代、七十年代、八十年代?目前世界上有多少人用手机?中国的手机用户到底有多少?不知道你们是否考虑过,当你决定用手机的时候,一天生活离不开手机的时候,你会失去隐私。大家都想一想,你用了手机后,对你的生活方式、思维方式、人际交往方式带来了哪些影响?也许负面的东西大于正面的东西,所以手机一方面确实给我们生活带来了一些便利,但是另一方面也给我们的尊严保护、隐私权的保护带来了风险与挑战,如果不加有效控制,将导致人的尊严的边缘化,人类会失去存在的意义与价值,最后人类就没必要存在了!而要控制科技的非理性,在发展科技技术的同时,能够保护人们应有的尊严,消除给人类带来的风险,或者把风险降到最低限度,我们必须要选择一个制度安排,而这个制度安排就是“宪法治理”。
在这一点上,现代科技技术发展历史和宪法发展历史是大体对应的。没有宪法不可能有科技技术,而没有科技技术推动的宪法,也会失去动力。将宪法价值与科技价值加以平衡的重要平台就是宪法,有了宪法共识才能让人类继续生活在自由、幸福、有尊严的环境中,确保人类永远主宰未来,不会由技术来主宰人类,让人类的生活更加安定,不再恐惧,不再焦虑,不要害怕未来怎么样。
也可能有同学会说,我们可以关心五十年、七十年以后的事,但为什么要关心一百年以后的事情。答案就是,如果不以宪法控制科技的非理性,一百年以后我们将面临无法想象的社会。去年微软公司已经宣布,他们将发明 AI+ 基因改组技术,因为健康很大程度上要取决于基因,但是通过 AI 技术可以改组人们的基因,把不好的基因重新改组,这样人的寿命越来越长,也许能活到一百二十岁、一百五十岁。秦始皇当年想实现的长生不老的理想,在 AI 技术上完全可以实现。但是同学们想一想,如果大家都活到一百岁、一百二十岁,人类会怎么样呢?地球能够承载的人口数是有限的,大概是 90 亿,不能超过 95 亿。如果人类的老龄化到了社会无法承受的时候,人类的生存空间也会出现问题。我们是否需要靠技术无限制地延长人的寿命?在现代科技技术发展的背景下我们需要思考这些问题。
三、历史的视角:科技与宪法发展史
学法学的同学都知道,人类最早的人文社会科学知识并不是经济学、新闻学,而是神学、医学和法学。我们确实需要思考为什么法学、神学和医学在一起,神学、医学和法学的共通点在哪里。南师大法学院是全国有名的法学院,你们肯定为选择法学而自豪,因为人类最早的大学博罗尼亚大学、雅典大学,就三个学科,其他学科是没有的。所以,只要人类存在,法学学科是会存在的,因为人类生活需要法学、医学和神学。一百年之后、五十年后,其他学科就不好说了。所以同学们选择法学是对的,你是为一百年后的生活做好了准备。三个学科共同的特点是:从人出发回到人。医学为什么存在?神学为什么存在?人类灵魂的安宁、身体的健康、社会疾病的治理靠人。其中法学是把神学、医学价值融合在一起的综合性学科,没有法治的保障,人类的灵魂是不得安宁的。关于医学,国家要保障每个人的生命、健康安全,社会中每个人的健康权、生命权得到保障,需要有好的医生治病。社会的病靠法学来治疗,所以法学不仅是三个古典的人文社会科学知识的组成部分,同时也是把三个知识融合在一起的哲学。所以,任何一个时代,只要人类存在,法学就是必不可少的,没有法学,其他知识也失去了价值基础、规范基础、知识基础。从启蒙时代开始,到第一次工业革命、第二次工业革命、第三次工业革命及正在经历的第四次工业革命,宪法一方面推动科技的发展,另一方面又尽可能降低科技发展所带来的非理性和对人的尊严的侵害。
(一)启蒙与前启蒙时代:科学、理性与宪法观念
十六世纪四十年代到十七世纪末的科技发展,特别是近代科技发展史与宪法学是如何对应的。如果没有宪法的理念和知识,为人们带来灵魂安宁和保护,我们所说的以实验为基础的近代科学就不可能产生。
(二)第一次工业革命时代:科技发展与理性主导
同学们高中时就学过了第一次工业革命,为什么发生了第一次工业革命?这个工业革命产生了什么影响?如何解决第一次工业革命所带来的大量非理性的社会问题?只能靠宪法,所以才有了 1787年的美国宪法、1795 年的法国宪法,开始对科技进行保护。当科技发展无法自我解决矛盾的时候,人类需要更高级的规范来加以约束,一方面把科技发展纳入学术自由,另一方面用宪法的力量来约束,学术自由不能滥用,学术自由也有界限。所有的科技只能用于造福于人类的幸福生活。
(三)第二次工业革命时代:列国竞争与国家主导
第二次工业革命后,电的发现、内燃机的出现,使得我们的信息、沟通越来越便利,包括自由主义、民主主义、社会主义的各种市场、各种价值观能够随着科技的发展、信息化的发展出现。这种时候如何融合社会主流的价值观,到底什么主义对人性的发展更有利?科技本身就提出这样一个课题,所以产生了今年在世界现代发展史的最大一个事件。
我不知道同学们是否了解 1918 年的苏俄宪法?人类历史上的第一部社会主义宪法就是 1918 年苏俄宪法,1917 年的十月革命,催生了第一部社会主义国家宪法。今年正好是一百年。所以我们现在讲的近代的宪法发展史和科技的发展史主要是讲一百年以来的历史,一百年以来我们经历了两次世界大战。
当我们回顾社会主义宪法在人类文明史上做出的重大贡献的时候,我们应该感到很自豪,为什么呢?因为同学们知道“社会主义”这个词主要来自拉丁文的“社会”这个概念,而“社会”这个概念最核心的价值就是公正、公平、均等,社会主义所体现的是人类的正义的价值追求,它的理念建立在 1918 年的苏俄宪法上。大家都熟悉的 1919 年的魏玛宪法,从近代宪法向现代宪法转型的魏玛宪法,体现了强烈的社会主义宪法的因素。今天我们看到的德国宪法,包括劳动者的保护、社会福利、社会公平概念、劳动者罢工权的规定,其实思想来源都来自于 1918 年的苏俄宪法。魏玛宪法制定过程中,受到苏俄宪法的影响,把大量的社会主义的正义、公平的因素引入到资本主义宪法体系,明年正好是魏玛宪法的一百年,在回顾一百年的西方国家的宪法历史发展的时候,我们会看到社会主义的正义理念。
所以在宪法与科技发展互动中,我们看到了社会主义宪法的强大生命力,我们的理念符合人类文明,正义的理念、公正的理念、均等的理念,关键是我们如何实现这些理念的问题。所以大家看,第二次工业革命后技术发展所带来的很多难题是通过宪法解决的,包括 1918 年开始的一百年宪法。
(四)第三次工业革命:人的尊严与宪法对科技发展的响应
第三次工业革命是大家最熟悉的,之后我们经历了世界大战,世界大战以后的世界开始进行深刻的反思,因为战争时用的所有武器都是科学家发明的,包括最后美国扔在日本的原子弹,虽然某种意义上有利于结束二战,但是给日本人民的生命带来了灾难,人类第一次看到原子弹多么厉害。原子弹是怎么发明的?是科学家发明的。科学家是怎么发明的?宪法给予了科学研究的自由,国家不是中立的立场,国家是支持科研的,战争时每个国家都希望有最先进的武器对付敌对国,用于战场,但是战场涉及如何保护好平民,减少战争中的死亡人数的问题。所以无论战争有多大的正当性,人类的生命都是最宝贵的。第一次世界大战,战争中死亡的有一千多万人,由于贫困、饥荒死亡的有两千多万人。二战时失去了五千多万人,如果真有第三次世界大战或者第四次世界大战或者核武器战争,也可能一瞬间我们会失去几十万、几百万,甚至几个亿、几十亿人的生命,因为我们的武器(杀伤力)远远超过了二战时的武器,我们的武器是很先进的。我们开发武器,大规模地从事核武研发时追求的目的是什么?我们的科学家们是否反思过?当技术发明的人没有法治的理性,使用者也没有人类理性时,那么现今的武器会随意地剥夺(人的生命),或者说虽然他没有用所谓的武器,但这种武器给我们带来很大的风险、安全的不确定性,也同样令人类恐惧。基于核武器本身的高度不安全性和不确定性,国际社会不得不有时候趋附于或者改变一些立场。所以未来会怎么样,是国际上很多宪法学者们都很担心的问题。我们建立了良好的宪法理论、宪法秩序,但在一个原子弹、一个核武器面前,宪法到底有没有控制核武的能力?在这个意义上,我们确实需要思考第四次工业革命是否是现在所说的这样一种所谓的恐惧。
(五)第四次工业革命是否真的到来?
这一次的革命跟第一次、第二次、第三次的工业革命不一样,它是完全以AI 为核心的新的技术革命,它正在深刻地改变各国的政治、经济、社会、法律及所有的领域理念,我们就问它会颠覆人的主体性吗,它会破坏人们对未来生活的合理、稳定的预期吗?如何防范、规制和控制可能出现的风险?科学家们正在推动 AI 技术,希望无机生命有一天可以代替有机生命,要改写人类的历史,假设我们认为技术上是完全可能,但是如果这一天到来,人类的有机生命的结束,无机生命将会为人类文明带来什么?这些问题应该是我们需要思考的问题。
各国政府在第四次工业革命中放弃了过去的一种中立的立场,积极、主动地引导推动,组织这样一种科技的开发和研究,将大量科研的经费用在技术的时候,我们就在想人类会不会出现我们所担心的技术非中立化、尊严的边缘化、人类生活的工具化及科技政策的庸俗化。按照宪法的价值,在技术没有达到确定性以前,哪怕有百分之一的风险的时候,政府是不应该放弃中立立场的,应该适当中立地看待问题。因为还有一些风险,包括转基因,到底能不能吃转基因,它的风险有多大,这个时候如果政府放弃了中立立场,说转基因是安全的,大家可以选择,可以吃,没问题。假如二十年、三十年后,出现健康的损害时,由谁承担责任?网络信息公司、科技产业,所谓的以私人企业或者以科技为闻名的一些产业,表面上是企业,但它实际上绑架了公权力。学术界,包括一些民众,在科技面前仍然是很脆弱的,我们这个时代充满着对科技的恐慌,法院、检察院也都在建设智慧法院、智慧检察院。
那么,法学院的使命在哪里?未来法学院到底如何回应第四次工业革命,我们培养的学生未来在科技面前,有没有作用,未来律师是不是可以通过一般的AI 技术、AI 律师来代替?大概一个星期前,韩国第一次把 AI 律师投放到正式律师事务所,技术上我们看到一个统计数字,它大概是用一个小时能够解决过去大概七个人用三天时间完成的一般案件分类、案件归类的工作,其速度是非常快的。
总之,科技发展历史和宪法发展历史存在着某种对应关系。没有宪法不可能有科学技术的发展,而没有科学技术的宪法,它也将失去动力。只有借助宪法,凝聚宪法共识,才能够让人类继续生活在自由、幸福而有尊严的生活中,确保人类永远主宰未来,不会由技术来主宰人类,让人类的生活更加安定,不再恐惧,不再焦虑,不再害怕未来怎么样。而如何确保这种趋势,避免出现相反的发展,这是在现代科技技术发展的背景下我们必须要思考的问题。
四、科技发展对人的尊严构成了何种挑战?
科技发展的正面积极作用我们要充分的肯定,四次工业革命客观上推动了人类的发展,是不可否认的,如果我们否认了三次工业革命包括正在进行的四次工业革命对人类发展的贡献,那我们是不客观的。但是另一方面,这种科技发展带来进步和人们生活的便利的同时,它也带来了对尊严的侵害和挑战,我们宪法学主要的功能是要看哪些挑战、哪些侵害。
(一)人工智能技术问题
人工智能是大家谈论最多的一个议题。它的最大的挑战就是人的主体性问题,人工智能会不会改变人的概念?人工智能会不会改变人的主体性?人的主体性在人工智能技术面前会什么样?是不是可以继续坚持?人的道德判断会不会被解构进而被否定?我们所坚持的自由、平等与民主等一系列基本价值在 AI(人工智能)技术面前是不是会被削弱?我们这个时代充满着对科技的恐慌。很多法学院、学者都说人工智能、AI 如何如何好。很多法院都说智慧法学院、智慧检察院,过了十年、二十年后法学院还需不需要呢?人工智能可以代替律师的工作、法官的工作、检察官的工作?在这样的潮流面前,法学院的存在意义在哪里?法学院的使命在哪里?未来法学院到底怎么样适应第四次工业革命?法学院的学生未来在 AI 技术发展面前还有没有作用?未来律师是不是可以通过一般的 AI 技术、AI 律师来代替?
可以说,一般性的重复工作,AI 律师都可以做到。有些律师事务所已经开始减少录用律师的需求。美国现在很多律师事务所,一方面使用所谓的 AI 律师来完成一般的文书分类、案例的整理等工作,另一方面在印度找印度律师事务所,委托他们完成一般的法律服务,因为录用美国法学院的毕业生太贵了,而印度律师所就比较便宜。那么,律师行业未来是不是肯定会被 AI 律师所代替?显然,这是不可能的。因为大家都知道 AI 是技术,技术不可能创造思想,只是对已有知识的模仿,对已有知识的整理。在这点上,人类的主体性是任何技术都代替不了的,这是一个基本的判断。有人认为,智慧法院的一般案件可以让机器法官来做。但这也是不可能,因为法院的判决一般是靠情感。机器人能判离婚案吗?它没有结过婚。民事案件当中有些法官为什么受欢迎,因为他根据夫妻两个在法庭上的表情,一个表情就知道这两个人感情是否破裂,是否还有感情,机器人是不可能这么判断的。所以我们要相信,科技的发展尽管很迅猛,但是机器人代替不了人类,从我们现在的认知来看这是不可能发生的事情。
(二)隐私权问题
人类的幸福生活是建立在隐私的基础上,隐私的意义不仅仅是个人信息不愿意让别人知道,而是关乎人的尊严,是人的尊严中最核心的内容。因为每个人都是独特性的存在,不能找到另外一个跟你一样的主体,即使是双胞胎也不例外,所以,人类的个性具有唯一性。人工智能的“人”则不同,它可以造一百个、一千个;类似地,克隆人也可以造成一千个、一万个。但是,人类的每个人都是独特性的存在,任何人都不能代替他的独特性。因此,在科技技术面前必须保持独特性的隐私价值,人格的自由发展要获得全面的保护。在这方面,现在科技技术带来的挑战是巨大的。人类确实是享受一些科技技术带来的便利,但另一方面在网络面前人类遇到一个强大的对手,因为个人信息的收集和存储、加工等等都存放在第三平台。个人有信息的自主权,但是个人的自主权在第三平台,在多方的主体面前个人是很脆弱的,所以人们要么坚持隐私权的价值,保持自身的独特性,要么放弃个体的独特性,那么到底选择什么?要选择便利性或者便捷性,那就减少了隐私和减损了隐私的价值体系。
在前不久爆发的脸书(Facebook)泄密事件中,多达 8000 万脸书用户的个人信息在未经授权的情况下,被一家名为“剑桥分析公司”的数据分析企业用于设计软件,以预测并影响选民投票。英美媒体报道称,“剑桥分析公司”曾受雇于美国总统特朗普的竞选团队和英国“脱欧”全民公投的“脱欧”阵营。这是脸书创建以来最大的用户数据泄露事件之一,扎克伯格也因此在美国国会接受质询,将近八十多个议员用六个小时对扎克伯格进行了质问。“脸书”的安全性到底怎么样,为什么把信息给别人?剑桥分析公司做了一个改变选民的想法的软件设计,真的是改变一个国家选举的成果,用它来干预政治会带来什么样的问题?“脸书”事件让我们看到,人类选择技术的时候是充满风险的。假如最后的调查结果表明剑桥公司确实通过这样获得的信息改变了美国选民的政治倾向,使得本不应该当选的特朗普当选美国总统,那么,今后各国都会去认真考虑技术对于民主选举的影响。以往对于金钱的影响,各国有了比较成熟的规制手段。但是科技对选举的控制,还没有引起足够的重视。比如辽宁、衡阳贿选案的行贿人,如果掌握了这门技术,那么他们就不用再去行贿,完全可以通过技术去影响选举结果。这样的话,人类几百年来建立的政治民主、民主的基本价值都会在技术面前丢失。此时,我们靠什么来维护文明与法治秩序,这就是“脸书”事件给我们带来的最大思考。
扎克伯格的口才很好,他的解释得到了部分民众的支持。在他的逻辑里,技术本身有一定的安全度,而当你选择信息沟通的便利,愿意加入脸书,选择使用手机时,你是在行使自己的自我决定权,你就应做好泄漏隐私的准备。人们选择某一个技术时,已经自我减损或者自我限制了自己的隐私权。二十多亿用户的个人信息,不可能依靠一个公司来保障,当公司做好了信息安全的保护措施,但仍然出现了信息泄露的时候,不能简单认为是对用户个人隐私的侵犯。言外之意是,用手机技术时你已经做好了你的隐私不是很重要的准备,发微博的时候应该也做了这样一个准备,发邮件时你也做了一个准备。问题还是回到,要隐私的保护还是要技术的便捷?这是否是宪法上所讲的自我决定权?显然,这个意义上的自我决定权并不存在,就像我们说“自杀不是一项权利”一样。宪法所建构之人类命运共同体的前提是每个人的价值,而人的价值前提是有生命。自我决定权里是否包括了你对生命的自我处分权?对于这种问题,如果把自我决定权无限地放宽,那么共同体就不存在了,国家对生命的保护义务就不能履行。从理论上来说,像在违法或者合法之间,不存在非此即彼的关系,而是有一个中间空白地带。空白领域里面也是一种价值倾向性,不能定义你的自杀是违法的,也不能定义你的自杀是合法的,在空白领域里面的价值倾向是每个人要尊重你的生命,没有生命个体就不存在,个体不存在就是公共利益责任的问题。所以不要把宪法上的自由和宪法上的权利进行绝对化,包括信息的权利也不是个体的权利。我说我放弃所有的信息权利,自我决定权,我不受宪法权利的任何约束,这也不符合当代宪法的基本要求。
(三)转基因食品安全问题
转基因的问题在什么意义上是有益的?在民主科学和政治公共利益的博弈中,到底能不能让转基因食品安全的权利选择仅仅依靠个体决定?能不能说吃转基因食品你自己选择,我告诉你了,吃不吃是你的事?按照法律规定生产转基因食品的企业一定要在产品上标志本产品是转基因,国家的保护义务就结束了,这就是政府可能采取的一种方法。但在强调人的尊严、强调个人主体性的社会里,既然是国家、政府,就不能把转基因食品的决定权仅仅交给个人。明知转基因是有风险的,但是转基因的食品比较便宜,就放任公民食用、损害身体健康、影响子孙后代,那是不负责任的。目前政府对转基因的官方立场是,第一个是转基因的技术我们要积极研究,这是现代基础科技技术。第二个是转基因的技术、市场的投放要严格的规范。怎么规范?靠法律规定,生产转基因产品的企业必须要标注。第三,至于公民是否吃转基因食品完全是公民个人的权利,自行选择,国家管不了。能不能简单地把转基因的选择权都转给个体?公民的生命健康权,这种实体性的权利与食品权、参与权、知情权有着密切的关系。如何平衡科学与民主的价值,让个体在共同体面临风险时也保证生命的基本健康,不能由于个体的选择,使得风险在个体身上变成百分之百的风险。必须化解这种风险。
国家有义务保护每一个个体的生命健康时,国家的义务不仅仅是把权利交给个体。根据普通法的基本原则,公民和国家之间的关系不仅仅是个体和国家之间的关系,是融入国家共同体之中,就像父母对子女不只是单纯的监护关系。曾经有一个案例,两个连体姐妹大概两岁左右,医生说如果不做分离手术,妹妹和姐姐就会同时死去,这个时候必须要做分离手术,分离手术的代价是妹妹肯定要死去,姐姐会活着,因为妹妹的很多器官是靠姐姐维持的。这个时候怎么办呢?因为子女的父母是信天主教的,他们绝对不允许做一个牺牲式的分离手术,牺牲一个,挽救一个生命。另外他们也提出来按照法治原则,不能说两个生命之间选择一个生命,因为姐姐和妹妹的生命价值是一样的,不能说姐姐对器官的依赖性大就挽救姐姐的生命,人为地牺牲妹妹的生命,既不符合法治原则又不符合宗教的原则。但是,医生基于专业的立场,坚持说只有分离手术才能挽救一个,要么两个都死去。后来到了法院,法官做了判断,说生命之间是没有可比性的,一个人的生命和一百人的生命都是一样的。但是在遇到两种生命价值冲突的时候,人类没有其他选择的时候,我们只能遵从医学的判断,做一个医学上的手术,来失去一个挽救一个。法官又加了一句话,孩子不仅是父母的,还是国家的。国家有义务在现有的技术范围内能挽救一个就挽救,明明看着可以挽救一个生命,就不能眼睁睁让两个生命都死去。任何时候国家一定要把生命作为最高价值,但是有冲突的时候不得不做一个选择。
在转基因食品问题上,也应该有这样一个基本的判断。比如说中小学的餐厅里面能不能使用转基因的油,或者转基因的食品。成人作为消费者可以自己选择,但是中小学是一个特殊保护的群体。有些企业为了经济的利益,希望能够把转基因的油推销给中小学,中国有很多中小学中午都在学校里吃饭。去年有个官司就是这样的:教育部规定,所有中小学禁止用转基因油。但后来农业部又发一个通知说:转基因是安全的,用不用转基因应该是各个学校来判断,教育部不能禁止、不能不尊重科学。然后,几百名家长就将农业部告到法院,认为农业部的通知违反了基本的科学精神,违反了法治。农业部的代理人反驳说,科学家说转基因安全,所以小孩也可以吃,但吃不吃可以选择。科学的判断我们要尊重,但政府机构不是科学院。中小学生不是一个成熟的消费者,不能自我选择,所以国家出于“儿童保护优先原则”和保护中小学生健康的特殊价值衡量,禁止转基因食品流入校园符合一般的原则,也符合儿童优先保护的原则。
(四)原子能问题
现在人类最大的担心就是核武器到底有多大的安全性?如果不能有效的控制,人类会面临什么问题?现在的世界秩序,不是按和平与发展的原则建立的,而是建立在核威慑基础上。这样的世界秩序是很脆弱的。不能保证说,俄罗斯也好美国也好,以及其他拥有核武器的国家都是民主法治的。假如特殊的情况出现了,比如出现了无法控制的非理性使用,世界上其他 193 个国家的安全如何保证?如何消除这种恐惧?在恐惧当中生活,有违我们宪法上相关的基本原则。人不能在恐惧和不安的焦虑当中生活,宪法的存在就是要消除每个人的恐惧、不安。那在核武面前,怎么办?而且我们现在核武器技术越来越发达,已经开发了比以前更为先进的核武器。在核武器面前,法学到底有没有用?我们怎么样建立一个能够制约核武器的和平的这样一个秩序。这个问题需要认真思考。
(五)克隆人技术问题
在国际上,宪法学界在科技技术的相关问题面前争论比较大的,相对比较成熟的理论就是克隆人的问题,一句话来说就是,人能不能克隆?技术上是完全可以的,无论在中国还是在美国、其他国家,但是国际社会基本的共识是,对人的克隆是违背人的尊严的,它会改变人的尊严。所以国际公约里面明确规定:不能克隆人。但是包括中国在内的一些国家,与欧洲和美国的立场不一样,把克隆变成了一个生殖性的克隆和治疗性的克隆,人是不能克隆,但是为了治病的需要,人的某些器官可以克隆,这个克隆叫治疗性克隆。目的是明确的,是为了治病,但是也有很大的风险,就是如何保证治疗性的克隆和生殖性的克隆之间的界限?如果你要绝对相信科学家的话,那是没问题,但是第一次世界大战、第二次世界大战让我们看到科学家有时候是不可靠的,科学家有时也是非理性的。我们只能切断生殖性和治疗性克隆链条,但是事实上又没法真正切割开。允许发展治疗性克隆,什么器官都可以克隆,组合在一起就变成人。所以基于这样的恐惧,国际社会基本上不认可克隆,无论是生殖性的还是治疗性的,但是中国基于科技技术发展的需要,还是坚持它,但是未来会怎么样也就不好讲了。我们要思考一个问题,真正的克隆人来到这个世界,人类会怎么样?你是否欢迎克隆人来到你身边?它违背了宪法和法治的什么样的一个原理?
有一份报告称,中国的克隆技术是很发达的。最难复制的藏獒,我们 2014 年在威海已经正式克隆出来了。如果把它投放到市场,这是很可观的商业利益,但是目前也面临着一种伦理法律的风险。藏獒的这种克隆技术,与造人的克隆技术在难度系数是一样的。既然可以造出来藏獒,也可以造出来人,这个技术如何控制就是个大问题。比如代孕,法律上不允许,但是现在已经存在很多代孕现象。
四年以前,有对小夫妻俩体外受精,在医院里面保存了胚胎。在两人遭遇不幸后,双方的父母经过两年的打官司讨要胚胎。最终,由于我国不能代孕,他们通过代孕公司在老挝找了一个代孕的母亲,等小孩生出来以后带回来,现在小孩快一岁了。但是带来了很多法律伦理问题,首先胚胎是生命也是物,能不能继承?中国不允许代孕,那在国外代孕回来的小孩有没有中国国籍,他到底是谁的孩子?四个老人和他之间是什么样的关系呢?我们到底怎么办?法院的判决,值得赞赏。在我国,胎儿是不是有生命还不明确,民法总则算是说了一些模棱两可的话,将胎儿视为具有民事权利能力。但为什么视为具有民事权利能力?按照宪法的规定,胎儿当然具有生命力。所以按照这样一个逻辑,胚胎它不是物,是生命的承载物,可以视为生命。这样才能够设计出后面的保护性措施,确定小孩的法律身份,包括一些伦理的问题。
五、宪法如何应对科技发展挑战?
无疑,科技技术给人的尊严带来了一种不确定性。我们所追求的宪法和社会发展之间,特别与技术发展之间存在着冲突,而这种冲突将带来日益严峻的整体性变革。最令人忧虑的是,科技系统和经济系统在相互结合以后,出于经济利益的追逐而使矛盾日益激化升级。一些公司,比如脸书,在实现自身利益最大化的过程中,未必充分考虑人的隐私和人的尊严的问题。在不断涌现的科技面前,或者新的科技技术面前,如何始终确保人类的主体性人格的自由的发展?面对这种风险,法治应该如何应对?这确实是值得研究的一个重要的宪法课题,必须要寻求一个宪法共识,用宪法的价值来约束一个国家科技的发展。
把科学和技术放在一起简称为科技,这是不准确的。科学是回答为什么的问题,它永远是对未知领域的探索,它是创造思想、创造知识的,而创造的知识怎么用才是个技术问题。所以用科学来约束技术,实际上是要明确创造技术的目的与正当性是什么,为什么要创造它。这个价值要约束到技术的具体运用中,所以技术是非理性的,科学则偏好理性,但有时候也有非理性之处。简单把科学技术放在一起的时候,必须倍加小心,可能过度地强调技术而丧失科学的理性约束。如果把技术(如人工智能科技)加以神化,目的崇拜,自我降低人的主体性,自愿成为一个客体化、工具化、边缘化的存在,那我们的令人自豪的、有尊严的、有机生命的人类文明史将宣告结束,我们将会到远处去,让无机生命来代替人类。这样的生活情形谁都不愿意看到。
所以技术永远是手段,人永远是主体,所以应该期待人类主宰技术的未来,不应该让技术主宰未来。为此,通过宪法所建构的共同体,必须有一个最低限度的价值共识,即人的尊严。没有这个价值共识的话,我们所有的文明成果都要边缘化——为了得到某个利益,我们可以失去任何利益。人作为法律上保护的主体,特别是受宪法保护的主体,其权利必须由国家来保护。如果没有这些保护,那么人就不能成为宪法的主体,就无法行使宪法上的基本权利,这是一个国家保护义务。如果个人自己放弃所有的权利,那只是个体的选择,但是作为公众而言,宪法应该履行维护共同价值的使命,这才是我们未来让宪法具有共识的一个趋势。对人的尊严的维护最根本的制度安排就是健全的宪法体制,我这里讲的是宪法共识的力量,也可能是我们未来应对科技发展的一个最重要的法律制度和价值的理念。
那么,宪法该如何控制科技发展的非理性?从理论上讲,科技发展的目标首先要符合宪法,宪法的基本价值要求人不能被边缘化、工具化、个体化。科学技术发展的目的是,为人类造福,让人成为一个主体,而不能说因为某项科技的巨大发展使人变成了一个客体,如果是这样的话,那只能放弃发展这项科技。比如化学武器、自主性武器是不能开发的。如果让机器人有杀害、侵害人类的决策权,让它自主决策,那么人类的生存将面临巨大的风险。
其次,要遵循一个基本的原则,即技术开发的类型化。什么领域的技术可以开发,国家要不要支持,要不要设立科研项目等等,要经过一个价值的衡量。有些技术绝对不能开发,有些技术可以开发,但是投放市场转化要受严格的约束,即使是市场上应用的科技成果也要严格地控制,这样才能够减轻人类的基本的风险。
第三,任何一个国家的宪法,不仅仅局限于这个主权国家,在全球化的时代,世界越来越一体化。我们要建构一个良好、和平的国际秩序,每一个国家都通过宪法来建构和平权与发展权。只有通过宪法建构和平的秩序,才能够减少世界范围内正在承受的核武器的威胁。这种和平的宪法秩序,不是靠武力、靠核能、靠核武器威慑来建立起来的,它关系到人类的未来发展。
总之,在当代这样一个价值多元化,科技发展具有不确定性的世界面前,我们要更加珍惜人类文明的价值,更加重视宪法功能和宪法价值,更加强化宪法的价值共识—人类共同体的价值和人的尊严的价值,让宪法真正成为这个时代最具有价值共识的最高法、高级法。我们有理由相信,在新时代,中国社会的发展要依赖宪法发展,要通过宪法凝聚共识,全面实施宪法,使依宪治国、依宪执政真正落到实处。
公众号编辑 | 张 昱
公众号责任编辑 | 刘栋阳、林澍
审核 | 张 震
● 来源
本文转载自“法治现代化研究”公众号,转引转载请注明出处。
微信公众号
xzbmxf