随着人工智能变得越来越复杂,由于担心这项技术会产生不可逆转的风险,加州 1047 号提案由此诞生。
今年5月,加州参议院正式通过了这项提案,该提案将被送交加州众议院进行进一步审议和修改。
鉴于加州是目前世界上最先进的人工智能公司们的所在地,这项提案获得了前所未有的关注度,并招致了众多科技巨头的反对。
Meta 首席人工智能科学家杨立昆发文反驳说:1047号提案将会终结加州技术创新的历史。
所以,问题来了,人工智能究竟应该如何被监管,这些监管到底会带来怎样的影响?而我们又需要怎样的人工智能?
1047的提案对人类的影响将是深远的。总的来说,有4个问题需要澄清
1.AI出了事,究竟该谁来负责?
但如果这家公司开发了一个搜索引擎,有不法分子用它搜索到了“如何犯罪”的相关内容,并也造成了无法挽回的后果,但根据美国《通信规范法》第230条(互联网平台不用对其平台上的用户发表的言论负责),这家公司不会因此承担法律责任。
这就有一个问题:究竟人工智能更像是一辆汽车,需要制造商对其进行安全测试;还是更像是一个搜索引擎?
这个问题正是1047提案引发激烈争论的核心。如果这项提案最终通过,硅谷那些在人工智能上投入超过1亿美元的公司将被强制要求进行安全测试。
如果未能遵守这些安全测试要求,这些公司将受到监管部门的处罚,金额最高可达模型开发成本的 30%,开发人员甚至还会面临刑事指控。
在政策制定者们看来,大模型是科技巨头们造的“汽车”,他们应该为对其安全性进行负责,这在全球已经形成了某种程度上的共识,但硅谷的科学家、工程师、CEO们并不这么想。
在他们看来,讨论人工智能是否安全仍然为时尚早。
人工智能科学家吴恩达表示:我不担心人工智能的安全性,就像是我不担心火星会出现人口过剩一样。
杨立昆也在推特(如今的 X)上写道:拥有智慧并不意味着必然会产生统治欲,在人类中,最聪明的人也不一定渴望权力。
你怎们看两位科学家的观点?可以在评论区留言。
需要明确的是,如果 1047 提案最终被通过,它会大幅度增加大公司们的开发成本,进而可能改变它们在人工智能这项业务上的策略。
为什么这么说?举一个例子----
1047提案要求:就算你的公司对自己所开发的人工智能进行了“对齐”,确保它不会做坏事,但如果你把你的AI开源了,其它的开发者撤销了“对齐”,然后用它去做坏事,你仍然要承担责任。
这项要求,必然导致大公司将不再对自己的大模型开源,因为犯不着。
而这最终将影响整个软件开发的生态,乃至扼杀新兴的人工智能创业公司。
尤其的,如果考虑到中美之间的差距,这必将影响国内诸多创业公司。
更值得担心的是,我们已经在许多行业见证过,过度的合规要求将占用从业者大量的时间和精力,从而影响核心业务的进展。
2.1047提案真的会有用吗?
目前,人工智能可能会造成的风险可以分为两种:意外后果和故意滥用。
意外后果是许多科幻作品经常预测的场景:当人工智能不断进化,它们开始拥有自主的意识。如果它们与人类的基本价值观相冲突,就可能会导致灾难性的结果。
1047 提案似乎侧重于解决这一类风险,它预设了人工智能本身是危险的,要求开发人员对大模型进行安全评估,以识别可能存在的风险。
比如,1047 提案要求:当人工智能出现问题时能够及时将其关闭,并且需要报告给新成立的监管部门。
他还要求:即使大模型运行良好,开发者也需要通过“安全认定”来证明技术是安全的。该认定每年都需要进行一次。
硅谷的从业者们认为,这些规定从表面上看似乎很合理,但在实践中却不大可能非常有效。
意外结果之所以被称为意外,就是因为它难以预测和预防的。
无论是科学界还是商业界,都还没有真正解决这种意外难题,即使采取了最严格的安全评估和预防措施,人工智能系统也有可能以有害的方式发展。
实际上,更值得担心的是故意滥用——将人工智能武器化,对人类造成伤害。
但1047 提案恰好对此没有做做出约束。
而且即便有,也无用。因为这类人本身就没想着遵守立法,他们也很大概率在加州的管辖范围之外,这使得执行这项提案变得困难。
实际上这是1047法案(以及未来更多的类似法案)将面对的一个尴尬的难题:好人被束缚,坏人管不了。
初创公司Zapier的联合创始人兼人工智能负责人Mike Knoop 就说:我们应该监管不良用户,而不是开发者和科学家。
过去,人类面对技术的进步,往往都采取了谨慎的原则,比如限制获取浓缩铀等裂变材料的途径,从而避免非法分子制造大型杀伤武器的可能性。这对于这类易于识别的危险非常合理,然而,到了人工智能,情况变得有些复杂。
人工智能带来的潜在威胁经常被提及,但它可能造成的生存威胁显然并非迫在眉睫,带来的好处却是显而易见的,从语言翻译到前沿科学的研究,人工智能的潜在效益是如此巨大。
退一步来讲,人工智能的带来的风险也是一个持续挑战,它也不太可能通过一项法案来解决问题,更需要的应该是一种“共识”。
被誉为“AI教母”的李飞飞在她的自传《我看见的世界》中提到:在科学和工业领域,推动人工智能发展的动机是什么,这个问题非常重要。我认为这个动机必须明确地以人为本。
3.我们到底该如何保障人工智能的安全?
人工智能目前并未对我们的生活造成威胁,这也许是吴恩达、杨立昆们认为监管还为时过早的原因之一。
但也有“另一派”科学家表达了不同的观点。
比如“AI教父”杰弗里·辛顿(Geoffrey Hinton)就认为:危险很快就会到来。
实际上,有超过70%的研究人员对AI潜在的滥用风险表示“实质性”担忧。
有顾虑的不仅仅是技术人员。根据调查,近40%的美国人对人工智能的使用担忧多于兴奋,而只有15%的人表示相反。
这是个巨大的理解鸿沟,技术人员不仅需要向公众作出解释,也需要弥合他们彼此间的理解偏差。
尤其需要注意的是,这是一个跟我们每个人未来十年、二十年、三十年的日常生活都休戚相关的议题。
4.所以对于这个议题,你我需要做什么?
答案也许是:从前言的科学家的著作里(而不是某些采访稿中的只言片语)中去寻找值得你关注的洞察。
比如,上面提到的杨立昆。
他在他的自传《科学之路》中对于这个议题有深入的展开:
“我们对人工智能想要获得权力的恐惧主要来自人性特质在机器上的投射。
大多数人容易混淆智力和人性,统治的意愿与智力无关,更多的是睾丸素分泌的问题。我们之中最聪明的人并不总是渴望成为领导者,在国际政治舞台上有很多明显的例子。
一些商业公司经常会邀请优秀的科学家担任管理者,但许多人都拒绝了,他们更想直接参与研究而非管理。”
以非社会性物种红毛猩猩为例,它们几乎和人类一样聪明,其大脑尺寸是我们的一半。红毛猩猩是独居动物,它们会避免进入其他群体的领地,它们的社交关系仅限于两年内的母子关系以及地盘冲突。
进化并没有使它们产生统治自己邻居的欲望: 没有社会结构,就没有统治体系。
人类为了生存,进化出了许多冲动和情感,其中包括好奇心,对探索的渴望、竞争力、屈服、渴望与我们的同类接触、爱、仇恨、掠食,以及我们对家庭成员、我们的部族、我们的文化、我们的国家的偏爱。只有当我们在智能机器中明确地建立了这种欲望时,它们才会渴望统治人类。
人类在将道德价值体系编纂入法律方面具有丰富的经验,这些价值会被编码,以使得许多非凡的智慧和力量的实体得以良好运转。
另一方面,这些价值也被教育编码:几千年来,我们一直在教育孩子辨别是非,并努力在社会中表现良好。我们也有理由相信,人类也可以把这些编码在机器当中。”
以上就是杨立昆在其书中的观点。
如果你感兴趣,可以直接在下面橱窗购买,该书是我们跟出版社直接合作推广的,绝对正版,童叟无欺。
PS. MindCode在之前在另一篇文章里所推荐的另一位AI科学家李飞飞的自传,你也应该买来看一看。
杨立昆的自传,点击即可购买:
这是“图灵奖”得主、“深度学习三巨头”之一、“卷积神经网络之父”,杨立昆的科学之路。一段关于勇气和逆袭故事。
你将看到:他用自己的经历证明进入名校不是科学成功的唯一路径。在人工神经网络研究的低谷期,他寂寞地坚持,终于取得了举世瞩目的成就。
文君是谁?
科技领域连续创业者(目前在AI+心理领域),中美两家AI公司的GPT战略顾问,原阿里巴巴早期移动端核心产品负责人,CEO心智与战略教练。未来一段时间,也许你关注的某些重要的AI产品,或某些备受关注的项目融资,背后就有他身影。
MindCode是什么?
一个刚刚决定写点好东西的、很小众的公众号。日常发短篇,偶尔有深度长文。关注:AI、脑科学、心理学、创业等。由于在几个关联领域都有很深入思考,关注者中不乏顶级牛人,比如xxx和xx。
AI时代,读他人之未读对你很重要。关注并发送“1”可加讨论小群。