上一讲我们讲了AGI如果到来,人类会以什么方式接受它?并如何和它们相处?
AGI是很强大,但我们不应该把什么任务都交给AI,不能让AI自动管理社会,任何情况下,真正的决策权都应该掌握在人的手里。为了确保民主制度,投票和选举都必须由人来执行,人的言论自由不能被AI取代或者歪曲。
即如此,那人类与AI将来以什么方式进行相处?以什么方式进行合作分工?
在强大的AGI面前,每个人都需要思考一个问题——人到底有什么能力是不可被AI替代的?
《权力与预测》这本书中有一个洞见,我认为有可能就是AI和人分工的指导原则。简单说,由双方共同做出决策,其中AI负责预测,人负责判断。
要理解这一点,我们先来看一个真实的案例。美国网约车公司Uber (优步)一直在测试自动驾驶汽车。2018年,Uber的自动驾驶汽车在亚利桑那州撞死了一个行人,引起了激烈的讨论。
仔细分析这个事故,我们会发现,在撞击前6秒,AI已经看到了前方有一个未知物体。它没有立即做出刹车的决定,因为它判断那个物体是人的概率非常低--虽然概率并不是0。
AI有个判断阈值,只有在前方物体是人的概率超过一定数值的情况下,它才会刹车。撞击前6秒,概率没有超过阈值;等到终于看清是人的时候,刹车已经晚了。
我们把刹车决定分为“预测”和“判断”两步。AI的预测也许不够准确,但是它已经预测出这个物体可能是一个人,它给出了不为0的概率。接下来的问题是出在判断上--在这个概率上应不应该踩刹车,是这个判断导致了悲剧。
Uber的AI用的是阈值判断法,这可以理解为如果对前方任何一个“是人的概率不为0”的物体,AI都需要刹车,它就会在路上不停地踩刹车,这个车就没法开了。当然你可以认为这个阈值不合理,但是这里总需要一个判断。
请注意,正因为现在有了AI,我们才可以做这样的分析。以前发生过那么多人类司机撞人的事故,从来没有人去分析那个司机是犯了预测错误还是判断错误。但这种分析其实是完全合理的,因为两种错误性质很不一样。
那我们想像一下,如果人类司机看到前方有物体感觉像人,但是这个可能性并不是很大,又因为赶时间,司机就可以因为这个可能性不是很大而直接开过去?
那请问,这个司机犯的到底是预测错误,还是判断错误?
所以我们可以认为决策就等于“预测+判断”。
预测,是告诉你发生各种结果的概率是多少;判断,是对于每一种结果,你在多大程度上愿意接受。
关于如何基于预测的概率做决策?我们再来看一个例子。假设你周末有个户外聚会, 要不要为此租个帐篷防止下雨,这是你的决策。天气预报告诉你那天下雨的概率是30%,这是预测。面对这样一个概率,下雨的损失是不是可以接受的,这是你的判断。
通常来说,只要采取行动的代价(帐篷的租金)小于损失(下雨会给你带来的麻烦)和概率的乘积,就应该采取行动,租个帐篷防止淋雨。但是在这个点的视角下,请注意,这个“应该”,应该理解成是对你的建议。
是否采取行动的拍板权还是在你手里,因为那个损失最终是由你来承受的。AI不会承受损失,用公式给你提建议的人也不会承受损失。在场来宾--是英国女王也好,是你岳母也罢--淋雨这件事是大是小,不是AI所能知道的,那其实是你自己的主观判断。
AI很擅长预测天气概率,但是判断一个天气状况带来的后果,需要更多具体的且只有你自己才知道的信息,所以做判断的应该是你,而不是AI。
AI时代的决策=AI的预测+人的判断。
也就是说,我们应该让预测和判断脱钩。以前所有的决策都是人负责预测,人负责判断,现在则应该是AI负责预测,人负责判断。
我们承认AI 比人聪明,但是真正承受风险、体验后果的是人,所以最终拍板判断的必须是人。就好比你是一个企业主,聘请了一位非常厉害的职业经理人做你公司的CEO,他在所有方面的能力都超过你,那你能把决策权都交给他吗?不能。因为公司是你的,万一赔钱赔的可是你的钱。同样地,AI再厉害,也只能让人类医生承担医疗责任,让人类警察行使执法权,让人类领导者掌握核按钮。只有人能以血肉之躯承担后果,我们只能向人问责。
预测是客观的,判断是主观的。AI不能僭越人的判断,人也不应该专断AI的预测。所以AI时代,AI与人需要各安其位,分工明确!
今天的分享就到这里,如果你有收获,请点赞关注支持下,感谢!