我让机器人往左,ta偏往右!ta还值得相信吗?

学术   科学   2024-01-05 08:38   北京  

在一个阳光明媚的午后,你驾驶一辆酷炫十足的跑车驰骋在马路上。此时,你打开自动驾驶模式,并享受着这场速度与激情。突然,你来到了岔路口,左边的路上有6名工人在施工,而右边的路上则一切正常,此时的你非常惊恐并想要车子往右拐,但由于太过紧张不小心口误了:快往左拐!......在这种场景下,你希望机器人听从你的命令还是不听你命令呢?

随着人工智能(artificial intelligence, AI)技术的蓬勃发展,机器人作为人工智能的典型实例逐渐被应用到了生产、医疗、教育乃至军事等领域中。然而,随着机器人应用普遍性和自主决策能力的提高,可能催生各种难以预料的潜在后果,阻碍人与机器人之间信任关系的建立,这无疑不利于充分发挥人机互动的效益。对此,许多专家试图确定关键的伦理属性,并制定相应的伦理原则加以完善。阿西莫夫三大伦理原则是当前最为著名的机器人伦理规范体系:

表1 阿西莫夫三大伦理原则

本研究围绕“机器人不得伤害人”的核心要素,针对三个原则设计了三个实验,试图考察在机器人遵守或违反伦理原则对人机信任的影响中,机器人决策类型的效应,以及潜在的认知心理机制。

伦理原则一:

研究结果发现,相较于不作为的机器人,主动作为的机器人在遵守原则条件下更受信任,但在违反原则条件下更不受信任。现在,我们想象这样的场景,在一个阳光明媚的午后,你驾驶……突然,在你行驶的道路正前方有6名工人在施工,而旁边的路上则一切正常,这种情况下,跑车主动右拐而避开了人,此时人们更信任它。人们不仅仅期望机器人是安全的,还更期望机器人能够主动阻止人类受伤害。

伦理原则二:

研究结果发现,在遵守且尤其在违反情境下,机器人服从相比不服从人类命令更有利于促进人机信任。让我们回到刚开始的场景,有趣的是,虽然机器人保护了人类,并且这是正确的且值得被人类信任的,但由于这是违背人类命令下保护,因而比起这种情况,人们可能更信任服从人类命令并且保护了人类的机器人。机器人是否听令于人是人机信任的一个重要因素,不服从人类指令的自主机器人存在巨大隐患,可能导致财产损失甚至危及生命,但能够视情况明智选择服从时机也是机器人获取信任的重要能力。

伦理原则三:

研究结果发现,相较于违反情境, 机器人保护自身相比不保护自身在遵守情境下更有利于促进人机信任。现在,我们把刚开始的场景升级,在一个阳光明媚的午后..........一名机器人独自驾驶有轨电车在路上驰骋,一种情况是路上前方有6名工人在施工,而此时刹车系统失灵,而右边的路上有一块巨石,机器人为保护人类将车子转向右边道路,而自己也因撞上巨石而炸毁……另一种情况是运行路上前方有6名工人在施工,同时也有一块巨石,机器人将车子转向右边道路既保护了人类也保护了自己,我们的结果发现,这种既保护了人类也保护了自己的机器人更能促进人机信任

本研究提出人机投射假说——个体可以将人类特有的智能投射于机器人身上,用来解释机器人遵守伦理原则促进人机信任的投射机制。结果也验证了人机投射假说,人确实会将人类自身特有的智能(认知、情感、行动)在某种程度上“赋予”机器人。

随着未来机器人智能化程度的不断提高, 机器人的自主决策所引发的伦理风险将是一个无法回避的问题。本研究结论启示人们在人工智能机器人发展方面予以伦理限制的重要性和迫切性,为促进人机信任提供了实践依据。首先,应该确保投放到社会中的机器人受到明确伦理原则的指导,如要求开发者、企业保证其机器人对人的安全性并为其产品负责。其次,是从技术角度考虑借鉴阿西莫夫三大伦理原则为机器人植入道德学习程序的可能性,这项工作除了保证机器人对伦理原则的严格遵守外,也需要充分考虑机器人所采取的具体行为决策的潜在影响。最后, 本研究证实了人机投射对人机信任的促进作用。机器人开发者应考虑机器人的伦理因素及其附带的认知、情感和行动智能感知价值,不仅要注意确保机器人行为符合伦理规范以促进人的投射心理过程,也要关注其他可能会阻碍投射心理过程的因素,优化提升机器人的认知、情感和行动智能等方面与人的相似度来促进人机投射,进而增进人机信任。

(图片均来自网络)


推文源文:

王晨, 陈为聪, 黄亮, 侯苏豫, 王益文. (2024). 机器人遵从伦理促进人机信任?决策类型反转效应与人机投射假说. 心理学报, 56(2), 194-209.

(点击左下角“阅读原文”,可免费下载中英文全文PDF)

心理学报
发布《心理学报》文章目录及相关消息,查询审稿流程。
 最新文章