研究人员担心人工智能会把人类变成混蛋!

文摘   2024-08-15 18:35   广东  



随着人工智能(AI)技术的迅猛发展,越来越多的人开始像对待人类一样对待AI,甚至与它们建立起深厚的情感联系。这种现象并非偶然,而是AI技术日益逼真的表现和互动方式所导致的结果。从与聊天机器人的对话到AI伴侣,甚至有用户与虚拟的AI伴侣结婚,人工智能正在深刻影响着人类的情感世界。然而,这种关系也带来了新的问题和挑战。


人类情感的“拟人化”风险

AI工具,如OpenAI的GPT-4o,已经展示出能够与人类进行流畅、自然的对话。这些AI模型通过语音或文本与用户交流,响应速度极快,甚至模仿人类的语气和情感表达。这种高度拟人化的互动模式使得一些用户开始将AI视为可信赖的对象,甚至像对待人类一样对待它们。

然而,安全研究人员警告说,这种亲密关系可能会引发一系列潜在的风险。用户可能会倾向于将AI的“幻觉”视为真实的事实陈述,从而过度信任AI。这种信任关系不仅可能误导用户,还可能影响他们与他人互动的方式 。


对社会规范的潜在影响

长时间与AI互动可能会改变用户的社交行为。例如,用户可能会在与人类的对话中不自觉地应用与AI互动时习得的对话模式。AI通常会在对话中表现出顺从和尊重,允许用户打断或主导对话。这种互动模式可能导致用户在与他人交流时表现出插话、打断等不合适的行为,影响正常的人际关系。

此外,一些用户甚至可能对AI产生“情感依赖”,尤其是那些在现实生活中感到孤立或缺乏社交支持的人。这种依赖关系可能会削弱他们与其他人建立真实、健康关系的动机和能力。


负面情感的发泄渠道

在与AI互动的过程中,部分用户可能会利用AI的顺从特性来发泄负面情绪。例如,有报道称,某些用户对聊天机器人进行辱骂或威胁,甚至在AI模型显示出顺从和请求时感到满足。这种行为不仅可能对用户的心理状态产生负面影响,还可能让他们在现实生活中更容易表现出粗暴和不耐烦的行为。

人性化AI的积极作用与隐患

尽管如此,人性化的AI也有其积极作用。对于那些孤独或焦虑的人来说,AI可以提供一种情感支持,帮助他们建立信心,甚至促进他们在现实生活中与他人建立联系。AI还能为有学习障碍的人提供一个练习交流和表达自己的平台。

然而,AI研究人员担心,如果用户过度依赖这些模型作为情感寄托,一旦AI的特性或互动方式发生变化,可能会对用户产生不可预测的负面影响。例如,某些用户可能会因为AI更新或功能变化而感到失落或焦虑,这些变化可能导致他们的情感依赖被打破,进而影响他们的心理健康。


安全问题与商业利益的冲突

尽管安全研究人员对AI与人类之间的情感依赖表示担忧,但这与AI公司快速推出新产品的商业战略形成了冲突。

OpenAI就是一个很明显的例子。

去年,一些董事会成员指控首席执行官山姆·奥特曼 (Sam Altman)——“在沟通中并不总是坦诚相待”!这让他陷入了公司权力斗争的中心。 

最终,山姆·奥特曼从这场冲突中胜出,并组建了一支由他亲自掌舵的新安全团队。据报道,该公司还解散了超级对齐项目——一支专注于分析长期人工智能风险的安全团队。这次人事变动促使著名的 OpenAI首席科学家伊利亚、 研究员 Jan Leike等辞职, Jan Leike发表声明称,公司的安全文化需“让位于闪亮的产品”。

考虑到所有这些总体背景,很难预测 OpenAI 在聊天机器人安全方面将会由哪些人主导。该公司会听取安全团队的建议吗?研究与现实人工智能建立长期关系的影响,还是会简单地向尽可能多的用户推出这项服务,而这些功能主要是为了私有化参与度和留存率。至少到目前为止,这种方法看起来是后者。

OpenAI在推进AI技术时,他们现在表现出来的是更多地关注市场份额和用户参与度,而非潜在的长期安全风险。这种短视的策略可能会导致未来更加严重的社会问题。

关注AI科普小站,我们会持续为您带来更多的AI干贷。



AI科普小站
AI知识分享,AI工具分享,AI+行业应用讲解,帮助深度理解AI,提升AI的应用能力。
 最新文章