神经网络偏爱某些特征?这可能影响你的行为!
最近,一项来自 MIT 和蒙特利尔大学的研究引起了广泛关注。这项研究揭示了人工神经网络和生物大脑在特征表征上存在惊人的相似性,这可能对我们理解认知过程和改进 AI 系统有重大影响。
特征表征偏差:AI 和大脑的共同点
研究发现,无论是人工神经网络还是生物大脑,都倾向于对某些特征进行过度表征。这意味着某些特征会被更多的神经元编码,而其他特征则相对被忽视。
在人工神经网络中,这种偏差可能受到多个因素的影响:
特征提取的难易程度
训练数据中特征的出现频率
特征学习的顺序
偏差如何影响行为?
更有趣的是,这种表征偏差似乎会直接影响下游任务的表现。研究显示,当过度表征和欠表征的特征都能高度预测输出时,系统会更依赖于过度表征的特征来做出决策。
这一发现在人类行为中也得到了证实。在一项视觉流辨别任务中,尽管扩张式视觉流在大脑中被过度表征,但人类观察者却倾向于报告收缩式视觉流的存在。这看似矛盾的结果实际上与 AI 系统的行为模式一致。
从实验室到现实世界
研究者们推测,这种行为模式可能是在高信噪比的自然环境中形成的。在这种情况下,依赖过度表征的特征是一种有效策略。然而,当我们在实验室低信噪比条件下测试时,这种策略反而导致了偏差的出现。
对 AI 研究的启示
这项研究为我们提供了一个新的视角来评估 AI 系统与生物大脑的相似度。研究者提出,最接近大脑的 AI 模型应该能捕捉到相同的表征偏差。这为未来的 AI 对齐研究提供了一个新的评估标准。
然而,这也带来了新的挑战。要构建一个真正对齐的 AI 系统,我们需要考虑诸多因素,包括任务的复杂性、学习顺序,以及环境统计数据等。这意味着,打造一个与大脑高度对齐的 AI 系统将是一项艰巨的任务。
这项研究不仅深化了我们对人工智能和生物智能的理解,还为未来的 AI 研究指明了方向。
它提醒我们,在追求 AI 性能提升的同时,也要关注 AI 系统的内部表征机制,这可能是通向更智能、更可解释 AI 的关键。
相关链接
👇
👇
👇
👇
本文同步自于知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
- 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
- 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
- 每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
- 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
- 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!