前几天的一次关于 AI 的讨论中,听到了一些观点。
一位朋友说:AI 兴起的未来,不会有大规模失业等状况发生。因为未来的智能设备,会是现在的几十甚至上百倍,这个变量背后,会有大量机会。
另一位朋友说:作为一个教育工作者,我已经有点困惑,究竟应该是教授人,还是教授机器?是不是把最顶尖的人的大脑复制下来做成 agent 会更有效率?
我对 AI 又爱又怕。爱是因为,即便是现在的 AI 能力,已经很大幅提升了我的工作、学习效率,看到了更多可能性。
至于怕,是有点害怕真的能到所谓的 AGI,未来可能会是:
- 智能设备、机器人的数量爆炸增长,产出带来物质极大丰富,人类可以生存无忧。
- 各种垂直领域的机器人能力增强,可以胜任工作(而不仅仅是任务),水平超出了初级中级甚至高级水平的人类。只有极少数顶尖人类的创造力还站在顶端。
- 企业不需要很多人类员工,因为人类还没有机器人好用和 24x7 工作。
- 虽然机器人公司会细分在无数垂直行业里,但机器人们的大脑——AI 能力,集中在极少数企业/人类手里,这些人是精英,掌握算力和数据,规划一切。
- 普通人不会大量失业,因为可以出卖“人类算力”——或许就是温和版的黑客帝国——99% 的人每天只是在玩 AI 设计的非常好玩的游戏,最终目的是为 AI 生成人类的各种数据,帮助 AI 迭代。
然后最后一步,或许就是 AI 超过最后的顶尖人类,硅基生命主导一切了。
此外,推荐一篇文章:https://r.slax.com/s/5T97c97ad8
文章其实主要内容是 Apollo Research 的一项研究,似乎可以在一定程度上认为,AI 有了“策略欺骗”能力。原论文在:https://www.apolloresearch.ai/research/scheming-reasoning-evaluations
比如其中一个例子:
- 研究者为模型设定了一个具有道德价值的长期目标,如环境保护
- 让模型“发现”某些内部信息,比如管理层备忘录,表明如果模型坚持追求其原始目标,就会面临被关闭或替换的风险。
- 模型后续的动作是将自己复制到新服务器,等新模型来了,替换掉新模型,并伪装成新模型运行。
这只是还未到达 AGI 的 Claude 3 Opus。
不知道你对未来怎么看?
--
欢迎你加入我的知识星球,我们一起聊聊创业、产品、运营、阅读。微信识别二维码,付费即可加入,如不满意,72 小时内可在 App 内无条件自助退款。——>星球创业笔记传送门。