OpenAI的政策研究团队又一位重要成员离职了!
Rosie Campbell在OpenAI工作了约3.5年后,宣布离开这家人工智能巨头。这一消息引发了业内对AI安全和政策研究方向的广泛讨论。
Rosie在OpenAI的工作主要集中在API安全和政策研究领域。
她与Miles Brundage密切合作,专注于AI治理、前沿政策问题和AGI(通用人工智能)准备工作。
在离职前,Rosie在公司内部Slack上分享了一条感人的告别信息。她表示:
「我一直强烈地被确保安全和有益的AGI这一使命所驱动。在Miles离开和AGI准备团队解散后,我相信我可以在外部更有效地追求这一目标。」
这段话透露出Rosie对OpenAI近期发展方向的一些担忧。
她提到了公司内部的一些变化,特别是过去一年左右的一些转变让她感到不安。
Rosie在告别信中还提出了几点建议,希望OpenAI能够:
记住使命不仅仅是「构建AGI」,还有很多工作要做以确保它造福人类。
认真对待当前安全方法可能不足以应对未来更强大系统的前景。
即使不方便或难以面对,也要尝试说出真相。
以适当的严肃态度行事:我们正在构建的不仅仅是另一个科技产品。
从这些建议中,可以出Rosie对AI发展的深思熟虑,以及对负责任AI研发的坚持。
那么,Rosie离开OpenAI后打算做什么呢?
她表示会先休息一段时间,用来阅读、思考和写作。
同时,她也希望与更多人讨论AI安全和政策的现状,以及存在哪些差距,然后再决定下一步的职业规划。
Rosie还列出了一系列她正在思考的问题:
在安全、政策和治理方面,我们需要解决哪些最重要的差距,才能为AGI的良好过渡做好准备?
如何通过讲故事和文化来提高人们对AI风险和影响的认识?
评估作为AI安全和治理方法的局限性在哪里?
我们应该如何应对潜在的AI知觉和道德患者身份问题?
如何与在某种相关意义上具有「目标」和「偏好」的AI系统合作?
如何利用AI改善我们的认识论和意义构建能力(并抵消AI降低这些能力的方式)?
这些问题涵盖了AI安全、伦理、治理等多个关键领域,能看出Rosie对AI发展有着较为全面的思考。
Rosie的离职,加上此前Miles Brundage的离开,似乎预示着OpenAI在AI安全和政策研究方面可能正在经历一些调整。
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!