重磅!OpenAI政策研究负责人宣布离职

旅行   2024-12-02 06:00   北京  

OpenAI的政策研究团队又一位重要成员离职了!

Rosie Campbell在OpenAI工作了约3.5年后,宣布离开这家人工智能巨头。这一消息引发了业内对AI安全和政策研究方向的广泛讨论。

Rosie在OpenAI的工作主要集中在API安全政策研究领域。

她与Miles Brundage密切合作,专注于AI治理、前沿政策问题和AGI(通用人工智能)准备工作

在离职前,Rosie在公司内部Slack上分享了一条感人的告别信息。她表示:

我一直强烈地被确保安全和有益的AGI这一使命所驱动。在Miles离开和AGI准备团队解散后,我相信我可以在外部更有效地追求这一目标。

这段话透露出Rosie对OpenAI近期发展方向的一些担忧。

她提到了公司内部的一些变化,特别是过去一年左右的一些转变让她感到不安。

Rosie在告别信中还提出了几点建议,希望OpenAI能够:

  1. 记住使命不仅仅是「构建AGI」,还有很多工作要做以确保它造福人类。

  2. 认真对待当前安全方法可能不足以应对未来更强大系统的前景。

  3. 即使不方便或难以面对,也要尝试说出真相。

  4. 以适当的严肃态度行事:我们正在构建的不仅仅是另一个科技产品。

从这些建议中,可以出Rosie对AI发展的深思熟虑,以及对负责任AI研发的坚持。

那么,Rosie离开OpenAI后打算做什么呢?

她表示会先休息一段时间,用来阅读、思考和写作。

同时,她也希望与更多人讨论AI安全和政策的现状,以及存在哪些差距,然后再决定下一步的职业规划。

Rosie还列出了一系列她正在思考的问题:

  • 在安全、政策和治理方面,我们需要解决哪些最重要的差距,才能为AGI的良好过渡做好准备?

  • 如何通过讲故事和文化来提高人们对AI风险和影响的认识?

  • 评估作为AI安全和治理方法的局限性在哪里?

  • 我们应该如何应对潜在的AI知觉和道德患者身份问题?

  • 如何与在某种相关意义上具有「目标」和「偏好」的AI系统合作?

  • 如何利用AI改善我们的认识论和意义构建能力(并抵消AI降低这些能力的方式)?

这些问题涵盖了AI安全、伦理、治理等多个关键领域,能看出Rosie对AI发展有着较为全面思考。

Rosie的离职,加上此前Miles Brundage的离开,似乎预示着OpenAI在AI安全和政策研究方面可能正在经历一些调整。

👇

👇

👇

👇

本文同步自知识星球《AGI Hunt》

星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。

  • 每天约监控6000 条消息,可节省约800+ 小时的阅读成本;

  • 每天挖掘出10+ 热门的/新的 github 开源 AI 项目;

  • 每天转译、点评 10+ 热门 arxiv AI 前沿论文。

星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)

  • 一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;

  • 二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。

欢迎你的加入!

AGI Hunt
关注AGI 的沿途风景!
 最新文章