今日,外媒爆料的一则 OpenAI 前员工的悲剧新闻震惊科技界:
26 岁的 OpenAI 前员工 Suchir Balaji,曾在两个多月前公开揭露 OpenAI 内部黑幕。
而今,警方公布,Balaji 上月底在旧金山公寓中自杀身亡,未发现他杀证据。
原本,这位吹哨人手中掌握的信息,将在针对 OpenAI 的诉讼中发挥关键作用。
吹哨人的最后一搏
Suchir Balaji,曾在 OpenAI 工作四年,曾参与 OpenAI 参与开发 ChatGPT 及底层模型的过程。
在去世前两个月,Balaji 发表了一篇详尽的分析文章,指出 OpenAI 训练 ChatGPT 违反法律。(地址 https://suchir.net/fair_use.html,有兴趣的读者可自行查看)
他强调,希望这不要被解读为对 ChatGPT 或 OpenAI 本身的批评,而是对整个行业的一次深刻反思。
Balaji 指控内容是,OpenAI 在使用新闻和其他网站的信息训练其 AI 模型时,涉嫌非法调取,违反 “合理使用” 原则。
Balaji 在长篇博文中列出了详尽的分析,引用了 1976 年《版权法》第 107 条中对 “合理使用” 的定义,并从四个因素进行了详细论证。他得出结论:从这四个因素来看,它们几乎都不支持 “ChatGPT 在合理使用训练数据”。
Balaji 的指控并非特例。
自 2022 年底公开发布 ChatGPT 以来,OpenAI 就面临着来自作家、程序员、记者等群体的诉讼潮。
他们认为,OpenAI 非法使用自己受版权保护的材料来训练 AI 模型,而公司估值却攀升至 1500 亿美元以上。
外媒报道,律师指出,Balaji 掌握着 “独特的相关文件”,在 “纽约时报对 OpenAI 的诉讼” 中,这些文件极为有利。
理想主义者的悲剧
Balaji 在加州长大,十几岁时,他看到一则关于 DeepMind 让 AI 自己玩 Atari 游戏的报道,激发了他对 AI 的兴趣,高中 gap year 时间,Balaji 自主探索了神经网络数学系统相关的知识。
媒体全面起底 Balaji 时,发现了 Balaji 曾经的美好憧憬 —— 在大学期间他曾发表言论:“相信 AI 能为社会带来巨大益处,比如治愈疾病、延缓衰老。” 在他看来,“我们可以创造某种科学家,来解决这类问题。”
后来,他本科进入 UC 伯克利,主修计算机科学。2020 年,他和一批伯克利的同学共同前往 OpenAI 工作。
然而,在 OpenAI 担任两年研究员后,他的想法开始转变。
在 OpenAI 他被分配的任务是为 GPT-4 收集互联网数据,几乎分析了互联网上所有英语文本。
Balaji 在这个过程中不免觉察到一些 “冒犯理想主义” 的问题存在,并且,他指出,各个领域的众多生成式 AI 产品都存在这个问题。
今年 10 月,Balaji 在公开平台发布长篇博文,指控 OpenAI 训练数据来源不正当。
10 月中旬,《纽约时报》发表了对 Balaji 的采访,他强调,OpenAI 正在损害那些数据被利用的企业和创业者的利益。
11 月 26 日下午 1 时许,警方接到报警,后证实 Balaji 自杀离世。
Suchir Balaji 的去世,不仅是一个年轻生命的消逝,更是对整个人工智能行业伦理和法律边界的一次深刻拷问。
他的死亡激起了外网重新审视 AI 技术的发展,以及它对社会影响的反思和讨论。
维科网人工智能
合作联系
Alice
电话 / 微信 13122434666
邮箱 liushuimiao@ofweek.com
维科网人工智能
推荐阅读