字节跳动正式通报:已辞退!

时事   2024-10-20 08:09   上海  

字节跳动大模型训练

被实习生“投毒”


10月18日,多个微信群流传一则消息:“某头部大厂的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。



界面新闻从知情人士处获悉,该头部大厂为字节跳动。此事发生在今年6月,起因是某高校的博士在字节跳动商业化技术团队实习,因对团队资源分配不满,使用攻击代码破坏团队的模型训练任务。


传闻显示,该田姓实习生利用了HF(huggingface)的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果,而且AML团队无法核查原因。但传闻曝出之后,该实习生还在某微信群里辟谣称,自己发完论文后就从字节跳动离职,这个当口有另一个人钻漏洞改模型代码,把锅扣到自己头上。


界面新闻从知情人士处了解到,字节跳动内部已经调查明确此事为田姓实习生所为。目前,该实习生已被辞退,字节跳动同时把此事同步给大模型行业联盟和该实习生所在的学校。但这名实习生被辞退后到处“辟谣”甩锅,称是其他人所为。


一位技术安全专家告诉界面新闻,HF漏洞产生肯定是单一性集中训练,此事暴露了字节跳动技术训练存在安全管理问题。公司既没做权限隔离,也没有做好共用代码的审计。正常情况下,每次大的代码变动必须做审计,无论谁做操作都有痕迹记录,一个人想动代码是不可能的。


上述技术安全专家表示,目前行业通用的做法是做三级隔离导向性部署,每一级只有镜像,每次先扫描。调用按次算、必须密钥。每一级完成后,才能进入下一级,而上一级自动删除,进行分级训练。


字节跳动正式通报!


字节跳动知情人士向记者透露称,近期公司确实发生过破坏模型训练一事,但传闻存在夸张和虚构的部分,该事件实际发生在今年6月底,田某某是在商业化技术团队实习,因为对团队资源分配不满,使用攻击代码破坏团队的模型训练任务,千万美元损失的数字也有所夸大。

另外,上述知情人士称,受代码入侵影响的业务不是豆包大模型,而是商业化技术团队的模型训练任务,影响了广告部门的部分技术工作,实习生通过共享模型进行入侵的部分也不属于集团大模型。

针对这一事件,字节跳动官方于19日下午也发布了官方声明,提及目前该实习生已被辞退,公司也将相关情况同步给行业联盟与实习生学校。


此次事件暴露出字节跳动技术训练中存在的安全管理问题,包括权限隔离、共用代码的审计等。一位行业人士对记者表示,进行权限隔离与审计利于保护公司核心数据与知识产权,防止数据泄漏,提高数据与系统的安全性。比如实时监控权限使用情况,及时发现权限滥用和异常操作;定期审计权限,检查团队成员的权限是否符合授权策略,是否存在权限滥用的情况等。但这件事也有难度,包括跨部门合作成本、经常性维护与更新的资源投入等。

最新的字节跳动大模型信息披露发生在今年10月15日,火山引擎在视频云技术大会上发布了大模型训练视频预处理方案,助力解决视频大模型训练的成本、质量和性能等方面的技术挑战。目前,该技术方案已应用于豆包视频生成模型。


来源 | 综合界面新闻、第一财经

编辑 | 陆靖珺


新闻晨报
关注热点 贴近民生 新鲜有料 尽在晨报
 最新文章