字节要求攻击大模型的实习生赔偿800万。。。

科技   2024-11-29 12:49   美国  
你好,我是郭震!
不知道大家这几天听说AI圈发生的一件事没有,就是字节起诉实习生篡改代码,并要求这位实习生赔偿800万,并公开道歉:
目前此案已由法院正式受理:
800万的赔偿,别说对于一个还未毕业的实习生,就是工作10年的老人也未必一下能拿得出来。
那么为啥字节终究还是没忍住这口气,还是要通过正规渠道,起诉这位实习生呢?
先来看看事情的经过,2024年10月,一则字节大模型在训练中被实习生攻击的言论,被引发广泛关注,传言称涉及 N多显卡,损失达到千万美刀:
很快字节发声,说确有此事,但事实被夸大了,应该说的就是损失千万美元应该不至于这么多:
这位实习生田某什么来头?
根据公司核实,田某没有AI Lab实习经历:
但田某却能通过篡改代码,成功攻击到大模型。虽然不是AI Lab的,但是就是做到了。
看来攻击大模型这件事,难度并没有想象的那么大。事实是如此吗?
答案是 Yes
通过修改代码攻击大模型,早在2021年就有研究者在计算机安全顶会USENIX发表paper,提出了AI系统存在代码修改被攻击的风险。
这种攻击的专业术语叫做 Blind backdoor attack
只需要修改少量的代码,就能达到极高的攻击成功率。具体的方法我就不在这里展开了,感兴趣的可以去查下,论文如下截图所示:
AI技术正在快速发展,但AI的安全风险有时却不被重视,导致了内部人员很容易就能攻击到AI系统的问题。
这种问题带来的后果还是比较严重的,否则字节也不会没忍住这口气,起诉这位实习生。损失不仅是看得到的金钱损失,还有训练时间的耽搁,工期的延误,商业拼的是技术,拼的也是时间。
因为AI系统安全防护的滞后,内部人员往往可以找到走后门的方法,去迫害AI系统,有时这也是不可避免的。
既然技术手段无法100%防护到,当出现了这样的情况后,严厉的处理,并通过法律和对于个人而言的“巨额”索赔,未尝不是一种好方法。能给后来人一种很好的警示,以防止此类事件再次发生。
总之,AI是一把双刃剑。


对AI感兴趣的,可以去「AI免费学习网」 ,访问地址如下,160门相关教程,算是比较全面了,而且还免费:
https://zglg.work
我还写了一个40+页的《普通人学AI》.PDF,只需在下面我的公众号回复:AI,即可免费领取:
为了方便学习,我把学习入口也直接放到下面的「阅读原文」那里了,希望这些教程和资料,能帮助到你!
如果觉得对你有用,可以点赞、转发和在看。谢谢你看我的文章,我们下篇再见。

郭震AI
郭震,工作8年后到美读AI博士,努力分享一些最新且有料的AI。
 最新文章