人工智能安全时代来了!
谷歌与DeepMind的联合团队Big Sleep首次通过AI发现了一个未知的0-Day漏洞——这种漏洞之前完全未知且可被利用。
这一突破向我们昭示了安全研究的新时代——AI不仅是辅助者,更可以成为真正的发现者。
Big Sleep——AI探测漏洞的先锋
据了解,Big Sleep团队发现了SQLite数据库引擎中的“可利用栈缓冲区下溢”,并在其发布前便迅速进行了修复,这避免了用户受到影响。
谷歌的Project Zero与DeepMind之合,则正是通过他们的协作,打造了这一能够自发查找代码漏洞的大型语言模型技术。
AI正成为未来安全研究中的“模糊测试”替代者?
模糊测试长期以来是安全研究的利器,然而这一次,Big Sleep团队却展示了AI在填补其局限方面无可比拟的潜力。
探索一种可以在软件发布前便发现漏洞的方法,让防御者占据了先机。
不过,结果展示依然属于「高度实验性质」,但AI的崛起让我们看到了更光明的未来。
超级黑客的崛起?
此举也引发了不同层面的担忧。
Sithira(@Sithira269)对AI持续渗透系统的能力表达了激动之情:
我一直想看看一群智能体不断学习并改进尝试的样子
而Justscrolling(@Justscrollingon)则嗤之以鼻,认为:
未来或许会是终结一切的一天,我们能做的或许只有回到石器时代
谷歌与DeepMind的AI技术为信息安全打开了新的大门。未来AI在安全领域的应用,将不止步于此。
👇
👇
👇
👇
本文同步自知识星球《AGI Hunt》
星球实时采集和监控推特、油管、discord、电报等平台的热点AI 内容,并基于数个资讯处理的 AI agent 挑选、审核、翻译、总结到星球中。
每天约监控6000 条消息,可节省约800+ 小时的阅读成本;
每天挖掘出10+ 热门的/新的 github 开源 AI 项目;
每天转译、点评 10+ 热门 arxiv AI 前沿论文。
星球非免费。定价99元/年,0.27元/天。(每+100人,+20元。元老福利~)
一是运行有成本,我希望它能自我闭环,这样才能长期稳定运转;
二是对人的挑选,鱼龙混杂不是我想要的,希望找到关注和热爱 AI 的人。
欢迎你的加入!