封面图片:Eleanor Tomlinson/Adam Cain/Metin Akçakoca/Google DeepMind
封面故事
可规模化的水印系统可识别大语言模型的生成内容
大语言模型(LLM)正快速成为人工生成文本的一个来源,被大量用于驱动对话机器人等工具。但对AI生成文本的识别和溯源很难,这也引发了人们对在线信息可靠性的质疑。在本期《自然》中,Sumanth Dathathri 和同事描述的一个系统可以给AI生成的文本添加水印,从而实现源头可溯。这个名为SynthID-Text的系统使用一种新的抽样算法巧妙地改变LLM的词汇选择,插入一个能被相关检测软件识别的签名。重要的是,加水印并不会降低LLM生成文本的质量。作者指出,虽然当前有一些办法能避免被加水印,但SynthID-Text表明,为AI生成内容加标记的可规模化的方法是实际且可行的。
《自然》论文:Scalable watermarking for identifying large language model outputs
长按并识别右方二维码,阅读全文→
相关阅读
点击“阅读原文”发现更多最新Nature精彩内容