中国农业大学|基于大语言模型的生成式文本隐写方法(ACM MM 2024)

文摘   2024-10-25 08:30   广东  



一、方法简介


近年来,随着语言模型的不断发展,生成式隐写方法在安全性和容量等方面取得巨大进步,现有基于条件采样概率特定映射(Huffman、Arithmetic、ADG、Discop等)的生成式隐写方法通常需要Alice和Bob共享语言模型,且要求他们能够白盒访问语言模型。然而,由于大语言模型的高训练成本和巨大商业价值,现有方法难以适用于大语言模型下的生成式文本隐写。因此,这篇论文从大模型的实际应用场景出发,即,大多数用户通过UI界面使用大语言模型,探索了一种基于prompt-keywords的黑盒大语言模型生成式文本隐写方法,称为LLM-Stega。LLM-Stega的主要目标是在Alice和Bob仅使用大语言模型UI界面的情况下,实现二者在公共信道上的安全隐蔽通信。具体而言,LLM-Stega首先借助大语言模型学习到的潜在知识,构造四个关键字集(主谓宾+情感),并设计一个新型加密隐写映射方法来嵌入秘密消息。在此基础上,进一步提出了一种基于拒绝抽样的prompt迭代优化机制,保证了秘密信息的准确提取和生成隐写文本的多样性。实验结果表明,我们提出的LLM-Stega不仅极大地适配于大语言模型的黑盒访问场景,并且相关性能也优于目前最先进的生成式文本隐写方法。

图1 LLM-Stega的总体架构


二、实验评估


为验证我们所提出的LLM-Stega的有效性,我们从文本质量、嵌入容量、抗隐写分析能力、统计不可感知性和主观评估等方面对LLM-Stega的性能进行了评价,并与现有的多种SOTA隐写术进行了对比。  
 


三、论文信息

本文被ACM MM 2024录用。作者为中国农业大学的吴家璇、吴政娴、薛一鸣(通讯作者)、文娟、彭万里(通讯作者)。

Jiaxuan Wu, Zhengxian Wu, Yiming Xue*, Juan Wen, Wanli Peng*. Generative Text Steganography with Large Language Model. ACM Multimedia, 2024.



供稿:吴家璇、薛一鸣、彭万里    


隐者联盟
本公众号主要推介多媒体、人工智能、信息安全等方面的最新研究进展,愿与同行携手,共同推动科学研究向前发展。
 最新文章