复旦大学|通过深度生成模型实现载体可分离的固定神经网络隐写术(ACM MM 2024)

文摘   2024-10-28 08:30   广东  


现今的深度生成模型能够生成逼真的图像,并且给定特定的种子(输入)能够产生特定的输出。受先前工作的启发[1],本文考虑使用AI生成的图像作为载体图像,并借助AI生成技术实现接收者和发送者之间载体图像的同步,即发送双方将共享的密钥输入到相同的生成模型中,得到相同的载体图像。在此基础上,我们改进了现有的固定神经网络隐写方法,基于对抗样本优化的思路,设计了一种隐写扰动搜索算法,将秘密信息直接编码为不可感知的扰动;然后将该扰动叠加到AI生成的载体图像上,生成隐写图像,以进行隐蔽传输。所提出的基于深度模型的固定神经网络隐写框架如下图所示:

图1 Cs-FNNS框架

Alice(发送者)使用所提出的隐写扰动搜索算法,搜索能够触发固定随机解码网络输出秘密图像的扰动,然后将其添加到由密钥控制的AI生成载体图像上,生成隐写图像;Bob(接收者)首先使用密钥重现载体图像,以分离隐写图像中的扰动,然后使用相同的解码网络从扰动中解码出秘密图像。

[1] Chen, Kejiang, et al. "Cover reproducible steganography via deep generative models." IEEE Transactions on Dependable and Secure Computing 20.5 (2022): 3787-3798.

论文信息

相关论文已发表在ACM MM 2024上,作者为复旦大学计算机科学技术学院的李国标、李晟*、钱振兴、张新鹏*。


Guobiao Li, Sheng Li*, Zhenxing Qian and Xinpeng Zhang*" Cover-separable Fixed Neural Network Steganography via Deep Generative Models" In Proceedings of the 32nd ACM International Conference on Multimedia, 2024. DOI: 10.1145/3664647.3680824.

论文链接:https://arxiv.org/abs/2407.11405

代码链接:https://github.com/albblgb/Cs-FNNS    




供稿:李国标、李晟、张新鹏


隐者联盟
本公众号主要推介多媒体、人工智能、信息安全等方面的最新研究进展,愿与同行携手,共同推动科学研究向前发展。
 最新文章