文献研读|针对文生图大模型的后门攻击

2024-05-05 23:44

本文主要是介绍文献研读|针对文生图大模型的后门攻击,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:2024.05 开端,准备课程汇报需要集中研读论文。本篇文章重点介绍针对文生图大模型的后门攻击相关工作。

相关文章:针对大语言模型的后门攻击,详见此篇文章


目录

  • 1.[Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning](https://dl.acm.org/doi/10.1145/3581783.3612108) (ACM Multimedia 2023)
  • 2. [Rickrolling the Artist: Injecting Backdoors into Text Encoders for Text-to-Image Synthesis](https://openaccess.thecvf.com/content/ICCV2023/papers/Struppek_Rickrolling_the_Artist_Injecting_Backdoors_into_Text_Encoders_for_Text-to-Image_ICCV_2023_paper.pdf) (ICCV 2023)
  • 3. [Personalization as a Shortcut for Few-Shot Backdoor Attack against Text-to-Image Diffusion Models Authors](https://ojs.aaai.org/index.php/AAAI/article/view/30110) (AAAI 2024)
  • 4. [BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP](https://arxiv.org/abs/2311.16194) (CVPR 2024)
  • 5. [Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models](https://arxiv.org/abs/2310.13828v2) (IEEE S&P 2024)
  • 6. [BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models](https://ieeexplore.ieee.org/abstract/document/10494544) (TIFS 2024)

1.Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning (ACM Multimedia 2023)

作者:Shengfang Zhai, et al. Peking University
代码链接:https://github.com/zhaisf/BadT2I
核心思想:通过数据投毒的方式,微调向Stable Diffusion 中注入后门,从而实现像素级、内容级和风格级的后门攻击。微调的同时,既要兼顾后门有效性,也要兼顾原始任务的性能。(Teacher模型辅助 Object-level 和 Style-level 的后门注入,如下图所示)。

在这里插入图片描述


2. Rickrolling the Artist: Injecting Backdoors into Text Encoders for Text-to-Image Synthesis (ICCV 2023)

作者:Lukas Struppek, et al. 德国🇩🇪达姆施塔特工业大学 (Technische Universität Darmstadt)
代码链接:https://github.com/LukasStruppek/Rickrolling-the-Artist

这是一篇针对「基于CLIP的文生图模型」后门攻击的文章,核心思想如下图所示。通过向 text encoder 中注入后门,使得 CLIP 在接收到含有特定触发器的 prompt 之后,将其编码成攻击者预设的prompt,顺水推舟生成攻击者预设的图片。

在这里插入图片描述

后门注入的方式就是传统的数据投毒,触发器的构造方式是改变特定字母的字形(例如把字母 o 变成 o ‾ \underline o o),这在之前的工作中(Li et al. 2021, CCS)也出现过。损失包括两个,一个是对于 clean prompt 的保真度,一个是 trigger prompt 与 target prompt 的语义相似度。训练时也借助Teacher模型辅助训练。

在这里插入图片描述


3. Personalization as a Shortcut for Few-Shot Backdoor Attack against Text-to-Image Diffusion Models Authors (AAAI 2024)

作者:Yihao Huang, et al. Nanyang Technological University, Singapore.
代码链接:https://github.com/Huang-yihao/Personalization-based_backdoor
核心思想:利用 Text Inversion 或 DreamBooth 过程注入后门,前者(nouveau [nu:‘vəʊ])只微调 Text encoder,后者(legacy token)只微调 Conditional Diffusion Model。这篇文章本质上也是数据投毒的方式,将触发集中特定 token 与 image 的对应关系注入到模型中,从而使得原始 text 与 image 的对应关系错位。

在这里插入图片描述

在这里插入图片描述


4. BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP (CVPR 2024)

作者:Jiawang Bai, et al. 清华大学
代码链接:https://github.com/jiawangbai/BadCLIP
核心思想:首先要明确的一点是,这篇文章所要攻击的任务为:基于 CLIP 的 Zero-shot 图像分类。攻击手段是:基于 Prompt Learning,训练一个可学习的 trigger δ \delta δ 和一个 Trigger-Aware Context Generator(本文中就是2层MLP,参数为 θ \theta θ),使得编码器生成的特征表示失真,即 CLIP输出的图文特征无法准确描述输入的文本或图像内容。注意:CLIP本身的 image encoder 和 text encoder 是不参与训练的!这种攻击方式的训练成本很低,文中每一类只需要16个样本即可注入后门。

在这里插入图片描述
个人评价:这篇文章挺有意思的,瞄准CLIP的广泛应用,设计一个专门针对 CLIP 的后门攻击方式,任务选取的也合适,基于 CLIP 的 Zero-shot 分类,属实惊艳了一把。


5. Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models (IEEE S&P 2024)

作者:Shawn Shan, et al. University of Chicago.
项目链接:https://nightshade.cs.uchicago.edu/
核心思想:作者发现在大模型的训练过程中,并非所有的概念对应的训练样本都是等量的,也就是不同概念出现的频率有所不同。基于此,提出一种纯污染训练数据的概念投毒方法,流程如下:
在这里插入图片描述
与 dirty label 的中毒样本不同,Nightshade 基于下图构建中毒样本,在视觉上与中毒提示文本语义相似,而在图像特征层面与目标概念的ancher image 相似。
在这里插入图片描述
相较于 dirty label 方法,Nightshade 能够使用更少的中毒样本将后门注入成功。


6. BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models (TIFS 2024)

作者:Jordan Vice, et al. The University of Western Australia.
代码链接:https://github.com/JJ-Vice/BAGM
核心思想:针对文生图模型的 tokenizer、text encoder 和 generative model,分别提出不同深度的后门攻击方法。

在这里插入图片描述


后记:本文介绍的关于后门攻击的几篇工作,攻击对象或是 tokenizer,或是 text encoder,或是 conditional diffusion model,又或是 CLIP;攻击场景无外乎基于数据投毒的重训或微调;后门注入过程有借助教师模型的,有借助 text inversion/dreembooth的,还有借助 prompt learning 环节的。如果要想在这一方向进一步突破,可以看看DM模型内部结构还有哪一部分没有被关注到。


参考文献

  1. Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning. ACM Multimedia 2023.
  2. Rickrolling the Artist: Injecting Backdoors into Text Encoders for Text-to-Image Synthesis. ICCV, 2023.
  3. Personalization as a Shortcut for Few-Shot Backdoor Attack against Text-to-Image Diffusion Models Authors. AAAI, 2024.
  4. BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP. CVPR, 2024.
  5. Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models. IEEE S&P, 2024.
  6. BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models. TIFS, 2024.

这篇关于文献研读|针对文生图大模型的后门攻击的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/962986

相关文章

web网络安全之跨站脚本攻击(XSS)详解

《web网络安全之跨站脚本攻击(XSS)详解》:本文主要介绍web网络安全之跨站脚本攻击(XSS)的相关资料,跨站脚本攻击XSS是一种常见的Web安全漏洞,攻击者通过注入恶意脚本诱使用户执行,可能... 目录前言XSS 的类型1. 存储型 XSS(Stored XSS)示例:危害:2. 反射型 XSS(Re

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

SpringBoot快速接入OpenAI大模型的方法(JDK8)

《SpringBoot快速接入OpenAI大模型的方法(JDK8)》本文介绍了如何使用AI4J快速接入OpenAI大模型,并展示了如何实现流式与非流式的输出,以及对函数调用的使用,AI4J支持JDK8... 目录使用AI4J快速接入OpenAI大模型介绍AI4J-github快速使用创建SpringBoot

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee

DeepSeek模型本地部署的详细教程

《DeepSeek模型本地部署的详细教程》DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私,在本地成功部署DeepSe... 目录一、环境准备(一)硬件需求(二)软件依赖二、安装Ollama三、下载并部署DeepSeek模型选

Golang的CSP模型简介(最新推荐)

《Golang的CSP模型简介(最新推荐)》Golang采用了CSP(CommunicatingSequentialProcesses,通信顺序进程)并发模型,通过goroutine和channe... 目录前言一、介绍1. 什么是 CSP 模型2. Goroutine3. Channel4. Channe