文献研读|针对文生图大模型的后门攻击

2024-05-05 23:44

本文主要是介绍文献研读|针对文生图大模型的后门攻击,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

前言:2024.05 开端,准备课程汇报需要集中研读论文。本篇文章重点介绍针对文生图大模型的后门攻击相关工作。

相关文章:针对大语言模型的后门攻击,详见此篇文章


目录

  • 1.[Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning](https://dl.acm.org/doi/10.1145/3581783.3612108) (ACM Multimedia 2023)
  • 2. [Rickrolling the Artist: Injecting Backdoors into Text Encoders for Text-to-Image Synthesis](https://openaccess.thecvf.com/content/ICCV2023/papers/Struppek_Rickrolling_the_Artist_Injecting_Backdoors_into_Text_Encoders_for_Text-to-Image_ICCV_2023_paper.pdf) (ICCV 2023)
  • 3. [Personalization as a Shortcut for Few-Shot Backdoor Attack against Text-to-Image Diffusion Models Authors](https://ojs.aaai.org/index.php/AAAI/article/view/30110) (AAAI 2024)
  • 4. [BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP](https://arxiv.org/abs/2311.16194) (CVPR 2024)
  • 5. [Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models](https://arxiv.org/abs/2310.13828v2) (IEEE S&P 2024)
  • 6. [BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models](https://ieeexplore.ieee.org/abstract/document/10494544) (TIFS 2024)

1.Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning (ACM Multimedia 2023)

作者:Shengfang Zhai, et al. Peking University
代码链接:https://github.com/zhaisf/BadT2I
核心思想:通过数据投毒的方式,微调向Stable Diffusion 中注入后门,从而实现像素级、内容级和风格级的后门攻击。微调的同时,既要兼顾后门有效性,也要兼顾原始任务的性能。(Teacher模型辅助 Object-level 和 Style-level 的后门注入,如下图所示)。

在这里插入图片描述


2. Rickrolling the Artist: Injecting Backdoors into Text Encoders for Text-to-Image Synthesis (ICCV 2023)

作者:Lukas Struppek, et al. 德国🇩🇪达姆施塔特工业大学 (Technische Universität Darmstadt)
代码链接:https://github.com/LukasStruppek/Rickrolling-the-Artist

这是一篇针对「基于CLIP的文生图模型」后门攻击的文章,核心思想如下图所示。通过向 text encoder 中注入后门,使得 CLIP 在接收到含有特定触发器的 prompt 之后,将其编码成攻击者预设的prompt,顺水推舟生成攻击者预设的图片。

在这里插入图片描述

后门注入的方式就是传统的数据投毒,触发器的构造方式是改变特定字母的字形(例如把字母 o 变成 o ‾ \underline o o),这在之前的工作中(Li et al. 2021, CCS)也出现过。损失包括两个,一个是对于 clean prompt 的保真度,一个是 trigger prompt 与 target prompt 的语义相似度。训练时也借助Teacher模型辅助训练。

在这里插入图片描述


3. Personalization as a Shortcut for Few-Shot Backdoor Attack against Text-to-Image Diffusion Models Authors (AAAI 2024)

作者:Yihao Huang, et al. Nanyang Technological University, Singapore.
代码链接:https://github.com/Huang-yihao/Personalization-based_backdoor
核心思想:利用 Text Inversion 或 DreamBooth 过程注入后门,前者(nouveau [nu:‘vəʊ])只微调 Text encoder,后者(legacy token)只微调 Conditional Diffusion Model。这篇文章本质上也是数据投毒的方式,将触发集中特定 token 与 image 的对应关系注入到模型中,从而使得原始 text 与 image 的对应关系错位。

在这里插入图片描述

在这里插入图片描述


4. BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP (CVPR 2024)

作者:Jiawang Bai, et al. 清华大学
代码链接:https://github.com/jiawangbai/BadCLIP
核心思想:首先要明确的一点是,这篇文章所要攻击的任务为:基于 CLIP 的 Zero-shot 图像分类。攻击手段是:基于 Prompt Learning,训练一个可学习的 trigger δ \delta δ 和一个 Trigger-Aware Context Generator(本文中就是2层MLP,参数为 θ \theta θ),使得编码器生成的特征表示失真,即 CLIP输出的图文特征无法准确描述输入的文本或图像内容。注意:CLIP本身的 image encoder 和 text encoder 是不参与训练的!这种攻击方式的训练成本很低,文中每一类只需要16个样本即可注入后门。

在这里插入图片描述
个人评价:这篇文章挺有意思的,瞄准CLIP的广泛应用,设计一个专门针对 CLIP 的后门攻击方式,任务选取的也合适,基于 CLIP 的 Zero-shot 分类,属实惊艳了一把。


5. Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models (IEEE S&P 2024)

作者:Shawn Shan, et al. University of Chicago.
项目链接:https://nightshade.cs.uchicago.edu/
核心思想:作者发现在大模型的训练过程中,并非所有的概念对应的训练样本都是等量的,也就是不同概念出现的频率有所不同。基于此,提出一种纯污染训练数据的概念投毒方法,流程如下:
在这里插入图片描述
与 dirty label 的中毒样本不同,Nightshade 基于下图构建中毒样本,在视觉上与中毒提示文本语义相似,而在图像特征层面与目标概念的ancher image 相似。
在这里插入图片描述
相较于 dirty label 方法,Nightshade 能够使用更少的中毒样本将后门注入成功。


6. BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models (TIFS 2024)

作者:Jordan Vice, et al. The University of Western Australia.
代码链接:https://github.com/JJ-Vice/BAGM
核心思想:针对文生图模型的 tokenizer、text encoder 和 generative model,分别提出不同深度的后门攻击方法。

在这里插入图片描述


后记:本文介绍的关于后门攻击的几篇工作,攻击对象或是 tokenizer,或是 text encoder,或是 conditional diffusion model,又或是 CLIP;攻击场景无外乎基于数据投毒的重训或微调;后门注入过程有借助教师模型的,有借助 text inversion/dreembooth的,还有借助 prompt learning 环节的。如果要想在这一方向进一步突破,可以看看DM模型内部结构还有哪一部分没有被关注到。


参考文献

  1. Text-to-Image Diffusion Models can be Easily Backdoored through Multimodal Data Poisoning. ACM Multimedia 2023.
  2. Rickrolling the Artist: Injecting Backdoors into Text Encoders for Text-to-Image Synthesis. ICCV, 2023.
  3. Personalization as a Shortcut for Few-Shot Backdoor Attack against Text-to-Image Diffusion Models Authors. AAAI, 2024.
  4. BadCLIP: Trigger-Aware Prompt Learning for Backdoor Attacks on CLIP. CVPR, 2024.
  5. Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models. IEEE S&P, 2024.
  6. BAGM: A Backdoor Attack for Manipulating Text-to-Image Generative Models. TIFS, 2024.

这篇关于文献研读|针对文生图大模型的后门攻击的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/962986

相关文章

Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)

《Python基于火山引擎豆包大模型搭建QQ机器人详细教程(2024年最新)》:本文主要介绍Python基于火山引擎豆包大模型搭建QQ机器人详细的相关资料,包括开通模型、配置APIKEY鉴权和SD... 目录豆包大模型概述开通模型付费安装 SDK 环境配置 API KEY 鉴权Ark 模型接口Prompt

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

Retrieval-based-Voice-Conversion-WebUI模型构建指南

一、模型介绍 Retrieval-based-Voice-Conversion-WebUI(简称 RVC)模型是一个基于 VITS(Variational Inference with adversarial learning for end-to-end Text-to-Speech)的简单易用的语音转换框架。 具有以下特点 简单易用:RVC 模型通过简单易用的网页界面,使得用户无需深入了

透彻!驯服大型语言模型(LLMs)的五种方法,及具体方法选择思路

引言 随着时间的发展,大型语言模型不再停留在演示阶段而是逐步面向生产系统的应用,随着人们期望的不断增加,目标也发生了巨大的变化。在短短的几个月的时间里,人们对大模型的认识已经从对其zero-shot能力感到惊讶,转变为考虑改进模型质量、提高模型可用性。 「大语言模型(LLMs)其实就是利用高容量的模型架构(例如Transformer)对海量的、多种多样的数据分布进行建模得到,它包含了大量的先验

图神经网络模型介绍(1)

我们将图神经网络分为基于谱域的模型和基于空域的模型,并按照发展顺序详解每个类别中的重要模型。 1.1基于谱域的图神经网络         谱域上的图卷积在图学习迈向深度学习的发展历程中起到了关键的作用。本节主要介绍三个具有代表性的谱域图神经网络:谱图卷积网络、切比雪夫网络和图卷积网络。 (1)谱图卷积网络 卷积定理:函数卷积的傅里叶变换是函数傅里叶变换的乘积,即F{f*g}

秋招最新大模型算法面试,熬夜都要肝完它

💥大家在面试大模型LLM这个板块的时候,不知道面试完会不会复盘、总结,做笔记的习惯,这份大模型算法岗面试八股笔记也帮助不少人拿到过offer ✨对于面试大模型算法工程师会有一定的帮助,都附有完整答案,熬夜也要看完,祝大家一臂之力 这份《大模型算法工程师面试题》已经上传CSDN,还有完整版的大模型 AI 学习资料,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

【生成模型系列(初级)】嵌入(Embedding)方程——自然语言处理的数学灵魂【通俗理解】

【通俗理解】嵌入(Embedding)方程——自然语言处理的数学灵魂 关键词提炼 #嵌入方程 #自然语言处理 #词向量 #机器学习 #神经网络 #向量空间模型 #Siri #Google翻译 #AlexNet 第一节:嵌入方程的类比与核心概念【尽可能通俗】 嵌入方程可以被看作是自然语言处理中的“翻译机”,它将文本中的单词或短语转换成计算机能够理解的数学形式,即向量。 正如翻译机将一种语言

AI Toolkit + H100 GPU,一小时内微调最新热门文生图模型 FLUX

上个月,FLUX 席卷了互联网,这并非没有原因。他们声称优于 DALLE 3、Ideogram 和 Stable Diffusion 3 等模型,而这一点已被证明是有依据的。随着越来越多的流行图像生成工具(如 Stable Diffusion Web UI Forge 和 ComyUI)开始支持这些模型,FLUX 在 Stable Diffusion 领域的扩展将会持续下去。 自 FLU

SWAP作物生长模型安装教程、数据制备、敏感性分析、气候变化影响、R模型敏感性分析与贝叶斯优化、Fortran源代码分析、气候数据降尺度与变化影响分析

查看原文>>>全流程SWAP农业模型数据制备、敏感性分析及气候变化影响实践技术应用 SWAP模型是由荷兰瓦赫宁根大学开发的先进农作物模型,它综合考虑了土壤-水分-大气以及植被间的相互作用;是一种描述作物生长过程的一种机理性作物生长模型。它不但运用Richard方程,使其能够精确的模拟土壤中水分的运动,而且耦合了WOFOST作物模型使作物的生长描述更为科学。 本文让更多的科研人员和农业工作者