stealing专题

【论文阅读】Stealing Image-to-Image Translation Models With a Single Query(2024)

摘要 Training deep neural networks(训练深度神经网络) requires(需要) significant computational resources(大量计算资源) and large datasets(大型数据集) that are often confidential(机密的) or expensive(昂贵的) to collect. As a resul

HDU2771 Stealing Harry Potter\'s Precious(bfs+dfs)

http://acm.hdu.edu.cn/showproblem.php?pid=4771 这道题的题意:求从起点经过所有的Harry's precious所在点的最小步数; 解析:BFS+DFS BFS用来求宝贝和起点这几个点的最短路径(步数)。并用这几个点建图(双向的),然后用dfs()求经过这几个点的最小路径。。刚开始没有想到用dfs()求最短路径。(以为dijkstra)..。。

【论文阅读】Model Stealing Attacks Against Inductive Graph Neural Networks(2021)

摘要 Many real-world data(真实世界的数据) come in the form of graphs(以图片的形式). Graph neural networks (GNNs 图神经网络), a new family of machine learning (ML) models, have been proposed to fully leverage graph data(

hdu 4454 Stealing a Cake(三分)

题目链接:hdu 4454 Stealing a Cake 题目大意:给定一个起始点s,一个圆形,一个矩形。现在从起点开始,移动到圆形再移动到矩形,求最短距离。 解题思路:在圆周上三分即可。即对角度[0,2*pi]三分,计算点和矩形的距离可以选点和矩形四条边的距离最短值。 #include <cstdio>#include <cstring>#include <cmath>#in

论文笔记:Teach LLMs to Phish: Stealing Private Information from Language Models

iclr 2024 reviewer 评分 588 1 intro 提出了一种“神经网络钓鱼攻击” 一种新的针对在敏感用户数据上训练或finetune的LLMs的攻击向量攻击者将看似无害的投毒数据插入到模型的训练数据集中,以“教会LLMs进行钓鱼”,即诱导模型记住他人的个人身份信息,从而使对手能够通过训练数据提取攻击轻松提取这些秘密数据论文发现 攻击者几乎不需要关于秘密之前的文本的任何信息就能