type
status
date
slug
summary
tags
category
icon
password
第一篇clean-label的攻击
 
lable-consitent backdoor attacks
该攻击方法给数据集输入一些数据,这些数据被加上了backdoor trigger,但是它们的图像内容和标签是一致的。
e.g. 我们要使含有trigger的图像都被识别成飞机,所以生成一批含有trigger的图像,它们的内容确和标签都是飞机,但是模型在识别的时候极度依赖该trigger,后续在遇到含有trigger的图像时,无论内容是否为飞机,模型都会将其识别为飞机。
成功的关键点在于图像必须经过处理,使其能够被模型正确识别但非常模糊。这样模型在识别这些被污染的数据时会极其依赖植入的trigger,从而达到攻击者的目的。
 
Targeted Backdoor Attacks on Deep Learning Systems Using Data PoisoningBlind Backdoors in Deep Learning Models