type
status
date
slug
summary
tags
category
icon
password
first clean-label backdoor attack with optimized trigger pattern

Abstract

到目前为止,后门研究大多是在图像领域中使用图像分类模型进行的。在本文中,我们证明了现有的图像后门攻击在视频上的效果要差得多,并概述了现有攻击可能失败的4个严格条件:
1)输入维度更多的场景(例如;视频)
2)具有高分辨率的场景
3)具有大量类且每个类的示例很少的场景(“稀疏数据集”)
4)访问正确标签的攻击(例如。档次的攻击)。
我们建议使用通用对抗性触发器作为后门触发器来攻击视频识别模型,在这种情况下,后门攻击很可能受到上述4个严格条件的挑战。我们在基准视频数据集上展示了我们提出的后门攻击可以通过毒害一小部分训练数据(不改变标签)以高成功率操纵最先进的视频模型。
时序稀疏对抗攻击在序列步态识别中的应用 Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks Trained from Scratch.