文章首先证明了对抗攻击对NLP系统的影响力,然后提出了三种屏蔽方法:
visual character embeddings
adversarial training
rule-based recovery
但屏蔽方法在非攻击场景下的性能仍然较差,说明了处理视觉攻击的难度。
在NLP中,Jia和Liang(2017)将语法正确但语义无关的段落插入到故事中,以愚弄神经阅读理解模型。Singh等人(2018)发现,当使用简单的原问题释义时,用于回答问题的神经模型的性能显著下降。
不像以前的NLP攻击场景,视觉攻击,即(1)它们不需要任何超出字符级别的语言知识,使攻击直接适用于不同的语言、领域和任务。2)据称,它们对人类感知和理解的损害要小于语法错误或插入否定词(Hosseini et al., 2017)。3)不需要知道被攻击模型的参数或损失函数(Ebrahimi et al., 2018)。
在这项工作中,我们研究了最新的先进(SOTA)深度学习模型在多大程度上对视觉攻击敏感,并探索了各种屏蔽技术。我们的贡献:
引入了VIPER,这是一种视觉扰流器,它在视觉嵌入空间中随机地将输入中的字符替换为它们的视觉近邻。
我们发现SOTA深度学习模型的性能在不同情况下都有显著的下降 被VIPER攻击时的NLP任务。在单独的任务(如分块)和攻击场景中,我们观察到的下降率高达82%。
相比之下人类收到的影响甚微。
提出三种屏蔽方法。验证它们有帮助的程度和环境。
论文阅读 | Text Processing Like Humans Do: Visually Attacking and Shielding NLP Systems
原文:https://www.cnblogs.com/shona/p/11552113.html