首页 > 其他 > 详细

TriggerBN +

时间:2021-06-06 21:24:01      阅读:25      评论:0      收藏:0      [点我收藏+]

motivation

用两个BN(一个用于干净样本, 一个用于对抗样本), 结果当使用\(\mathrm{BN}_{nat}\)的时候, 精度能够上升, 而使用\(\mathrm{BN}_{adv}\)的时候, 也有相当的鲁棒性, 但是二者不能兼得. 那么假设一个样本通过两种BN得到两个概率\(p_{nat}\)\(p_{adv}\), 并利用

\[p = \alpha p_{nat} + (1-\alpha) p_{adv}, \quad \alpha \in [0, 1], \]

来判断类别, 结果会如何呢 ?

注: 实验结果中, softmax为上述情形, 而non-softmax则是特征

\[f = \alpha f_{nat} + (1-\alpha) f_{adv}, \quad \alpha \in [0, 1], \p = \mathrm{Softmax}(f). \]

settings

Attribute Value
attack pgd-linf
batch_size 128
beta1 0.9
beta2 0.999
dataset cifar10
description AT=0.5=default-sgd-0.1=pgd-linf-0.0314-0.25-10=128=default
epochs 100
epsilon 0.03137254901960784
learning_policy [50, 75] x 0.1
leverage 0.5
loss cross_entropy
lr 0.1
model resnet32
momentum 0.9
optimizer sgd
progress False
resume False
seed 1
stats_log False
steps 10
stepsize 0.25
transform default
weight_decay 0.0005

results

x轴为\(\alpha\)\(0\)变化到\(1\).

Accuracy Robustness
softmax 技术分享图片 技术分享图片
non-softmax 技术分享图片 技术分享图片

结论: 二者都具有trade-off的过程, 但是non-softmax下鲁棒性对\(\alpha\)更为敏感.

TriggerBN +

原文:https://www.cnblogs.com/MTandHJ/p/14855968.html

(0)
(0)
   
举报
评论 一句话评论(0
关于我们 - 联系我们 - 留言反馈 - 联系我们:wmxa8@hotmail.com
© 2014 bubuko.com 版权所有
打开技术之扣,分享程序人生!