- vừa được xem lúc

[B5'] EAD: Elastic-Net Attacks to Deep Neural Networks via Adversarial Examples

0 0 31

Người đăng: 生きたい

Theo Viblo Asia

Đây là một bài trong series Báo khoa học trong vòng 5 phút.

Nguồn

Được viết bởi Chen et. al, IBM. Được đăng ở AAAI '18.
https://www.aaai.org/ocs/index.php/AAAI/AAAI18/paper/viewFile/16893/15665

Ý tưởng chính

Thay vì sử dụng l2l_2 như Carlini-Wagner (CW), hay ll_\infty như PGD, thì tác giả sử dụng kết hợp giữa l1l_1l2l_2 tương tự với Elastic-Net Regularization. Cụ thể, mục đích tối thượng là tối ưu hàm loss sau:

minxcf(x,t)+βxx01+xx022,\min_\mathbf{x}c\cdot f(\mathbf{x},t)+\beta\Vert \mathbf{x}-\mathbf{x}_0\Vert_1+\Vert\mathbf{x}-\mathbf{x}_0\Vert_2^2,

trong đó f(x,t)f(\mathbf{x}, t) được định nghĩa là độ thành công của tấn công, với giá trị bé hơn 0 là thành công, và ngược lại. Công thức của f(x,t)f(\mathbf{x},t) cho targeted attack tới class tt

f(x,t)=max{maxjt[Logit(x)]j[Logit(x)]tκ},f(\mathbf{x}, t)=\max\{\max_{j\ne t}[\mathbf{Logit}(\mathbf{x})]_j-[\mathbf{Logit}(\mathbf{x})]_t-\kappa\},

với Logit là giá trị vector ngay trước softmax, κ\kappa là độ "an toàn" của tấn công, còn phiên bản untargeted với true label t0t_0

f(x)=max{[Logit(x)]t0maxjt0[Logit(x)]jκ}.f(\mathbf{x})=\max\{[\mathbf{Logit}(\mathbf{x})]_{t_0}-\max_{j\ne t_0}[\mathbf{Logit}(\mathbf{x})]_j-\kappa\}.

κ\kappa càng tăng thì độ an toàn của tấn công càng lớn, và các adversarial example này sẽ càng có khả năng transfer — chúng có thể được sử dụng trên một model khác train cùng task cùng data.

Sau đó, tác giả tối ưu hóa hàm này bằng FISTA (phiên bản nhanh hơn của ISTA, mà không sử dụng SGD). Thay vì tối ưu cả hàm ff phức tạp, chúng ta chỉ tối ưu hàm gg không có term l1l_1-norm

g(x)=cf(x,t)+xx022g(\mathbf{x})=c\cdot f(\mathbf{x},t)+\Vert\mathbf{x}-\mathbf{x}_0\Vert_2^2

và sử dụng projected shrinkage-thresholding:

[Sβ(z)]i={min{ziβ,1} if zix0i>β;x0i if zix0iβ;max{zi+β,0} if zix0i<β.[S_\beta(\mathbf{z})]_i=\begin{cases} \min\{\mathbf{z}_i-\beta, 1\}& \text{ if } \mathbf{z}_i - \mathbf{x}_{0i} > \beta;\\ \mathbf{x}_{0i}& \text{ if } |\mathbf{z}_i - \mathbf{x}_{0i}| \le \beta;\\ \max\{\mathbf{z}_i+\beta, 0\}& \text{ if } \mathbf{z}_i - \mathbf{x}_{0i} <- \beta. \end{cases}

Về cơ bản, nếu thay đổi không lớn hơn ngưỡng β\beta, chúng ta giữ giá trị ban đầu, còn nếu lớn hơn chúng ta chọn một giá trị gần ảnh gốc nhưng vẫn trong khoảng (0,1)(0,1) cho đúng domain của ảnh.

Thuật toán đầy đủ của phương pháp EAD như sau:

  • Với ảnh đầu vào là x\mathbf{x}, khởi tạo x(0)=y(0)=x\mathbf{x}^{(0)}=\mathbf{y}^{(0)}=\mathbf{x}
  • Với số lần chạy FISTA là II, chúng ta update các giá trị trên II lần theo công thức:

x(k+1)=Sβ(y(k)αkg(y(k)))\mathbf{x}^{(k+1)}=S_\beta(\mathbf{y}^{(k)}-\alpha_k\nabla g(\mathbf{y}^{(k)}))

y(k+1)=x(k+1)+kk+3(x(k+1)x(k))\mathbf{y}^{(k+1)}=\mathbf{x}^{(k+1)}+\frac{k}{k+3}(\mathbf{x}^{(k+1)}-\mathbf{x}^{(k)})

với αk\alpha_k là step size cho từng iteration.

  • Cuối cùng, check giá trị {x(k)}k=1I\{\mathbf{x}^{(k)}\}_{k=1}^I của các iteration xem có cái nào tấn công thành công không.

Phần sử dụng y\mathbf{y} chính là cải tiến của FISTA từ thuật toán gốc ISTA.

Kết quả cho thấy tấn công này với κ=0\kappa=0 có tỉ lệ thành công cao (100%!), ngang ngửa với CW và I-FGM (còn có tên là BIM — đây là phiên bản tiền thân của PGD, click vào link này để biết thêm chi tiết). Trong đó, CW cho khoảng cách l2l_2 bé nhất, I-FGM-LL_\infty cho khoảng cách ll_\infty bé nhất, và EAD cho khoảng cách l1l_1 bé nhất. Ngoài ra, các adversarial của EAD nhìn có vẻ giống với ảnh gốc nhất.

Còn với κ>0\kappa>0, độ thành công giảm xuống, tuy nhiên transferability tăng; có nghĩa là adversarial example được sinh ra cho 1 model có thể sử dụng với model khác, bao gồm cả các model được train bằng defensive distillation[1]. Tuy nhiên, nếu tăng quá cao thì các adversarial example sẽ không còn nằm trong data domain nữa (mà overfit vào model), nên transferability lại giảm xuống.

[1] Defensive distillation là khi sử dụng distillation để dạy cho một mô hình bé hơn bằng adversarial data và soft label của mô hình lớn hơn, dùng để giảm kích cỡ mô hình đồng thời tăng khả năng phòng chống tấn công.

Phần còn lại của paper

Khi β=0\beta=0 thì EAD trở thành CW, nên có thể coi EAD là phiên bản mở rộng của CW. Đó cũng là lý do tại sao các adversarial example của EAD có độ khác nhau l1l_1 bé hơn CW, nhưng l2l_2 lớn hơn.

Tác giả không sử dụng Change-of-Variable (phương pháp được sử dụng trong CW để ép adversarial example trong khoảng (0,1)) do không phù hợp với objective l1l_1 trong hàm ff, vì vậy nên phải sử dụng FISTA thay vì SGD.

Nếu sử dụng tấn công này với adversarial training thì model lại càng tốt.

Bình luận

Tác giả cho rằng MNIST là data khó tấn công nhất do ảnh tập này sửa tí là dễ nhận ra, tuy nhiên cần nhận thấy là dataset này quá đơn giản, khiến cho việc tạo ra adversarial lại rất dễ.

Có thể việc phương pháp này tốt hơn là do thêm các regularization terms khác cho adversarial example nhìn giống ảnh gốc hơn. Vậy nếu chúng ta thêm các norm lpl_p khác thì sao?

Hết.

Hãy like subscribe và comment vì nó miễn phí?

Bình luận

Bài viết tương tự

- vừa được xem lúc

[B5'] Smooth Adversarial Training

Đây là một bài trong series Báo khoa học trong vòng 5 phút. Được viết bởi Xie et. al, John Hopkins University, trong khi đang intern tại Google. Hiện vẫn là preprint do bị reject tại ICLR 2021.

0 0 45

- vừa được xem lúc

Adversarial Attack: Tấn công One-pixel

Giới thiệu. Nếu như chỉ được xây dựng một cách thông thường và không có ý định ngay từ ban đầu thì các mô hình Deep Learning tồn tại rất nhiều lỗ hổng về bảo mật.

0 0 39

- vừa được xem lúc

Noisy training cho Adversarial Defense

Mở bài. Vấn đề về adversarial attacks chắc hẳn đã không còn xa lạ sau khi đọc bài kia của mình rồi nhỉ Đó là khi một ảnh có thể bị thay đổi đôi chút sao cho người nhìn không nhận ra khác nhau, nhưng m

0 0 31