- vừa được xem lúc

Giới thiệu về Variational Autoencoder

0 0 48

Người đăng: Hiu

Theo Viblo Asia

Introduction

Xin chào mọi người, trong bài viết ngày hôm này minh sẽ cùng mọi người tìm hiểu về Variational Autoencoder (VAE), một loại generative model trong deep learning. Trong vài năm gần đây, các mô hình generative đang thu hút được sự chú ý của các nhà nghiên cứu và đạt được một số kết quả đáng kinh ngạc trong một số ứng dụng như: super resolution, face generation, ... Một số họ mô hình generative nổi bật có thể kể đến như Generative Adversarial Network và Variational Autoencoder.

Ở bài viết này, mình sẽ giới thiệu với mọi người về kiến trúc của VAE và cách cài đặt VAE trong thư viện Pytorch. Let's get started!!!

Variational Autoencoder vs Autoencoder

Khi nhắc tới VAE thì chắc hẳn mọi người sẽ liên tưởng ngay tới Autoencoder. Vậy 2 mô hình này có những điểm nào giống và khác nhau? Từ "autoencoder" trong VAE ám chỉ sự giống nhau trong kiến trúc mạng giữa VAE và Autoencoder nhưng trên thực tế cả 2 lại rất khác nhau về biểu diễn toán học

So sánh giữa VAE và Autoencoder

Với Autoencoder:

  • Bộ encoder sẽ ánh xạ đầu vào xx thành một vector ẩn hh (thông thường với số chiều nhỏ hơn xx) gọi là mã.
  • Vector ẩn hh sau đó sẽ được bộ decoder biến đổi thành output của mô hình x^\hat{x}. Output sau đó sẽ được sử dụng để tính hàm mất mát trong các tác vụ như tái cấu trúc ảnh hay denoise.

Với Variational Autoencoder:

  • Quy trình cũng tương tự như với autoencoder. Nhưng thay vì ánh xạ sang 1 vector mã hh, mã của VAE bao gồm hai vector E(z)\mathbb E(z)V(z)\mathbb V(z), trong đó zz là một biến ngẫu nhiên có phân phối chuẩn dd chiều với vector trung bình E(z)\mathbb E(z) và phương sai V(z)\mathbb V(z). Trên thực tế và trong các paper thì các tác giả hay sử dụng phân phối chuẩn nhưng ta cũng có thể sử dụng các phân phối khác để thay thế. Bộ encoder sẽ là 1 ánh xạ f:RdxR2dhf: R^{d_x} \mapsto R^{2d_h} (Mã hh của VAE sẽ là vector sau khi concat 2 vector E(z)\mathbb E(z)V(z)\mathbb V(z))
  • Từ 2 vector E(z)\mathbb E(z)V(z)\mathbb V(z), một vector ẩn zz sẽ được sample từ phân chuẩn có trung bình và phương sai tương ứng.
  • Vector zz sau đó sẽ được decoder biến đổi thành x^\hat x.

Thay vì ánh xạ đầu vào xx thành 1 điểm duy nhất trong không gian ẩn như trong autoencoder, VAE ánh xạ xx thành một phân phối xác suất để từ đó sample zz từ không gian ẩn để đưa qua decoder. Vì thế, không gian ẩn của VAE được ràng buộc thành 1 không gian trơn, liên tục giúp thuận lợi cho việc sinh ra ảnh mới.

Loss function

Hàm loss của Variational autoencoder gồm 2 thành phần: reconstruction loss và regularization loss:

L(x,x^)=lreconstruct+βKL(z,N(0,Id))L(x, \hat x) = l_{reconstruct} + \beta\bold{KL}(z, N(0, I_d))

  • Reconstruction loss: dùng để reconstruct lại input ban đầu. Các hàm loss thông dụng là Mean Square Error hay Mean Absolute Error. Trong trường hợp ảnh nhị phân, ta có thể sử dụng binary cross entropy
  • Regulization loss: sử dụng KL divergence (khoảng cách giữa 2 phân phối xác suất) giữa phân phối chuẩn với trung bình E(z)\mathbb E(z) và phương sai V(z)\mathbb V(z) với phân phối chuẩn chuẩn tắc dd chiều N(0,Id)N(0, I_d)

KL(z,N(0,Id))=12i=1d(V(zi)logV(zi)1+E(zi)2)\bold{KL}(z, N(0, I_d)) = \frac{1}{2}\sum_{i=1}^d( \mathbb V(z_i) - \log \mathbb V(z_i) - 1 + \mathbb E(z_i)^2)

Reparameterization trick

Như mọi người đều biết, để huấn luyện một mô hình học sâu thì ta cần tới thuật toán gradient descent, mà muốn thực hiện gradient descent thì phải có đạo hàm. Trong Variational autoencoder, thì ta có một bước sample từ phân phối chuẩn để thu được vector ẩn zz để đưa qua decoder. Tuy nhiên, có 1 vấn đề nho nhỏ là làm sao ta lan truyền ngược qua module sampling này để tính đạo hàm.

Thay vì trực tiếp sample từ phân phối xác suất, ta sử dụng 1 mẹo nhỏ gọi là reparameterization. Vector zz sẽ được tính bằng công thức

z=E(z)+ϵV(z)z = \mathbb E(z) + \epsilon \odot \sqrt{\mathbb V(z)}

trong đó ϵN(0,Id)\epsilon \sim N(0, I_d). Do E(z)\mathbb E(z)V(z)\mathbb V(z) là outout của encoder nên đạo hàm có thể lan truyền ngược lên.

Implementation

Ở phần này mình sẽ cài đặt thử Variational autoencoder với bộ dữ liệu MNIST

Encoder và decoder

class VAE(nn.Module): def __init__(self, encoder, decoder, d=64): super().__init__() self.encoder = nn.Sequential( nn.Linear(784, d * 8), nn.ReLU(), nn.Linear(d * 8, d * 4), nn.ReLU(), nn.Linear(d * 4, d * 2) ) self.decoder = nn.Sequential( nn.Linear(d, d * 4), nn.ReLU(), nn.Linear(d * 4, d * 8), nn.ReLU(), nn.Linear(d * 8, 784), nn.Sigmoid(), ) def forward(self, x): mu_logvar = self.encoder(x.view(-1, 784)).view(-1, 2, d) mu = mu_logvar[:, 0, :] logvar = mu_logvar[:, 1, :] z = self.reparameterise(mu, logvar) return self.decoder(z), mu, logvar

Reparameterisation: trong hàm reparameterise ta sử dụng log của variance để quá trình training ổn định hơn

def reparameterise(self, mu, logvar): if self.training: std = logvar.mul(0.5).exp_() epsilon = std.data.new(std.size()).normal_() return epsilon.mul(std).add_(mu) else: return mu

Hàm Loss

def loss_function(x_hat, x, mu, logvar, beta=1): bce = nn.functional.binary_cross_entropy( x_hat, x.view(-1, 784), reduction='sum' ) KLD = 0.5 * torch.sum(logvar.exp() - logvar - 1 + mu.pow(2)) return bce + beta * KLD

Và cuối cùng là training

train_loader = torch.utils.data.DataLoader( MNIST('./data', train=True, download=True, transform=transforms.ToTensor()), batch_size=256, shuffle=True)
epochs = 20
for epoch in range(0, epochs + 1): model.train() train_loss = 0 for x, _ in train_loader: x = x.to(device) x_hat, mu, logvar = model(x) loss = loss_function(x_hat, x, mu, logvar) train_loss += loss.item() optimizer.zero_grad() loss.backward() optimizer.step()

Sau khi huấn luyện mô hình, để sinh ra ảnh mới, ta chỉ cần sample từ phân phối chuẩn d chiều và cho qua decoder

def display_images(out, n=1): for N in range(n): out_pic = out.data.cpu().view(-1, 28, 28) plt.figure(figsize=(8, 4)) for i in range(4): plt.subplot(1,4,i+1) plt.imshow(out_pic[i+4*N]) plt.axis('off')
N = 16
z = torch.randn((N, d)).to(device)
sample = model.decoder(z)
display_images(sample, N // 4)

References

Bình luận

Bài viết tương tự

- vừa được xem lúc

Tấn công và phòng thủ bậc nhất cực mạnh cho các mô hình học máy

tấn công bậc nhất cực mạnh = universal first-order adversary. Update: Bleeding edge của CleverHans đã lên từ 3.1.0 đến 4.

0 0 28

- vừa được xem lúc

[Deep Learning] Key Information Extraction from document using Graph Convolution Network - Bài toán trích rút thông tin từ hóa đơn với Graph Convolution Network

Các nội dung sẽ được đề cập trong bài blog lần này. . Tổng quan về GNN, GCN. Bài toán Key Information Extraction, trích rút thông tin trong văn bản từ ảnh.

0 0 204

- vừa được xem lúc

Trích xuất thông tin bảng biểu cực đơn giản với OpenCV

Trong thời điểm nhà nước đang thúc đẩy mạnh mẽ quá trình chuyển đổi số như hiện nay, Document Understanding nói chung cũng như Table Extraction nói riêng đang trở thành một trong những lĩnh vực được quan tâm phát triển và chú trọng hàng đầu. Vậy Table Extraction là gì? Document Understanding là cái

0 0 214

- vừa được xem lúc

Con đường AI của tôi

Gần đây, khá nhiều bạn nhắn tin hỏi mình những câu hỏi đại loại như: có nên học AI, bắt đầu học AI như nào, làm sao tự học cho đúng, cho nhanh, học không bị nản, lộ trình học AI như nào... Sau nhiều lần trả lời, mình nghĩ rằng nên viết hẳn một bài để trả lời chi tiết hơn, cũng như để các bạn sau này

0 0 137

- vừa được xem lúc

[B5'] Smooth Adversarial Training

Đây là một bài trong series Báo khoa học trong vòng 5 phút. Được viết bởi Xie et. al, John Hopkins University, trong khi đang intern tại Google. Hiện vẫn là preprint do bị reject tại ICLR 2021.

0 0 32

- vừa được xem lúc

Deep Learning với Java - Tại sao không?

Muốn tìm hiểu về Machine Learning / Deep Learning nhưng với background là Java thì sẽ như thế nào và bắt đầu từ đâu? Để tìm được câu trả lời, hãy đọc bài viết này - có thể kỹ năng Java vốn có sẽ giúp bạn có những chuyến phiêu lưu thú vị. DJL là tên viết tắt của Deep Java Library - một thư viện mã ng

0 0 124