- vừa được xem lúc

[YOLO series] p2. Build YOLO from scratch

0 0 39

Người đăng: Trung Thành Nguyễn

Theo Viblo Asia

1. Introduction

Trong bài trước Lý thuyết YOLO và YOLOv2, mình đã viết về lý thuyết, tư tưởng, ưu nhược điểm của YOLO. Nếu bạn nào chưa đọc , hãy bỏ chút thời gian quay lại đọc, phải có nền tảng lý thuyết thì đọc code mới dễ hiểu.

Lý thuyết thôi là chưa đủ. Trong bài này, mình sẽ hướng dẫn bạn code. Mình sẽ tập trung vào phần việc phân tích cấu trúc và code. All in notebook. Tất cả nội dung nằm trọn trong Kaggle notebook của mình. Notebook kèm nội dung văn bản hướng dẫn giống hệt bài viết này, bạn có thể đọc trực tiếp notebook.

Mục tiêu chính của bài là hướng dẫn Build YOLO from scratch, tức sẽ tập trung vào việc hướng dẫn code và build model + loss function. Phần việc chính mình sẽ cố gắng viết dễ hiểu và rút gọn nhất có thể. Vậy nên model có tệ cũng đừng quá bất ngờ, chỉ cần run/train đúng để hiểu được tư tưởng, k cần tốt. Vì thời gian và resource hạn chế, mình sẽ bỏ qua việc test and validate model

Bộ dataset được sử dụng là bộ WIDER (face dataset) được cung cấp sẵn trên Kaggle. Bạn có thể truy cập và download theo link này.

Link:

1.2 Cấu trúc code

Cấu trúc code bao gồm các phần chính sau đây:

  1. Read and preprocess data from .txt file
  2. Define Dataset and Dataloader
  3. Define module and backbone of YOLO
  4. Define Loss function
  5. Train model

2. Code

Hai năm trước mình từng code bằng Tensorflow 1.x.x . Hồi đó mình mất 4 ngày để code, code xong toát cả mồ hôi hột. Giờ thì mình sẽ code lại bằng Torch, đơn giản và tiện hơn rất nhiều. Mất chưa tới 1 ngày ?

Nếu ai chưa biết torch cũng không sao. Về cơ bản, cú pháp của Torch cũng giống numpy, người mới vẫn đọc hiểu được.

2.1 Import, define global Variables ...

Import libs

import numpy as np # linear algebra
import pandas as pd # data processing, CSV file I/O (e.g. pd.read_csv)
import os
import torch
import torchvision
from glob import glob
from tqdm import tqdm
from matplotlib import pyplot as plt
from torch.utils.data import DataLoader, Dataset
import albumentations as A
from albumentations.pytorch.transforms import ToTensor, ToTensorV2
from random import randint, choice, shuffle, choices
import cv2
from torch import nn
import torch.nn.functional as F
!pip install torch-summary

Define CONST, global variables

DATA_DIR = '../input/wider-data/WIDER'
TRAIN_DIR = '../input/wider-data/WIDER/WIDER_train'
BOX_COLOR = (0, 0, 255)
TEXT_COLOR = (255, 255, 255) S = 13 #chia ảnh thành grids 13x13 cells
BOX = 5 #box number each cell = number of anchor boxes 
CLS = 2 # [face, not_face]
H, W = 416, 416
OUTPUT_THRESH = 0.7 # pre-defined anchor-boxes
ANCHOR_BOXS = [[1.08,1.19], [3.42,4.41], [6.63,11.38], [9.42,5.11], [16.62,10.52]]
device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
torch.autograd.set_detect_anomaly(True)

Define some util functions

#show 1 ảnh
def plot_img(img, size=(7,7)): plt.figure(figsize=size) plt.imshow(img[:,:,::-1]) plt.show() # vẽ bounding box lên ảnh
def visualize_bbox(img, boxes, thickness=2, color=BOX_COLOR, draw_center=True): img_copy = img.cpu().permute(1,2,0).numpy() if isinstance(img, torch.Tensor) else img.copy() for box in boxes: x,y,w,h = int(box[0]), int(box[1]), int(box[2]), int(box[3]) img_copy = cv2.rectangle( img_copy, (x,y),(x+w, y+h), color, thickness) if draw_center: center = (x+w//2, y+h//2) img_copy = cv2.circle(img_copy, center=center, radius=3, color=(0,255,0), thickness=2) return img_copy

2.2 Read and preprocess data in .txt file

def get_xywh_from_textline(text): coor = text.split(" ") result = [] xywh = [int(coor[i]) for i in range(4)] if(len(coor) > 4) else None return xywh def read_data(file_path, face_nb_max=10): ''' Read data in .txt file Return: list of image_data, each element is dict {file_path: , box_nb: , boxes:} ''' data = [] with open(file_path, 'r') as f: lines = f.readlines() for i, cur_line in enumerate(lines): if '.jpg' in cur_line: img_data = { 'file_path': cur_line.strip(), 'box_nb': int(lines[i+1]), 'boxes': [], } face_nb = img_data['box_nb'] if(face_nb <= face_nb_max): for j in range(face_nb): rect = get_xywh_from_textline(lines[i+2+j].replace("\n", "")) if rect is not None: img_data['boxes'].append(rect) if len(img_data['boxes']) > 0: data.append(img_data) return data train_data = read_data('../input/wider-data/WIDER/wider_face_train_bbx_gt.txt')
img_data = choice(train_data)
img = cv2.imread(f"{TRAIN_DIR}/{img_data['file_path']}").astype(np.float32)/255.0
vis_img = visualize_bbox(img, img_data['boxes'], thickness=3, color=BOX_COLOR)
plot_img(vis_img)

Demo image:

2.3 Define class Dataset

Dataset trong Torch hay chính là generator được dùng để sinh data trong quá trình train Torch đã cung cấp sẵn 2 class là Dataset và Dataloader, việc xây dựng generator trở lên đơn giản

Mình định nghĩa class FaceDataset, hàm getitem() sẽ trả về cặp (img, target_tensor). Trong đó target_tensor chứa thông tin về bboxes, label, objectness_prob, là 1 matrix có Shape = (S,S,B,(4+1+CLS)).

class FaceDataset(Dataset): def __init__(self, data, img_dir=TRAIN_DIR, transforms=None): self.data = data self.img_dir = img_dir self.transforms = transforms def __len__(self): return len(self.data) def __getitem__(self, id): img_data = self.data[id] img_fn = f"{self.img_dir}/{img_data['file_path']}" boxes = img_data["boxes"] box_nb = img_data["box_nb"] labels = torch.zeros((box_nb, 2), dtype=torch.int64) labels[:, 0] = 1 img = cv2.imread(img_fn).astype(np.float32)/255.0 try: if self.transforms: sample = self.transforms(**{ "image":img, "bboxes": boxes, "labels": labels, }) img = sample['image'] boxes = torch.stack(tuple(map(torch.tensor, zip(*sample['bboxes'])))).permute(1, 0) except: return self.__getitem__(randint(0, len(self.data)-1)) target_tensor = self.boxes_to_tensor(boxes.type(torch.float32), labels) return img, target_tensor def boxes_to_tensor(self, boxes, labels): """ Convert list of boxes (and labels) to tensor format Output: boxes_tensor: shape = (Batchsize, S, S, Box_nb, (4+1+CLS)) """ boxes_tensor = torch.zeros((S, S, BOX, 5+CLS)) cell_w, cell_h = W/S, H/S for i, box in enumerate(boxes): x,y,w,h = box # normalize xywh with cell_size x,y,w,h = x/cell_w, y/cell_h, w/cell_w, h/cell_h center_x, center_y = x+w/2, y+h/2 grid_x = int(np.floor(center_x)) grid_y = int(np.floor(center_y)) if grid_x < S and grid_y < S: boxes_tensor[grid_y, grid_x, :, 0:4] = torch.tensor(BOX * [[center_x-grid_x,center_y-grid_y,w,h]]) boxes_tensor[grid_y, grid_x, :, 4] = torch.tensor(BOX * [1.]) boxes_tensor[grid_y, grid_x, :, 5:] = torch.tensor(BOX*[labels[i].numpy()]) return boxes_tensor def collate_fn(batch): return tuple(zip(*batch)) def target_tensor_to_boxes(boxes_tensor): ''' Recover target tensor (tensor output of dataset) to bboxes Input: boxes_tensor: bboxes in tensor format - output of dataset.__getitem__ Output: boxes: list of box, each box is [x,y,w,h] ''' cell_w, cell_h = W/S, H/S boxes = [] for i in range(S): for j in range(S): for b in range(BOX): data = boxes_tensor[i,j,b] x_center,y_center, w, h, obj_prob, cls_prob = data[0], data[1], data[2], data[3], data[4], data[5:] prob = obj_prob*max(cls_prob) if prob > OUTPUT_THRESH: x, y = x_center+j-w/2, y_center+i-h/2 x,y,w,h = x*cell_w, y*cell_h, w*cell_w, h*cell_h box = [x,y,w,h] boxes.append(box) return boxes

Khởi tạo transform, dataset, dataloader

rain_transforms = A.Compose([ A.Resize(height=416, width=416), A.RandomSizedCrop(min_max_height=(350, 416), height=416, width=416, p=0.4), A.HorizontalFlip(p=0.5), ToTensorV2(p=1.0) ], bbox_params={ "format":"coco", 'label_fields': ['labels']
})
train_dataset = FaceDataset(train_data, transforms=train_transforms)
train_loader = DataLoader( train_dataset, batch_size=8, shuffle=True, num_workers=2, collate_fn=collate_fn, drop_last=True)

2.4 Define YOLOv2 model

Để đơn giản và dễ hiểu, mình không dùng Darknet-backbone mà mình sẽ xây dụng TinyYOLO - phiên bản nhỏ hơn của YOLO với kiến trúc bao gồm các Convolution layer xếp chồng lên nhau. Việc xây dựng backbone cho YOLO không hề khó. Thứ khó code nhất là Loss function

from torchsummary import summary def Conv(n_input, n_output, k_size=4, stride=2, padding=0, bn=False): return nn.Sequential( nn.Conv2d( n_input, n_output, kernel_size=k_size, stride=stride, padding=padding, bias=False), nn.BatchNorm2d(n_output), nn.LeakyReLU(0.2, inplace=True), nn.Dropout(p=0.2, inplace=False)) # This is tiny-yolo
class YOLO(torch.nn.Module): def __init__(self, nc=32, S=13, BOX=5, CLS=2): super(YOLO, self).__init__() self.nc = nc self.S = S self.BOX = BOX self.CLS = CLS self.net = nn.Sequential( nn.Conv2d( 3, nc, kernel_size=4, stride=2, padding=1, bias=False), nn.LeakyReLU(0.2, inplace=True), Conv(nc, nc, 3,2,1), Conv(nc, nc*2, 3,2,1), Conv(nc*2, nc*4, 3,2,1), Conv(nc*4, nc*8, 3,2,1), Conv(nc*8, nc*16, 3,1,1), Conv(nc*16, nc*8, 3,1,1), Conv(nc*8, BOX*(4+1+CLS), 3,1,1), ) def forward(self, input): output_tensor = self.net(input) output_tensor = output_tensor.permute(0, 2,3,1) W_grid, H_grid = self.S, self.S output_tensor = output_tensor.view(-1, H_grid, W_grid, self.BOX, 4+1+self.CLS) return output_tensor model = YOLO(S=S, BOX=BOX, CLS=CLS)
test_img = torch.rand(1,3,416,416)
output = model(test_img)

2.5 Loss function

Trước khi đọc code, hay nhìn lại các công thức này một chút. Thứ YOLO trả về không phải (x,y,w,h) trực tiếp của Object. Ta cần vài bước biến đổi theo công thức

Như mình đã nói, thứ khó code nhất của YOLO là loss function. Tư tưởng thì đơn giản nhưng việc implement thì khá phức tạp. Loss YOLO được kết hợp từ 5 loss thành phần. Trong quá trình tính loss, bạn phải xác định được IOU của từng predicted bbox với groundtruth bbox nằm cùng trong một Cell. Nếu vẫn chưa hiểu rõ bạn cần làm những gì, hãy đọc code ?

Các hàm phụ trợ cho loss function

def post_process_output(output): """Convert output of model to pred_xywh""" # xy xy = torch.sigmoid(output[:,:,:,:,:2]+1e-6) # wh wh = output[:,:,:,:,2:4] anchors_wh = torch.Tensor(ANCHOR_BOXS).view(1,1,1,BOX,2).to(device) wh = torch.exp(wh)*anchors_wh # objectness confidence obj_prob = torch.sigmoid(output[:,:,:,:,4:5]+1e-6) # class distribution cls_dist = torch.softmax(output[:,:,:,:,5:], dim=-1) return xy, wh, obj_prob, cls_dist def post_process_target(target_tensor): """ Tách target tensor thành từng thành phần riêng biệt: xy, wh, object_probility, class_distribution """ xy = target_tensor[:,:,:,:,:2] wh = target_tensor[:,:,:,:,2:4] obj_prob = target_tensor[:,:,:,:,4:5] cls_dist = target_tensor[:,:,:,:,5:] return xy, wh, obj_prob, cls_dist def square_error(output, target): return (output-target)**2

Loss function - thứ khó code nhất của Yolo. Dù đã từng code bằng Tensorflow cách đây 2 năm nhưng giờ code lại mình vẫn mất 8 tiếng để code nó cho đúng

def custom_loss(output_tensor, target_tensor): """ Luồng xử lí: 1. Tính diện tích các pred_bbox 2. Tính diện tích các true_bbox 3. Tính iou giữa từng pred_bbox với true_bbox tương ứng (nằm trong cùng 1 cell) 4. Trong mỗi cell, xác định best_box - box có iou với true_bbox đạt giá trị max so với 4 pred_bbox còn lại 5. Tính các loss thành phần theo công thức trong ảnh 6. Tính Total_loss """ cell_size = (W/S, H/S) NOOB_W, CONF_W, XY_W, PROB_W, WH_W = 2.0, 10.0, 0.5, 1.0, 0.1 pred_xy, pred_wh, pred_obj_prob, pred_cls_dist = post_process_output(output_tensor) true_xy, true_wh, true_obj_prob, true_cls_dist = post_process_target(target_tensor) # tính diện tích các pred_bbox pred_ul = pred_xy - 0.5*pred_wh pred_br = pred_xy + 0.5*pred_wh pred_area = pred_wh[:,:,:,:,0]*pred_wh[:,:,:,:,1] # Tính diện tích các true_bbox true_ul = true_xy - 0.5*true_wh true_br = true_xy + 0.5*true_wh true_area = true_wh[:,:,:,:,0]*true_wh[:,:,:,:,1] # Tính iou giữa từng pred_bbox với true_bbox tương ứng (nằm trong cùng 1 cell) intersect_ul = torch.max(pred_ul, true_ul) intersect_br = torch.min(pred_br, true_br) intersect_wh = intersect_br - intersect_ul intersect_area = intersect_wh[:,:,:,:,0]*intersect_wh[:,:,:,:,1] # Trong mỗi cell, xác định best_box - box có iou với true_bbox đạt giá trị max so với 4 pred_bbox còn lại iou = intersect_area/(pred_area + true_area - intersect_area) max_iou = torch.max(iou, dim=3, keepdim=True)[0] best_box_index = torch.unsqueeze(torch.eq(iou, max_iou).float(), dim=-1) true_box_conf = best_box_index*true_obj_prob # Tính các loss thành phần theo công thức trong ảnh xy_loss = (square_error(pred_xy, true_xy)*true_box_conf*XY_W).sum() wh_loss = (square_error(pred_wh, true_wh)*true_box_conf*WH_W).sum() obj_loss = (square_error(pred_obj_prob, true_obj_prob)*(CONF_W*true_box_conf + NOOB_W*(1-true_box_conf))).sum() cls_loss = (square_error(pred_cls_dist, true_cls_dist)*true_box_conf*PROB_W).sum() # Loss kết hợp total_loss = xy_loss + wh_loss + obj_loss + cls_loss return total_loss

2.6 Train model

Trước khi train model, mình sẽ định nghĩa hàm nonmax_suppression, sử dụng để loại đi các bbox dư thừa của cùng 1 vật thể

from tqdm import tqdm def output_tensor_to_boxes(boxes_tensor): cell_w, cell_h = W/S, H/S boxes = [] probs = [] for i in range(S): for j in range(S): for b in range(BOX): anchor_wh = torch.tensor(ANCHOR_BOXS[b]) data = boxes_tensor[i,j,b] xy = torch.sigmoid(data[:2]) wh = torch.exp(data[2:4])*anchor_wh obj_prob = torch.sigmoid(data[4:5]) cls_prob = torch.softmax(data[5:], dim=-1) combine_prob = obj_prob*max(cls_prob) if combine_prob > OUTPUT_THRESH: x_center, y_center, w, h = xy[0], xy[1], wh[0], wh[1] x, y = x_center+j-w/2, y_center+i-h/2 x,y,w,h = x*cell_w, y*cell_h, w*cell_w, h*cell_h box = [x,y,w,h, combine_prob] boxes.append(box) return boxes def overlap(interval_1, interval_2): x1, x2 = interval_1 x3, x4 = interval_2 if x3 < x1: if x4 < x1: return 0 else: return min(x2,x4) - x1 else: if x2 < x3: return 0 else: return min(x2,x4) - x3 def compute_iou(box1, box2): """Compute IOU between box1 and box2""" x1,y1,w1,h1 = box1[0], box1[1], box1[2], box1[3] x2,y2,w2,h2 = box2[0], box2[1], box2[2], box2[3] ## if box2 is inside box1 if (x1 < x2) and (y1<y2) and (w1>w2) and (h1>h2): return 1 area1, area2 = w1*h1, w2*h2 intersect_w = overlap((x1,x1+w1), (x2,x2+w2)) intersect_h = overlap((y1,y1+h1), (y2,y2+w2)) intersect_area = intersect_w*intersect_h iou = intersect_area/(area1 + area2 - intersect_area) return iou def nonmax_suppression(boxes, IOU_THRESH = 0.4): """remove ovelap bboxes""" boxes = sorted(boxes, key=lambda x: x[4], reverse=True) for i, current_box in enumerate(boxes): if current_box[4] <= 0: continue for j in range(i+1, len(boxes)): iou = compute_iou(current_box, boxes[j]) if iou > IOU_THRESH: boxes[j][4] = 0 boxes = [box for box in boxes if box[4] > 0] return boxes

Đến giai đoạn cuối cùng: train model. Thực ra vì mình không có thời gian và resource nên mình sẽ test ngay trên dữ liệu train (chỉ với vài ảnh).

Nghe test với dữ liệu train thì hơi buồn cười nhỉ, nhưng đó chính là cách mình dùng để kiểm tra model có hoạt động đúng hay không. Nếu feed 1 lượng nhỏ data vào train mà model không cho output giống với target, điều đó có nghĩa model của bạn đang sai ở đâu đó, trong loss function, model backbone, post-preprocess ... Ngược lại, nếu điều kiện này thoả mãn đồng nghĩa với việc code bạn đã đúng, model đúng (thường là thế). Lúc này, việc của bạn chỉ là tune lại model sao cho ngon hơn mà thôi

model = YOLO(S=S, BOX=BOX, CLS=CLS)
model.to(device) optimizer = torch.optim.SGD(model.parameters(), lr=0.001)
epochs = 10
iters = 1 imgs, targets = next(iter(train_loader))
demo_img = imgs[0].permute(1,2,0).cpu().numpy()
boxes = target_tensor_to_boxes(targets[0])
plot_img(visualize_bbox(demo_img.copy(), boxes=boxes), size=(5,5)) for epoch in tqdm(range(300)):
# for imgs, targets in tqdm(train_loader): # mình sẽ train và test trên 1 lượng dữ liệu nhỏ  # để kiểm tra model và code có hoạt động đúng hay không model.zero_grad() tensor_imgs, tensor_targets = torch.stack(imgs), torch.stack(targets) output = model(tensor_imgs.to(device)) loss = custom_loss(output_tensor=output, target_tensor=tensor_targets.to(device)) loss_value = loss.item() optimizer.zero_grad() loss.backward() optimizer.step() iters += 1 if iters%200 == 0: ## Test nay trên tập train, nếu kết quả thỏa mãn đồng nghĩa với code của bạn đã chạy đúng  boxes = output_tensor_to_boxes(output[0].detach().cpu()) boxes = nonmax_suppression(boxes) img = imgs[0].permute(1,2,0).cpu().numpy() img = visualize_bbox(img.copy(), boxes=boxes) plot_img(img, size=(4,4)) 

Và đây là kết quả test trên dữ liệu train chỉ sau 15s. Bên trái là ảnh target, phải là ảnh predict. Đó, với mẹo này, sau 15s mình đã kiểm chứng được rằng code, model hoạt động chuẩn. Việc của bạn bây giờ là chỉnh lại backbone, add layer, augmentation data và ngồi mòn đ*t train tiếp cho ngon hơn. Do mình đang ngồi ở quán cafe, chủ quán sắp đuổi rồi nên phải nhanh chóng kết thúc, không thể ngồi đợi train 3 tiếng để show model xịn hơn được ? . Cảm ơn bạn đã đọc bài viết. Đừng quên upvote (nếu bạn đang đọc bài này trên Viblo)

Bình luận

Bài viết tương tự

- vừa được xem lúc

[YOLO series] p1. Lý thuyết YOLO và YOLOv2

Trong lĩnh vực computer vision, có rất nhiều chủ đề, bài toán mà con người vẫn đang cố gắng tối ưu: classification, object detection/recognition, semantic segmentation, style transfer... Trong đó obje

0 0 190

- vừa được xem lúc

Phát hiện đối tượng chuyển động bằng giải thuật trừ nền

1. Giới thiệu về giải thuật trừ nền (Background Subtraction).

0 0 135

- vừa được xem lúc

Đánh số ảnh theo thứ tự

Bước đầu tiên trong bài toán custom object detection là thu thập ảnh, các ảnh thường được lấy trên mạng. Khi download các file ảnh trên mạng tên của các ảnh không được được đánh số thứ tự, tên dài ngắ

0 0 34

- vừa được xem lúc

YOLO3 Object Detection

Nội dung. Trong bài này mình không đi vào lý thuyết mà hướng dẫn sử dụng luôn pre-trained model YOLO v3 có sẵn để thực hiện phát hiện vật thể trong ảnh và video.

0 0 142

- vừa được xem lúc

Một số hàm mất mát sử dụng cho Object Detection

Object Detection hay phát hiện đối tượng là một trong các tác vụ chính được quan tâm nhiều nhất của thị giác máy, thường hướng tới việc phát hiện các thể hiện của các đối tượng của một lớp nhất định t

0 0 113

- vừa được xem lúc

CenterNet - CenterTrack - TraDeS: Từ object detection đến multiple object tracking

1. Mở đầu.

0 0 237