- vừa được xem lúc

Thuật toán Naive Bayes

0 0 22

Người đăng: Ánh Dương

Theo Viblo Asia

1.1 Lý thuyết

Các lý thuyết về xác suất

Gọi A, B và C là các sự kiện trong một phép thử:

• Các công thức xác suất:

o Xác suất có điều kiện: Xác suất xảy ra sự kiện A với điều kiện sự kiện B đã xảy ra gọi là xác suất có điều kiện B của sự kiện A:

image.png

o Công thức nhân xác suất:

image.png

o Công thức cộng xác suất:

image.png

o Công thức xác suất đầy đủ

image.png

Định lý Bayes và các khái niệm liên quan

XeˊtA1,A2,An\operatorname { Xét } A _ { 1 } , A _ { 2 } , \ldots A _ { n }

là hệ đầy đủ và B là biến cố liên quan. Ta có công thức Bayes

P (AiB)=P(Ai)P(BAi)P(B)i=1,2,3,..\stackrel { \ } { P } ( A _ { i } | B ) = \frac { P ( A _ { i } ) * P ( B | A _ { i } ) } { P ( B ) } \quad \forall i = 1 , 2 , 3 , . .

Trong đó: Các xác suất P(Ai), i = 1, 2, . . . , n đã được xác định từ trước, thường được gọi là xác suất tiên nghiệm. Các xác suất P(A_i│B) ,i = 1, 2, . . . , n được xác định sau khi đã có kết quả thí nghiệm nào đó thể hiện qua sự xuất hiện của H, thường gọi là xác suất hậu nghiệm. Như vậy, công thức Bayes cho phép đánh giá lại xác suất xảy ra các sự kiện Ai sau khi đã có them thông tin về B.

Thuật toán phân lớp Naive Bayes

Là thuật toán cơ bản của phương pháp Supervised Learning (Học có giám sát) Phân loại dựa trên định lý Bayes

o Bài toán phân loại:

  • Một tập dữ liệu huấn luyện D_train, trong đó mỗi phần tử dữ liệu x được biểu diễn là một vectơ n chiều: (x_1,x_2,...,x_n)
  • Một tập xác định các nhãn lớp: C={c_1,c_2,...,c_m}
  • Với một phần tử z mới, thì z sẽ được phân vào lớp nào?

o Thực hiện phân loại cho z:

  • Trong phương pháp phân loại Bayes, giả sử các thuộc tính là độc lập có điều kiện với các lớp nên ta có: image.png
  • Vì xác suất tiên nghiệm P(x_1 )P(x_2 )…*P(x_n )là như nhau nên ta suy ra: image.png
  • Phân loại Naïve Bayes tìm phân lớp có thể nhất đối với z image.png

(to be continued)

Bình luận

Bài viết tương tự

- vừa được xem lúc

Epoch, Batch size và Iterations

Khi mới học Machine Learning và sau này là Deep Learning chúng ta gặp phải các khái niệm như Epoch, Batch size và Iterations. Để khỏi nhầm lẫn mình xin chia sẻ với các bạn sự khác nhau giữa các khái n

0 0 46

- vừa được xem lúc

YOLOv2: Tốt hơn, nhanh hơn và mạnh mẽ hơn

1. Giới thiệu.

0 0 35

- vừa được xem lúc

Giới thiệu về Diffussion model (series 2)

1. Variable Diffussion model (VDM). 1.1 Lịch sử hình thành.

0 0 33

- vừa được xem lúc

Introduction Backpropagation ANN(Series 1)

Phần 1: Đạo hàm hồi quy logistic. Trong quá trình thực hiện mạng nơ-ron , chúng ta khởi tạo các tham số kết hợp với các đầu vào thông qua các layer có sử dụng activation function non linear.

0 0 26

- vừa được xem lúc

Introduction backpropagation RNN and LSTM(Series 3)

Phần 1: BPTT(Backpropgtation in Time). Trong bài viết này chúng ta sẽ tìm hiểu về Backpropagation in RNN từ đó hiểu lý do tại sao chúng bị vaninshing gradient .

0 0 27

- vừa được xem lúc

Khám phá sức mạnh của cơ chế Self Attention trong Transformers

Lời nói đầu. Transformers đã cách mạng hóa quá trình xử lý ngôn ngữ tự nhiên (NLP) bằng cách đạt được hiệu suất tiên tiến nhất trên nhiều tác vụ như dịch máy, lập mô hình ngôn ngữ và phân tích tình cả

0 0 32