Tag Deep Learning
Tìm kiếm bài viết trong Tag Deep Learning
[Paper Explained] Triple-Sigmoid Activation Function for Deep Open-Set Recognition
1. Bài toán Open-Set Recognition.
0 0 14
[Paper Explained] PSPNet - Mô hình Deep Learning kinh điển cho bài toán Semantic Segmentation
1. Giới thiệu.
0 0 16
TẠI SAO LẠI SỬ DỤNG ACTIVATION FUNCTION TRONG NEURAL NETWORK
Khi mọi người làm việc với mạng neural thì chắc hẳn thành phần activation function chắc hẳn không còn xa lạ gì nữa với những hàm kích hoạt như Sigmoid, Relu, softmax,.. Nhưng tại sao nó lại cần ở tron
0 0 9
[paper explain] Meta Pseudo Labels: khi semi-supervised lên ngôi
1. Mở đầu.
0 0 10
Tổng quan: Unsupervised domain adaptation for Object detection
1. Giới thiệu.
0 0 16
RLHF và cách ChatGPT hoạt động
Cũng là một chủ đề liên quan đến ChatGPT, nhưng lần này lại thuần về công nghệ thôi. Một yêu cầu nhỏ đó là mọi người nên đọc và tìm hiểu trước về Reinforcement Learning trước khi tìm hiều sâu về kĩ th
0 0 15
Introducing simple chatbot model with Flask and MongoDB - Giới thiệu mô hình chatbot đơn giản cùng với Flask và MongoDB
Table of content ( Mục lục ). . English - Tiếng Anh. Vietnamese - Tiếng Việt.
0 0 16
Luyên thuyên về ChatGPT...
Đây là góc nhìn cá nhân của mình. Bài này mình viết luyên thuyên nên sẽ dài đó, cần cân nhắc trước khi đọc để không buồn ngủ nhé.
0 0 16
Những sự thật thú vị về PT4AL: một SOTA Active Learning
Lời mở đầu. Nhân dịp đầu xuân năm mới, chúc mọi người sức khỏe dồi dào và có những bước tiến lớn trong sự nghiệp.
0 0 4
[Paper Explain] MetaFormer: Khi Attention is NOT all you need cho bài toán phân loại ảnh
Yêu cầu nhỏ. Hiểu về các lớp Norm khác nhau hoạt động như nào: BatchNorm (BN), GroupNorm (GN), LayerNorm (LN) và biết cách sử dụng Pytorch. . Hình 0.
0 0 13
P4. (Lại là) Machine Learning with Graphs
Trong phần 2, mình có đề cập đến cấp độ Node trong bài toán Machine Learning in Graphs rồi (mọi người có thể xem lại tại link này: P2. Machine Learning with Graphs).
0 0 11
3 Cấp độ hiểu về Batch Normalization (Bài dịch - Johann Huber)
Trong series bài dịch này, mình sưu tầm những bài trên nguồn như Medium và dịch lại với mục đích:. .
0 0 13
P3. Nấu món Graphs cùng NetworkX
Trong hai phần trước, mình đã giới thiệu một chút về Graphs cũng như một số bài toán Machine Learning ở cấp độ Node cho Graphs rồi. Để đổi gió một tí thì hôm nay thực hành xào nấu mấy món khai vị liên
0 0 12
Phân loại hình ảnh với Vision Transformer
Ví dụ này triển khai mô hình Vision Transformer (ViT) của Alexey Dosovitskiy để phân loại hình ảnh và thể hiện mô hình đó trên tập dữ liệu CIFAR-100. Mô hình ViT áp dụng kiến trúc Transformer với khả
0 0 17
Tổng quan Super-resolution và các bài toán về Object Detection
. Đọc bài viết trên Pixta Vietnam tại đây: https://pixta.vn/tong-quan-ve-super-resolution-va-object-detection. . 1.
0 0 19
P2. Machine Learning with Graphs
Trong phần trước, mình đã giới thiệu về kiểu dữ liệu Graph, cũng như một số định nghĩa liên quan đến kiểu dữ liệu này. Hôm nay mình sẽ đi sâu hơn vào cách sử dụng Machine Learning để giải quyết một số
0 0 17
Machine Learning Cơ bản || Lesson 01: Sơ lược về Machine Learning
Sơ lược về Machine Learning (ML). 1) Định nghĩa về ML:.
0 0 16
Điểm tin AI tuần qua: số thứ 5: 19/12/2022 - 14/12/2022
1, Các hoạt động đáng chú ý trong tuần:. CUDA Toolkit 12.0 Released for General Availability. Radar Trends to Watch: December 2022.
0 0 13
[paper explain] Scaling Up Your Kernels to 31x31: Sự trở lại mạnh mẽ của CNN trên đường đua ImageNet
Lời mở đầu. Kể từ khi transformer được áp dụng vào bài toán vision, chúng ta đã được chứng kiến sự nhảy vọt ngoạn mục của họ mô hình này khi liên tục những SoTA trên tập ImageNet được xô đổ bởi ViTsex
0 0 16
[Điểm Tin AI Tuần Qua] Số thứ hai: 28/11/2022 - 03/12/2022
Chương trình điểm tin hàng tuần của AI Research được xây dựng nhằm mục đích giúp bạn cập nhật các xu hướng mới nhất. Nội dung số thứ hai của chương trình bao gồm các nội dung
0 0 12
[Điểm Tin AI Tuần Qua] Số thứ nhất: 20/11/2022 - 27/11/2022
Đến với số đầu tiên, chúng ta sẽ cùng điểm qua một số nội dung chính như sau:. 1, Các hoạt động đáng chú ý trong tuần:.
0 0 13