Tag Deep Learning
Tìm kiếm bài viết trong Tag Deep Learning
Paper reading | FastViT: A Fast Hybrid Vision Transformer using Structural Reparameterization
Đóng góp của bài báo. Bài báo giới thiệu mô hình FastViT có kiến trúc hybrid vision transformer, mô hình đạt kết quả SOTA trong việc cân bằng giữa latency-accuracy.
0 0 2
Toán học nền tảng của mạng nơ-ron – Từ trực giác đến Backpropagation
https://algonest.io.vn/toan-hoc-nen-tang-cua-mang-no-ron-tu-truc-giac-den-backpropagation/. Hiểu cấu trúc một nơ-ron nhân tạo hoạt động như thế nào.
0 0 1
Paper reading | ACTION-Net: Multipath Excitation for Action Recognition
Đóng góp của bài báo. Trong các bài toán liên quan tới video, thông tin cần nắm bắt không chỉ là thông tin về mặt không gian (spatial information) giống như hình ảnh mà còn là thông tin về thời gian (
0 0 2
Paper reading | Scene Text Recognition with Permuted Autoregressive Sequence Models
Đóng góp của bài báo. Bài toán Scene Text Recognition (STR) luôn nhận được sự quan tâm nhờ tính ứng dụng thực tiễn cao.
0 0 3
LSTM: RNN phiên bản nâng cấp
Giới thiệu về LSTM. Hi mọi người, mình là Hiếu, ở bài viết trước mình có giới thiệu về RNN.
0 0 6
Giới thiệu PyTorch: Có bột mới gột nên hồ
Trong loạt bài viết xây dựng mô hình ngôn ngữ lớn, PyTorch chính là công cụ quan trọng nhất được sử dụng. Tuy nhiên, chúng ta mới chỉ dừng ở mức sử dụng mà chưa có thời gian tìm hiểu kỹ hơn.
0 0 9
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 4): Triển khai mô hình GPT
File Jupyter notebook của bài viết này nằm tại đây. 1.
0 0 8
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 5): Tiền huấn luyện với dữ liệu không gán nhãn
File Jupyter Notebook của bài viết này có thể xem tại đây. 1.
0 0 9
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 6): Tinh chỉnh cho nhiệm vụ phân loại văn bản
Ở các bài viết trước, ta đã triển khai gần như hoàn chỉnh việc xây dựng 1 mô hình ngôn ngữ lớn, từ việc xử lý dữ liệu đầu vào, cơ chế attention, logic trong khối Transformer cho đến tiền huấn luyện. B
0 0 9
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 7): Tinh chỉnh mô hình với phương pháp follow instructions
File Jupyter NoteBook của bài viết này có thể xem tại đây. 1. Instruction fine-tuning. Sau giai đoạn tiền huấn luyện, mô hình đã có thể sinh văn bản khá tốt.
0 0 9
Tập hợp các câu hỏi phỏng vấn trong cuốn DEEP LEARNING INTERVIEWS (ví dụ Dịch bệnh Ebola)
REAL-WORLD DEEP LEARNING INTERVIEW. Muốn cuốn sách khá hay cho a.e ôn luyện các thuật toán deep learning . PROBLEMS & SOLUTIONS.
0 0 19
[Vintern-1B-v3.5] Mô hình kết hợp OCR và xử lý văn bản nhỏ nhẹ dành cho tiếng Việt
1. Giới thiệu.
0 0 15
Machine Learning Lifecycle: Từ thu thập dữ liệu đến triển khai
1. Giới thiệu.
0 0 22
Parameter vs. Floating-point - Ông thầy mắt cận và thằng bé mắt sáng
NVIDIA vừa tuyên bố sắp ra Project Digits - một chiếc PC mini có thể chạy các mô hình AI "não to" trong một thiết bị bé bằng... cái hộp cơm của bạn! Nhưng để làm được điều này, họ buộc phải đánh đổi:
0 0 7
Setup Cực Đơn Giản Tensorflow GPU Jupyter Notebooks trên Docker Window WSL2
Mở Đầu. Docker trên WSL2 (Windows Subsystem for Linux) cho phép bạn tránh những sự không tương thích mà bạn có thể thấy khi chạy trực tiếp trên Windows bằng cách chạy trong một container Docker cho Li
0 0 9
Triton Inference Server Tutorial
Overview. Trong bài viết lần trước, mình đã trình bày về tổng quan lý thuyết về Triton Inference Server bao gồm kiến trúc của Triton, các tính năng chính, thông tin cơ bản và một số Triton Server Tool
0 0 13
[Voice-Speech to text] Khám phá Whisper và công cụ API chuyển đổi âm thanh thành văn bản Deepgram
1. MỞ ĐẦU.
0 0 12
MiniCPM-V: Mang sức mạnh của Multimodal LLM ngang tầm GPT4-V lên thiết bị di động
Hai bé "cún phi hành gia" đang thám hiểm sao Hỏa cùng trợ lý MiniCPM-V được triển khai trên một thiết bị nhỏ gọn (Nguồn: AI generated). Như đã đề cập trong bài viết trước về MiniCPM, mình đã giới thi
0 0 11
[GPU in AI] Bài 1: Lời mở đầu
Ngày nay, với sự phát triển nhanh chóng của AI khiến nhu cầu sử dụng ngày càng tăng, dẫn đến việc dữ liệu ngày càng phong phú và các tác vụ ngày càng đa dạng. Điều này khiến các bài toán về Machine-Le
0 0 21