Tag Deep Learning

Tìm kiếm bài viết trong Tag Deep Learning

- vừa được xem lúc

Paper reading | FastViT: A Fast Hybrid Vision Transformer using Structural Reparameterization

Đóng góp của bài báo. Bài báo giới thiệu mô hình FastViT có kiến trúc hybrid vision transformer, mô hình đạt kết quả SOTA trong việc cân bằng giữa latency-accuracy.

0 0 2

- vừa được xem lúc

Toán học nền tảng của mạng nơ-ron – Từ trực giác đến Backpropagation

https://algonest.io.vn/toan-hoc-nen-tang-cua-mang-no-ron-tu-truc-giac-den-backpropagation/. Hiểu cấu trúc một nơ-ron nhân tạo hoạt động như thế nào.

0 0 1

- vừa được xem lúc

Paper reading | ACTION-Net: Multipath Excitation for Action Recognition

Đóng góp của bài báo. Trong các bài toán liên quan tới video, thông tin cần nắm bắt không chỉ là thông tin về mặt không gian (spatial information) giống như hình ảnh mà còn là thông tin về thời gian (

0 0 2

- vừa được xem lúc

Paper reading | Scene Text Recognition with Permuted Autoregressive Sequence Models

Đóng góp của bài báo. Bài toán Scene Text Recognition (STR) luôn nhận được sự quan tâm nhờ tính ứng dụng thực tiễn cao.

0 0 3

- vừa được xem lúc

LSTM: RNN phiên bản nâng cấp

Giới thiệu về LSTM. Hi mọi người, mình là Hiếu, ở bài viết trước mình có giới thiệu về RNN.

0 0 6

- vừa được xem lúc

Giới thiệu PyTorch: Có bột mới gột nên hồ

Trong loạt bài viết xây dựng mô hình ngôn ngữ lớn, PyTorch chính là công cụ quan trọng nhất được sử dụng. Tuy nhiên, chúng ta mới chỉ dừng ở mức sử dụng mà chưa có thời gian tìm hiểu kỹ hơn.

0 0 9

- vừa được xem lúc

Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 4): Triển khai mô hình GPT

File Jupyter notebook của bài viết này nằm tại đây. 1.

0 0 8

- vừa được xem lúc

Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 5): Tiền huấn luyện với dữ liệu không gán nhãn

File Jupyter Notebook của bài viết này có thể xem tại đây. 1.

0 0 9

- vừa được xem lúc

Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 6): Tinh chỉnh cho nhiệm vụ phân loại văn bản

Ở các bài viết trước, ta đã triển khai gần như hoàn chỉnh việc xây dựng 1 mô hình ngôn ngữ lớn, từ việc xử lý dữ liệu đầu vào, cơ chế attention, logic trong khối Transformer cho đến tiền huấn luyện. B

0 0 9

- vừa được xem lúc

Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 7): Tinh chỉnh mô hình với phương pháp follow instructions

File Jupyter NoteBook của bài viết này có thể xem tại đây. 1. Instruction fine-tuning. Sau giai đoạn tiền huấn luyện, mô hình đã có thể sinh văn bản khá tốt.

0 0 9

- vừa được xem lúc

Tập hợp các câu hỏi phỏng vấn trong cuốn DEEP LEARNING INTERVIEWS (ví dụ Dịch bệnh Ebola)

REAL-WORLD DEEP LEARNING INTERVIEW. Muốn cuốn sách khá hay cho a.e ôn luyện các thuật toán deep learning . PROBLEMS & SOLUTIONS.

0 0 19

- vừa được xem lúc

MLOps là gì? Ba cấp độ MLOps bạn cần biết!

1. Giới thiệu.

0 0 21

- vừa được xem lúc

Parameter vs. Floating-point - Ông thầy mắt cận và thằng bé mắt sáng

NVIDIA vừa tuyên bố sắp ra Project Digits - một chiếc PC mini có thể chạy các mô hình AI "não to" trong một thiết bị bé bằng... cái hộp cơm của bạn! Nhưng để làm được điều này, họ buộc phải đánh đổi:

0 0 7

- vừa được xem lúc

Molmo: Hướng đến OpenSource VLM

I. Giới thiệu.

0 0 8

- vừa được xem lúc

Setup Cực Đơn Giản Tensorflow GPU Jupyter Notebooks trên Docker Window WSL2

Mở Đầu. Docker trên WSL2 (Windows Subsystem for Linux) cho phép bạn tránh những sự không tương thích mà bạn có thể thấy khi chạy trực tiếp trên Windows bằng cách chạy trong một container Docker cho Li

0 0 9

- vừa được xem lúc

Triton Inference Server Tutorial

Overview. Trong bài viết lần trước, mình đã trình bày về tổng quan lý thuyết về Triton Inference Server bao gồm kiến trúc của Triton, các tính năng chính, thông tin cơ bản và một số Triton Server Tool

0 0 13

- vừa được xem lúc

MiniCPM-V: Mang sức mạnh của Multimodal LLM ngang tầm GPT4-V lên thiết bị di động

Hai bé "cún phi hành gia" đang thám hiểm sao Hỏa cùng trợ lý MiniCPM-V được triển khai trên một thiết bị nhỏ gọn (Nguồn: AI generated). Như đã đề cập trong bài viết trước về MiniCPM, mình đã giới thi

0 0 11

- vừa được xem lúc

[GPU in AI] Bài 1: Lời mở đầu

Ngày nay, với sự phát triển nhanh chóng của AI khiến nhu cầu sử dụng ngày càng tăng, dẫn đến việc dữ liệu ngày càng phong phú và các tác vụ ngày càng đa dạng. Điều này khiến các bài toán về Machine-Le

0 0 21