Tag NLP
Tìm kiếm bài viết trong Tag NLP
Tổng quan về Transformer: Attention is all you need
Tổng quan kiến trúc. Mô hình Transformers được chia ra làm hai phần chính Encoder và Decoder.
0 0 1
Tìm hiểu "TinyLlama: An Open-Source Small Language Model"🦙
TinyLlama là mô hình ngôn ngữ 1,1B nhỏ gọn, được đào tạo trước trên 1 nghìn tỷ token. Xây dựng trên Llama 2, nó tận dụng những tiến bộ của cộng đồng nguồn mở như FlashAttention để có hiệu quả tính toá
0 0 2
Nô đùa cùng Gemini API 🥳
Giới thiệu. Ở bài viết trước, tôi đã giới thiệu về mô hình Gemma, một bước tiến mới trong xây dựng mô hình lớn được phát triển bởi Google.
0 0 7
Gemma - Bước tiến mới của Google
Giới thiệu. Gần đây, Google giới thiệu một mô hình ngôn ngữ mới hẹn tạo nên nhiều đột phát trong lĩnh vực xử lý ngôn ngữ tự nhiên.
0 0 3
Text Preprocessing in NLP
Chào mọi người mình là Quân, một sinh viên đang nghiên cứu về AI. Trong bài viết này mình xin chia sẽ về các bước text preprocessing, Vì là kiến thức tự nghiên cứu nên xin được mọi người góp ý và cải
0 0 2
Paper reading | NEURAL TOPIC MODEL VIA OPTIMAL TRANSPORT
Giới thiệu. Các Neural Topic Models được sự chú ý trong giới research nhờ có kết quả đầy hứa hẹn trong task text analysis .
0 0 14
Natural Language Processing đã khiến cuộc sống thông minh hơn như thế nào? (Phần 2)
Ở phần trước, mình đã chia sẻ về khái niệm NLP là gì và tình hình NLP trong những năm vừa qua, lý do tại sao mà NLP lại khiến mọi thứ trở nên thông minh đến như vậy. Ở phần này, mình sẽ giải thích về
0 0 13
Natural Language Processing đã khiến cuộc sống thông minh hơn như thế nào? (Phần 1)
1. Natural Language Processing (NLP) là gì.
0 0 12
Cùng tìm hiểu hệ thống dịch máy mạng nơ ron từ đầu. Từ BLEU score đến Beam Search Decoding.
Chào các bạn, trong bài blog này mình sẽ trình bày cách quá trình và cách cài đặt hệ thống dịch máy mạng nơ ron (Neural Machine Translation hay NMT) từ đầu bằng PyTorch. Từ việc chọn data, xử lý data
0 0 11
Tổng quan: Các thành phần cấu tạo nên Transformer (Phần 1)
Transformer - một kiến trúc state-of-the-art được giới thiệu bởi Vaswani và cộng sự tại Google Brain vào năm 2017. Đã có rất nhiều những bài viết, tutorial để giải thích các thành phần của Transformer
0 0 8
[Từ Transformer Đến Language Model] Bài 2: Kiến trúc và phương pháp Generative-Pretraining của GPT model
Tiếp nối series kiến thức nền tảng của large language model. Ở Bài 1: Bắt đầu với kiến trúc mô hình - Transformer, mình đã giới thiệu với các bạn về kiến trúc khởi nguồn của large language model - tra
0 0 9
[Từ Transformer Đến Language Model] Bài 1: Bắt đầu với kiến trúc mô hình - Transformer
Chỉ trong vòng vài tháng trở lại đây, thế giới công nghệ đã bị khuynh đảo bởi các mô hình AI như ChatGPT, GPT-4, DALLE-2, Midjourney... Các mô hình AI đã và đang thực sự thay đổi cách thế giới này vận
0 0 12
ChatGPT Series 3: Hướng dẫn Custom mô hình ChatGPT tùy chỉnh với dữ liệu của mình (Custom Knowledge Base)
Hướng dẫn custom mô hình ChatGPT với dữ liệu tùy chỉnh của mình (Custom Knowledge Base). Hiện nay, ChatGPT là "người bạn quốc dân", trở thành một công cụ không thể thiếu mà hầu hết mọi người sử dụng h
0 0 11
Tại sao các bản "sao chép" của GPT-3/ GPT-3.5/ Instruct GPT/ chatGPT fail? Chúng ta nên sử dụng GPT-3.5/ chatGPT trong những bài toán nào?
Tại sao các bản "sao chép" được công đồng nghiên cứu của GPT-3 fail? Thật sự thì những nhiệm vụ nào thì nên sử dụng GPT-3.5/ chatGPT.
0 0 14
ChatGPT: bản chất ChatGPT hoạt động như thế nào?
ChatGPT: bản chất ChatGPT hoạt động như thế nào. ChatGPT là một Large Language Model (LLM) mới nhất của OpenAI và cho thấy được sự cải thiện đáng kể với mô hình tiền.
0 0 8
"Đu trend" ChatGPT - Sinh augmentation data cho bài toán NLP
Những ngày qua ChatGPT có thể nói đã dấy lên một làn sóng thảo luận mạnh mẽ trong xã hội, không chỉ dừng lại trong cộng đồng IT. Tuy nhiên mình nghĩ chúng ta nên quan tâm nhiều hơn đến việc làm thế nà
0 0 13
Điểm tin AI tuần qua: 13/02/2023 - 19/02/2023
Các hoạt động đáng chú ý trong tuần:. . Google giới thiệu Bard để cạnh tranh với ChatGPT nhưng kết quả lại không được như kỳ vọng: https://edition.cnn.
0 0 9
Khám phá sức mạnh của cơ chế Self Attention trong Transformers
Lời nói đầu. Transformers đã cách mạng hóa quá trình xử lý ngôn ngữ tự nhiên (NLP) bằng cách đạt được hiệu suất tiên tiến nhất trên nhiều tác vụ như dịch máy, lập mô hình ngôn ngữ và phân tích tình cả
0 0 22
Khám phá activation function Gelu(Transformers)
Phần 1 . Lời nói đầu. Trong bài viết này chúng ta sẽ bắt đầu tìm hiểu một số chi tiết chưa có trong bài báo https://arxiv.org/abs/1606.
0 0 17
Introduction backpropagation RNN and LSTM(Series 3)
Phần 1: BPTT(Backpropgtation in Time). Trong bài viết này chúng ta sẽ tìm hiểu về Backpropagation in RNN từ đó hiểu lý do tại sao chúng bị vaninshing gradient .
0 0 17