Tag NLP

Tìm kiếm bài viết trong Tag NLP

- vừa được xem lúc

Tổng hợp về Tokenization

What is Tokenization. Rule-Based Tokenization.

0 0 2

- vừa được xem lúc

Tổng quan về Transformer: Attention is all you need

Tổng quan kiến trúc. Mô hình Transformers được chia ra làm hai phần chính Encoder và Decoder.

0 0 1

- vừa được xem lúc

Tìm hiểu "TinyLlama: An Open-Source Small Language Model"🦙

TinyLlama là mô hình ngôn ngữ 1,1B nhỏ gọn, được đào tạo trước trên 1 nghìn tỷ token. Xây dựng trên Llama 2, nó tận dụng những tiến bộ của cộng đồng nguồn mở như FlashAttention để có hiệu quả tính toá

0 0 2

- vừa được xem lúc

Nô đùa cùng Gemini API 🥳

Giới thiệu. Ở bài viết trước, tôi đã giới thiệu về mô hình Gemma, một bước tiến mới trong xây dựng mô hình lớn được phát triển bởi Google.

0 0 7

- vừa được xem lúc

Gemma - Bước tiến mới của Google

Giới thiệu. Gần đây, Google giới thiệu một mô hình ngôn ngữ mới hẹn tạo nên nhiều đột phát trong lĩnh vực xử lý ngôn ngữ tự nhiên.

0 0 3

- vừa được xem lúc

Text Preprocessing in NLP

Chào mọi người mình là Quân, một sinh viên đang nghiên cứu về AI. Trong bài viết này mình xin chia sẽ về các bước text preprocessing, Vì là kiến thức tự nghiên cứu nên xin được mọi người góp ý và cải

0 0 2

- vừa được xem lúc

Paper reading | NEURAL TOPIC MODEL VIA OPTIMAL TRANSPORT

Giới thiệu. Các Neural Topic Models được sự chú ý trong giới research nhờ có kết quả đầy hứa hẹn trong task text analysis .

0 0 14

- vừa được xem lúc

Natural Language Processing đã khiến cuộc sống thông minh hơn như thế nào? (Phần 2)

Ở phần trước, mình đã chia sẻ về khái niệm NLP là gì và tình hình NLP trong những năm vừa qua, lý do tại sao mà NLP lại khiến mọi thứ trở nên thông minh đến như vậy. Ở phần này, mình sẽ giải thích về

0 0 13

- vừa được xem lúc

Cùng tìm hiểu hệ thống dịch máy mạng nơ ron từ đầu. Từ BLEU score đến Beam Search Decoding.

Chào các bạn, trong bài blog này mình sẽ trình bày cách quá trình và cách cài đặt hệ thống dịch máy mạng nơ ron (Neural Machine Translation hay NMT) từ đầu bằng PyTorch. Từ việc chọn data, xử lý data

0 0 11

- vừa được xem lúc

Tổng quan: Các thành phần cấu tạo nên Transformer (Phần 1)

Transformer - một kiến trúc state-of-the-art được giới thiệu bởi Vaswani và cộng sự tại Google Brain vào năm 2017. Đã có rất nhiều những bài viết, tutorial để giải thích các thành phần của Transformer

0 0 8

- vừa được xem lúc

[Từ Transformer Đến Language Model] Bài 2: Kiến trúc và phương pháp Generative-Pretraining của GPT model

Tiếp nối series kiến thức nền tảng của large language model. Ở Bài 1: Bắt đầu với kiến trúc mô hình - Transformer, mình đã giới thiệu với các bạn về kiến trúc khởi nguồn của large language model - tra

0 0 9

- vừa được xem lúc

[Từ Transformer Đến Language Model] Bài 1: Bắt đầu với kiến trúc mô hình - Transformer

Chỉ trong vòng vài tháng trở lại đây, thế giới công nghệ đã bị khuynh đảo bởi các mô hình AI như ChatGPT, GPT-4, DALLE-2, Midjourney... Các mô hình AI đã và đang thực sự thay đổi cách thế giới này vận

0 0 12

- vừa được xem lúc

ChatGPT Series 3: Hướng dẫn Custom mô hình ChatGPT tùy chỉnh với dữ liệu của mình (Custom Knowledge Base)

Hướng dẫn custom mô hình ChatGPT với dữ liệu tùy chỉnh của mình (Custom Knowledge Base). Hiện nay, ChatGPT là "người bạn quốc dân", trở thành một công cụ không thể thiếu mà hầu hết mọi người sử dụng h

0 0 11

- vừa được xem lúc

Tại sao các bản "sao chép" của GPT-3/ GPT-3.5/ Instruct GPT/ chatGPT fail? Chúng ta nên sử dụng GPT-3.5/ chatGPT trong những bài toán nào?

Tại sao các bản "sao chép" được công đồng nghiên cứu của GPT-3 fail? Thật sự thì những nhiệm vụ nào thì nên sử dụng GPT-3.5/ chatGPT.

0 0 14

- vừa được xem lúc

ChatGPT: bản chất ChatGPT hoạt động như thế nào?

ChatGPT: bản chất ChatGPT hoạt động như thế nào. ChatGPT là một Large Language Model (LLM) mới nhất của OpenAI và cho thấy được sự cải thiện đáng kể với mô hình tiền.

0 0 8

- vừa được xem lúc

"Đu trend" ChatGPT - Sinh augmentation data cho bài toán NLP

Những ngày qua ChatGPT có thể nói đã dấy lên một làn sóng thảo luận mạnh mẽ trong xã hội, không chỉ dừng lại trong cộng đồng IT. Tuy nhiên mình nghĩ chúng ta nên quan tâm nhiều hơn đến việc làm thế nà

0 0 13

- vừa được xem lúc

Điểm tin AI tuần qua: 13/02/2023 - 19/02/2023

Các hoạt động đáng chú ý trong tuần:. . Google giới thiệu Bard để cạnh tranh với ChatGPT nhưng kết quả lại không được như kỳ vọng: https://edition.cnn.

0 0 9

- vừa được xem lúc

Khám phá sức mạnh của cơ chế Self Attention trong Transformers

Lời nói đầu. Transformers đã cách mạng hóa quá trình xử lý ngôn ngữ tự nhiên (NLP) bằng cách đạt được hiệu suất tiên tiến nhất trên nhiều tác vụ như dịch máy, lập mô hình ngôn ngữ và phân tích tình cả

0 0 22

- vừa được xem lúc

Khám phá activation function Gelu(Transformers)

Phần 1 . Lời nói đầu. Trong bài viết này chúng ta sẽ bắt đầu tìm hiểu một số chi tiết chưa có trong bài báo https://arxiv.org/abs/1606.

0 0 17

- vừa được xem lúc

Introduction backpropagation RNN and LSTM(Series 3)

Phần 1: BPTT(Backpropgtation in Time). Trong bài viết này chúng ta sẽ tìm hiểu về Backpropagation in RNN từ đó hiểu lý do tại sao chúng bị vaninshing gradient .

0 0 17