Tag NLP
Tìm kiếm bài viết trong Tag NLP
MiniCPM: Khai Phá Tiềm Năng Của Các Mô Hình Ngôn Ngữ Nhỏ (SLMs)
Trong những năm gần đây, cả thế giới và cộng đồng AI đều chứng kiến sự bùng nổ ấn tượng của các mô hình ngôn ngữ lớn (LLMs), với quy mô hàng tỷ đến hàng chục tỷ tham số. Tuy nhiên, chính vì kích thước
0 0 3
Tóm tắt ngắn gọn HateBERT: Công cụ AI chống lại ngôn ngữ thù hận trực tuyến
Công cụ AI chống lại ngôn ngữ thù hận trên không gian mạng. Mạng xã hội giúp chúng ta kết nối với mọi người và chia sẻ suy nghĩ của mình.
0 0 7
Những đột phá mới nhất trong Machine Learning (12/08 - 18/08/2024)
Lưu ý: Đây là một bài dịch từ bài viết của DAIR.AI đăng hằng tuần trên LinkedIn. Link của DAIR.A Itrên LinkedIn: https://www.
0 0 8
Những đột phá mới nhất trong Machine Learning (05/08 - 11/08/2024)
Lưu ý: Đây là một bài dịch từ bài viết của DAIR.AI đăng hằng tuần trên LinkedIn. Link của DAIR.A Itrên LinkedIn: https://www.
0 0 6
69 khái niệm kinh điển trong hành trình 10 năm phát triển của NLP - Phần 1 - Giai đoạn 2014 - 2018
Lời giới thiệu. Hello tất cả mọi người, trong bài viết này chúng ta sẽ cùng nhau nhìn lại lịch sử hào hùng với những tiến bộ vượt bậc trong suốt 10 năm qua ở lĩnh vực xử lý ngôn ngữ tự nhiên NLP.
0 0 8
Chatbot và cách xây dựng chatbot
Chatbot đã không còn quá xa lạ với chúng ta và nó trở thành công cụ không thể thiếu trong mỗi doanh nghiệp. Tùy theo đặc thù của từng lĩnh vực, chatbot có những ứng dụng riêng biệt.
0 0 9
Natural Language Processing (NLP) là gì và nó có ứng dụng như thế nào?
NLP có vẻ đã rất quen thuộc với anh em, lẽ ra giờ này chúng ta nên xem Generative AI, prompts nó như thế nào. Tuy nhiên hôm nay sẽ đi lại từ các nền tảng sơ khai của các ứng dụng "có thể hiểu con ngườ
0 0 9
[Paper reading] Towards Multi-Lingual Visual Question Answering
Giới thiệu chung. Visual Question Answering (VQA) là một bài toán thú vị mô phỏng gần nhất khả năng của con người.
0 0 13
Let's read some LLMs paper in April!
Stay Up to Date with Latest Large Language Models Research. 1.
0 0 12
Tổng quan về Transformer: Attention is all you need
Tổng quan kiến trúc. Mô hình Transformers được chia ra làm hai phần chính Encoder và Decoder.
0 0 12
Tìm hiểu "TinyLlama: An Open-Source Small Language Model"🦙
TinyLlama là mô hình ngôn ngữ 1,1B nhỏ gọn, được đào tạo trước trên 1 nghìn tỷ token. Xây dựng trên Llama 2, nó tận dụng những tiến bộ của cộng đồng nguồn mở như FlashAttention để có hiệu quả tính toá
0 0 12
Nô đùa cùng Gemini API 🥳
Giới thiệu. Ở bài viết trước, tôi đã giới thiệu về mô hình Gemma, một bước tiến mới trong xây dựng mô hình lớn được phát triển bởi Google.
0 0 19
Gemma - Bước tiến mới của Google
Giới thiệu. Gần đây, Google giới thiệu một mô hình ngôn ngữ mới hẹn tạo nên nhiều đột phát trong lĩnh vực xử lý ngôn ngữ tự nhiên.
0 0 12
Text Preprocessing in NLP
Chào mọi người mình là Quân, một sinh viên đang nghiên cứu về AI. Trong bài viết này mình xin chia sẽ về các bước text preprocessing, Vì là kiến thức tự nghiên cứu nên xin được mọi người góp ý và cải
0 0 12
Paper reading | NEURAL TOPIC MODEL VIA OPTIMAL TRANSPORT
Giới thiệu. Các Neural Topic Models được sự chú ý trong giới research nhờ có kết quả đầy hứa hẹn trong task text analysis .
0 0 23
Natural Language Processing đã khiến cuộc sống thông minh hơn như thế nào? (Phần 2)
Ở phần trước, mình đã chia sẻ về khái niệm NLP là gì và tình hình NLP trong những năm vừa qua, lý do tại sao mà NLP lại khiến mọi thứ trở nên thông minh đến như vậy. Ở phần này, mình sẽ giải thích về
0 0 25
Natural Language Processing đã khiến cuộc sống thông minh hơn như thế nào? (Phần 1)
1. Natural Language Processing (NLP) là gì.
0 0 22
Cùng tìm hiểu hệ thống dịch máy mạng nơ ron từ đầu. Từ BLEU score đến Beam Search Decoding.
Chào các bạn, trong bài blog này mình sẽ trình bày cách quá trình và cách cài đặt hệ thống dịch máy mạng nơ ron (Neural Machine Translation hay NMT) từ đầu bằng PyTorch. Từ việc chọn data, xử lý data
0 0 23
Tổng quan: Các thành phần cấu tạo nên Transformer (Phần 1)
Transformer - một kiến trúc state-of-the-art được giới thiệu bởi Vaswani và cộng sự tại Google Brain vào năm 2017. Đã có rất nhiều những bài viết, tutorial để giải thích các thành phần của Transformer
0 0 20