Tag LLM
Tìm kiếm bài viết trong Tag LLM
Nô đùa cùng Gemini API 🥳
Giới thiệu. Ở bài viết trước, tôi đã giới thiệu về mô hình Gemma, một bước tiến mới trong xây dựng mô hình lớn được phát triển bởi Google.
0 0 27
[Paper Explain] Mixtral of Experts: Lắm thầy thì model khỏe
Mở đầu. Với những người sử dụng Large Language Model (LLM), hẳn cái tên Mixtral 8x7B đã không còn xa lạ gì nữa.
0 0 19
Gemma - Bước tiến mới của Google
Giới thiệu. Gần đây, Google giới thiệu một mô hình ngôn ngữ mới hẹn tạo nên nhiều đột phát trong lĩnh vực xử lý ngôn ngữ tự nhiên.
0 0 16
ChatGPT Series 6: Multimodal RAG và Những phương pháp được nghiên cứu để cải thiện chất lượng hệ thống RAG
Chúc mừng năm mới 2024 đến toàn thể cộng đồng ViBLO. Bài viết tiếp theo mình sẽ đề cập tới khía cạnh Multimodal RAG và những phương pháp được nghiên cứu để cải thiện hệ thống RAG.
0 0 19
Text Summarization with LLM
Introduction. In my previous post, I have discussed about the summarization task in NLP, which is a very interesting topic.
0 0 17
Làm thế nào để thao tác với LLM model?
Với một người dùng bình thường, sẽ rất đơn giản để sử dụng AI của các bên thứ 3 như Chat-GPT, Google Gemini... nhưng đồng thời bạn sẽ phải cung cấp những thông tin quan trọng, đôi khi là nhạy cảm cho
0 0 14
Bạn đã biết gì về prompt engineering? (P3) - Cải thiện Retrieval Augmented Generation (RAG) với query transformation
Ở bài trước mình đã giới thiệu sơ qua về RAG - Retrieval Augmented Generation - một phương pháp hữu hiệu giải quyết vấn đề hallucination cho các bài toán dùng LLM để truy xuất và cung cấp thông tin. .
0 0 15
LLM Hacking: Prompt Injection
LLM (Large Language Model). Large Language Models (LLM) là chủ đề bàn tán mạnh mẽ trên toàn thế giới từ cuối năm 2022 khi chatGPT release.
0 0 24
ChatGPT Series 5: Tìm hiểu về Retrieval Augmented Generation (RAG)
Tổng quan. Chúng ta có thể hiểu nôm ra RAG trong thời đại LLMs như sau:.
0 0 21
[Paper Explain] IAG: Induction-Augmented Generation Framework for Answering Reasoning
Cũng khá lâu rồi thì mình mới biết đến Viblo, một phần vì lười và cũng một phần vì có quá nhiều thứ cần cập nhật, đặc biệt là LLM khi cứ vài tuần lại có thêm một thứ mới để đọc. Nhưng lười mãi thì cũn
0 0 18
[Từ Transformer Đến Language Model] Tổng quan về Large Language Model (phần 2)
ADAPTATION TUNING OF LLMS. Sau quá trình pretraining, tiếp đến ta sẽ cần finetune mô hình với downstream task nếu muốn mô hình hoạt động tốt với các tác vụ thực tế.
0 0 15
Xây dựng chatbot hỏi đáp tài liệu sử dụng mô hình ngôn ngữ lớn GPT3.5 và thư viện Langchain
1. MỞ ĐẦU.
0 0 20
Hướng dẫn tạo chat bot với OpenAI Assistant bằng Python
Giới thiệu về OpenAI Assistant. Ngày 7/11/2023, OpenAI giới thiệu một loạt các dịch vụ mới trong đó có OpenAI Assistant hứa hẹn sẽ tạo sự bùng nổ mới trong việc viết các ứng dụng 'trợ giúp' người dùng
0 0 17
Bạn đã biết gì về prompt engineering? (P2) - Retrieval Augmented Generation - cứu cánh cho sự "ảo tưởng" của các LLM
Gần đây, sự phát triển của các mô hình ngôn ngữ lớn đã mở đường cho những tiến bộ vượt bậc trong lĩnh vực xử lý ngôn ngữ tự nhiên cũng như đẩy mạnh việc ứng dụng AI tạo sinh vào cuộc sống. Tuy nhiên,
0 0 22
Sử dụng Self-Instruct và Unnatural Instruction để tạo thêm dữ liệu training LLM
Instruction finetuning. Việc có một mô hình ngôn ngữ (LM) có khả năng generalize tốt (trong quá khứ) thì khá là khó.
0 0 17
BÀI GIẢNG MÔ HÌNH NGÔN NGỮ LỚN VÀ ỨNG DỤNG - SOICT SUMMER SCHOOL 2023
Trong video này mình sẽ chia sẻ với các bạn bài giảng đại chúng của mình tại Summer School 2023 được tổ chức bởi Trường CNTT-TT Đại học Bách Khoa Hà Nội và Trung tâm BKAI, Tập đoàn NAVER, quỹ đổi mới
0 0 14
Tất tần tật những kĩ thuật Prompt Engineering hữu ích nhất cho chatGPT
chatGPT nói riêng hay mô hình ngôn ngữ lớn (LLM) nói chung, đã và đang đạt được những thành tựu cực kỳ quan trọng lĩnh vực ngôn ngữ tự nhiên, chúng dần dần xuất hiện ở mọi nơi và cho thấy một khả năng
0 0 36
[Vinh danh Paper] QLoRA: Quantize để training mô hình hàng tỷ tham số trên Google Colab
Mình sẽ phải mở đầu bài này bằng một câu khen: Đây là một paper cực kì tuyệt vời! Lần đầu tiên mình có thể đem áp dụng ngay một paper ngay khi nó mới ra mắt và đạt được kết quả cực kì tốt. (Gần) Đúng
0 0 21
Tất tần tật về LLaMA-2 - liệu có đủ làm nên một cuộc cách mạng mới
Lời giới thiệu. Xin chào tất cả các bạn, đã lâu lắm rồi kể từ sau bài viết về Trải lòng sau khi đọc GPT-4 Technical Report của OpenAI - các bác nên đổi tên công ty đi mình không có viết bài về LLM nữa
0 0 28
Fine-tuning một cách hiệu quả và thân thiện với phần cứng: Adapters và LoRA
Fine-tuning là gì. Parameter-efficient Fine-tuning (PEFT) với Adapters.
0 0 36
Lightweight Fine-Tuning: Một hướng đi cho những người làm AI trong kỉ nguyên của các Super Large Models (Phần 2)
Note: Tiêu đề và nội dung của bài viết này được lấy cảm hứng từ bài viết của sếp mình: "Hướng đi nào cho những người làm AI trong kỉ nguyên của các Super Large Models?". Recommend các bạn nên đọc để t
0 0 29