Tag LLM

Tìm kiếm bài viết trong Tag LLM

LLM Agent: Hướng dẫn cơ bản về LLM Agent

TỔNG QUAN. LLM Agent liên quan đến các ứng dụng LLM có thể thực thi các tác vụ phức tạp thông qua việc sử dụng kiến trúc kết hợp với LLM và các module chính như: planing, memory và tools .

0 0 0

- vừa được xem lúc

[LLM - Paper reading] Tóm tắt về phương pháp Direct Preference Optimization sử dụng trong RLHF

Giới thiệu. Trong bài viết này mình sẽ tóm tắt các ý tưởng chính của phương pháp DPO trong bài báo DPO Paper.

0 0 2

- vừa được xem lúc

[LLM 101] Tìm hiểu RLHF trong InstructGPT và Llama 2

Giới thiệu. Nếu từng làm về LLM thì hẳn bạn sẽ không còn thấy xa lạ gì với RLHF (Reinforcement Learning with Human Feedback).

0 0 2

- vừa được xem lúc

Tìm hiểu về AI Agents / LLM Agents (Phần 1)

Tổng quan. AI Agents/ LLM Agents là các thuật ngữ dường như đã trở nên rất phổ biến nhưng cho đến thời điểm hiện tại nhưng để hiểu rõ khái niệm, có khả năng phân biệt những khái niệm bên trong, phân b

0 0 1

- vừa được xem lúc

[LLM 101 - Paper reading] Tìm hiểu khả năng suy luận "K-level" trong mô hình ngôn ngữ lớn

Giới thiệu. Các Mô hình Ngôn ngữ Lớn (LLMs) đã mở ra một kỷ nguyên mới trong trí tuệ nhân tạo, giúp cải thiện cách chúng ta giải quyết các vấn đề phức tạp, từ toán học đến những câu hỏi thực tế hàng n

0 0 1

- vừa được xem lúc

Sơ lược về Azure OpenAI Realtime và cách sử dụng nó

1. Giới thiệu chung.

0 0 2

- vừa được xem lúc

Một vài câu chuyện xung quanh phát triển Chatbot (Phần 1)

Chào mừng các bạn đã đến tới series một vài câu chuyện xung quanh phát triển Chabot. Trong series này gồm nhiễu bài viết mình dự định có cách nội dung như sau:.

0 0 2

- vừa được xem lúc

[LLM - Paper reading] RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

Giới thiệu. Các bạn đều biết rằng Reinforcement Learning from Human Feedback (RLHF) là một phương pháp hiệu quả để align các mô hình ngôn ngữ lớn (LLMs) theo preference của con người, đóng vai trò qua

0 0 1

- vừa được xem lúc

[LLM 101] Thử chạy Llama 3 trên Laptop cá nhân

Giới thiệu. LLama 3 là một mô hình mới được release gần đây bởi Meta gây xôn xao cho cộng đồng làm AI.

0 0 1

- vừa được xem lúc

[LLM 101] Cài đặt kĩ thuật RAG sử dụng Hybrid Search, Embed Caching và Mistral-AI

RAG là gì. Mục tiêu chính của RAG là tăng độ chính xác của quá trình generate bằng cách truy xuất thông tin từ nguồn bên ngoài, giúp cho mô hình NLG (Natural Language Generation) tạo ra các phản hồi c

0 0 4

- vừa được xem lúc

[LLM 101] Thử tạo bộ nhớ ngắn hạn cho LLM Agent sử dụng LangChain

Giới thiệu. Trong chatbot, bộ nhớ đóng vai trò không thể phủ nhận trong việc tạo ra các cuộc hội thoại trôi chảy và gần gũi như con người.

0 0 1

- vừa được xem lúc

[LLM] Sử dụng RAGAs và LlamaIndex để đánh giá chất lượng RAG

Giới thiệu. Nếu bạn đã phát triển một ứng dụng Retrieval Augmented Generation (RAG) cho hệ thống kinh doanh thực tế, bạn có thể quan tâm đến hiệu quả của nó.

0 0 2

- vừa được xem lúc

[LLM 101] Thảo luận các vấn đề về Finetune Large Language Models

Giới thiệu. Như các bạn đã biết, lĩnh vực trí tuệ nhân tạo đang phát triển nhanh chóng và việc sử dụng hiệu quả các mô hình ngôn ngữ lớn (large language models - LLMs) trở nên ngày càng quan trọng.

0 0 2

- vừa được xem lúc

[LLM 101 - Paper reading] SaulLM-7B: A pioneering Large Language Model for Law

Đóng góp của bài báo. Việc áp dụng mô hình ngôn ngữ lớn (LLMs) trong nhiều lĩnh vực như dịch thuật, y tế và sinh code đạt được nhiều thành tựu nổi bật.

0 0 2

- vừa được xem lúc

Tối ưu hóa RAG cho dữ liệu có cấu trúc với Text2SQL

Lời mở đầu. Các mô hình embedding văn bản hoạt động rất tốt ở việc encoding các đoạn văn bản (dữ liệu không có cấu trúc) và khiến cho việc tìm kiếm các văn bản giống nhau một các dễ dàng hơn.

0 0 4

- vừa được xem lúc

Sử dụng HyDE để cải thiện hiệu năng RAG cho LLM

Như các bạn đã biết, Retrieval Augmented Generation (RAG) là một phương pháp hiệu quả giúp các mô hình ngôn ngữ lớn có thể truy cập vào cơ sở dữ liệu thông tin bên ngoài mà không cần phải fine-tune mô

0 0 4

- vừa được xem lúc

[LLM 101] Thử cài đặt Decomposed Low-Rank Adaptation (DoRA)

Giới thiệu. Low-rank adaptation (LoRA) là một phương pháp trong học máy được sử dụng để finetune một mô hình pretrain (ví dụ, một Large Language Model hoặc mô hình Vision Transformer) nhằm align nó vớ

0 0 3

- vừa được xem lúc

Nâng cao kỹ năng prompting đi thôi!!!

Chắc hẳn những anh em làm các con dự án RAG sẽ không còn xa lạ gì với việc phải thiết kế prompt cho một số phase trong hệ thống như QuestionAnalyzer, AnswerGenerator, AnswerEvaluator, ... Vậy các anh

0 0 3

- vừa được xem lúc

[LLM 101 - Paper reading] Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment

Đóng góp của bài báo. Các Mô hình Ngôn ngữ Lớn (LLMs) như GPT-4 thể hiện khả năng đáng kinh ngạc trong việc hiểu ý định (understanding intent), tuân theo hướng dẫn (following instructions), và thực hi

0 0 2

- vừa được xem lúc

[LLM 101 - Paper reading] Tìm hiểu Corrective Retrieval Augmented Generation (CRAG)

Giới thiệu. Hãy tưởng tượng bạn đang trong giờ kiểm tra và thầy của bạn cho mở sách Chúng ta sẽ có 3 chiến lược để làm bài kiểm tra như sau:. . .

0 0 1