Tag LLM

Tìm kiếm bài viết trong Tag LLM

- vừa được xem lúc

[LLM] Sử dụng RAGAs và LlamaIndex để đánh giá chất lượng RAG

Giới thiệu. Nếu bạn đã phát triển một ứng dụng Retrieval Augmented Generation (RAG) cho hệ thống kinh doanh thực tế, bạn có thể quan tâm đến hiệu quả của nó.

0 0 4

- vừa được xem lúc

[LLM 101] Thảo luận các vấn đề về Finetune Large Language Models

Giới thiệu. Như các bạn đã biết, lĩnh vực trí tuệ nhân tạo đang phát triển nhanh chóng và việc sử dụng hiệu quả các mô hình ngôn ngữ lớn (large language models - LLMs) trở nên ngày càng quan trọng.

0 0 3

- vừa được xem lúc

[LLM 101 - Paper reading] SaulLM-7B: A pioneering Large Language Model for Law

Đóng góp của bài báo. Việc áp dụng mô hình ngôn ngữ lớn (LLMs) trong nhiều lĩnh vực như dịch thuật, y tế và sinh code đạt được nhiều thành tựu nổi bật.

0 0 7

- vừa được xem lúc

Tối ưu hóa RAG cho dữ liệu có cấu trúc với Text2SQL

Lời mở đầu. Các mô hình embedding văn bản hoạt động rất tốt ở việc encoding các đoạn văn bản (dữ liệu không có cấu trúc) và khiến cho việc tìm kiếm các văn bản giống nhau một các dễ dàng hơn.

0 0 6

- vừa được xem lúc

Sử dụng HyDE để cải thiện hiệu năng RAG cho LLM

Như các bạn đã biết, Retrieval Augmented Generation (RAG) là một phương pháp hiệu quả giúp các mô hình ngôn ngữ lớn có thể truy cập vào cơ sở dữ liệu thông tin bên ngoài mà không cần phải fine-tune mô

0 0 6

- vừa được xem lúc

[LLM 101] Thử cài đặt Decomposed Low-Rank Adaptation (DoRA)

Giới thiệu. Low-rank adaptation (LoRA) là một phương pháp trong học máy được sử dụng để finetune một mô hình pretrain (ví dụ, một Large Language Model hoặc mô hình Vision Transformer) nhằm align nó vớ

0 0 4

- vừa được xem lúc

Nâng cao kỹ năng prompting đi thôi!!!

Chắc hẳn những anh em làm các con dự án RAG sẽ không còn xa lạ gì với việc phải thiết kế prompt cho một số phase trong hệ thống như QuestionAnalyzer, AnswerGenerator, AnswerEvaluator, ... Vậy các anh

0 0 5

- vừa được xem lúc

[LLM 101 - Paper reading] Large Language Models are Superpositions of All Characters: Attaining Arbitrary Role-play via Self-Alignment

Đóng góp của bài báo. Các Mô hình Ngôn ngữ Lớn (LLMs) như GPT-4 thể hiện khả năng đáng kinh ngạc trong việc hiểu ý định (understanding intent), tuân theo hướng dẫn (following instructions), và thực hi

0 0 3

- vừa được xem lúc

[LLM 101 - Paper reading] Tìm hiểu Corrective Retrieval Augmented Generation (CRAG)

Giới thiệu. Hãy tưởng tượng bạn đang trong giờ kiểm tra và thầy của bạn cho mở sách Chúng ta sẽ có 3 chiến lược để làm bài kiểm tra như sau:. . .

0 0 2

- vừa được xem lúc

LLM 101 | FlashAttention: Fast and Memory-Efficient Exact Attention with IO-Awareness

Đóng góp của bài báo. Nếu quen thuộc với Self-attention thì chúng ta đều biết rằng Self-attention có độ phức tạp bậc 2 với độ dài của chuỗi đầu vào.

0 0 2

- vừa được xem lúc

MiniCPM-V: Mang sức mạnh của Multimodal LLM ngang tầm GPT4-V lên thiết bị di động

Hai bé "cún phi hành gia" đang thám hiểm sao Hỏa cùng trợ lý MiniCPM-V được triển khai trên một thiết bị nhỏ gọn (Nguồn: AI generated). Như đã đề cập trong bài viết trước về MiniCPM, mình đã giới thi

0 0 4

- vừa được xem lúc

MiniCPM: Khai Phá Tiềm Năng Của Các Mô Hình Ngôn Ngữ Nhỏ (SLMs)

Trong những năm gần đây, cả thế giới và cộng đồng AI đều chứng kiến sự bùng nổ ấn tượng của các mô hình ngôn ngữ lớn (LLMs), với quy mô hàng tỷ đến hàng chục tỷ tham số. Tuy nhiên, chính vì kích thước

0 0 3

- vừa được xem lúc

[LLM 101] Thảo luận về finetune model LLM sử dụng LoRA (Low-Rank Adaptation)

Giới thiệu về LoRA. Các bạn đều biết rằng các LLM hiện nay đều có kích thước rất lớn và và việc cập nhật tất cả các tham số của mô hình trong quá trình training có thể rất tốn kém do giới hạn bộ nhớ G

0 0 3

- vừa được xem lúc

Claude Sonnet 3.5 vs Gemini: Nên trải nghiệm nếu bạn đang cần một phương án khác ngoài GPT

Lời mở đầu. Trong thế giới ngày càng phát triển của trí tuệ nhân tạo, việc tìm kiếm những công cụ hỗ trợ thông minh để tối ưu hóa công việc và cuộc sống hàng ngày ngày càng trở nên quan trọng.

0 0 10

- vừa được xem lúc

Tối đa hoá sức mạnh của LLM bằng việc sử dụng ReAct agent

I. Mở đầu:.

0 0 9

- vừa được xem lúc

Những đột phá mới nhất trong Machine Learning (19/08 - 25/08/2024)

Lưu ý: Đây là một bài dịch từ bài viết của DAIR.AI đăng hằng tuần trên LinkedIn. Link của DAIR.A Itrên LinkedIn: https://www.

0 0 10

- vừa được xem lúc

Những đột phá mới nhất trong Machine Learning (12/08 - 18/08/2024)

Lưu ý: Đây là một bài dịch từ bài viết của DAIR.AI đăng hằng tuần trên LinkedIn. Link của DAIR.A Itrên LinkedIn: https://www.

0 0 12

- vừa được xem lúc

Những đột phá mới nhất trong Machine Learning (05/08 - 11/08/2024)

Lưu ý: Đây là một bài dịch từ bài viết của DAIR.AI đăng hằng tuần trên LinkedIn. Link của DAIR.A Itrên LinkedIn: https://www.

0 0 8

- vừa được xem lúc

Những đột phá mới nhất trong Machine Learning (29/07 - 04/08/2024)

Lưu ý: Đây là một bài dịch từ bài viết của DAIR.AI đăng hằng tuần trên LinkedIn. Link của DAIR.A Itrên LinkedIn: https://www.

0 0 8

- vừa được xem lúc

Nâng cao hiệu suất RAG của bạn với Tavily Search API

Mở khóa kết quả nhanh hơn, phù hợp hơn. . Giới thiệu. Các mô hình ngôn ngữ lớn (LLM) và hệ thống RAG đã chứng tỏ sự vượt trội của chúng theo thời gian.

0 0 13

- vừa được xem lúc

RAG 2.0: Một số kỹ thuật được đề cập để cải thiện thêm về RAG

Trong thời gian gần đây, việc phát triển của các mô hình ngôn ngữ lớn (LLMs) đang phát triển chóng mặt, từ những open source model đến những close source model từ các ông lớn trong ngành. Và có lẽ nhữ

0 0 9