Tag LLM

Tìm kiếm bài viết trong Tag LLM

[Paper Explain] A new direction in text generations. Let's deep into Large Language Diffusion Model.

Mở đầu. Thế thì thử đi sâu vào xem các pháp sư đã làm gì model nào . Paper : Large Language Diffusion Models. Hold up :.

0 0 0

- vừa được xem lúc

RLHF - Cơ bản về Reinforcement Learning from Human Feedback

Giới thiệu. Trong bài viết này, chúng ta sẽ tìm hiểu về “Learning from Human Feedback”.

0 0 1

- vừa được xem lúc

Thử nghiệm mô hình gemma3 trên Mac Mini M4 bản base 🥶

Hi ae dev, Mô hình gemma3 của Google vừa ra mắt được vài hôm. Nó khá là nhẹ so với các model lớn khác và tớ đã nhanh chóng thử nghiệm xem nó "ngon" cỡ nào .

0 0 2

Foundations of Large Language Models: Pre-training phần 1

Lời tựa. Các mô hình ngôn ngữ lớn (Large Language Models - LLMs) bắt nguồn từ lĩnh vực xử lý ngôn ngữ tự nhiên (Natural Language Processing - NLP), nhưng chúng đã trở thành một trong những tiến bộ côn

0 0 0

- vừa được xem lúc

[UrCheckin] Tích hợp AI để chấm công tự động trên ứng dụng Base 🪲 (Phần 2/3)

Phải làm tốt nhất có thể . GitHub Repository: UrCheckin-Check-Timeoff. Xem nhiều hơn tại: https://devvui.one.

0 0 1

ServBay 1.9.0: Cài đặt mô hình lớn bằng một cú nhấp chuột, mở ra kỷ nguyên mới của phát triển thông minh

Trong bối cảnh AI phát triển nhanh chóng ngày nay, việc triển khai cục bộ các mô hình lớn đã trở thành một nhu cầu quan trọng đối với các nhà phát triển và những người đam mê AI. Tuy nhiên, các phương

0 0 0

- vừa được xem lúc

Một trick nhỏ giúp tăng số lượng request có thể gửi đến Gemini API

Chào các bạn! Hôm nay mình muốn chia sẻ một trick nhỏ mà khá hiệu quả để tăng số lượng request có thể gửi đến Gemini API. (Hy vọng mấy bác Google không đọc được bài này ).

0 0 1

- vừa được xem lúc

LLM Agent: Hướng dẫn cơ bản về LLM Agent

TỔNG QUAN. LLM Agent liên quan đến các ứng dụng LLM có thể thực thi các tác vụ phức tạp thông qua việc sử dụng kiến trúc kết hợp với LLM và các module chính như: planing, memory và tools .

0 0 1

- vừa được xem lúc

[LLM - Paper reading] Tóm tắt về phương pháp Direct Preference Optimization sử dụng trong RLHF

Giới thiệu. Trong bài viết này mình sẽ tóm tắt các ý tưởng chính của phương pháp DPO trong bài báo DPO Paper.

0 0 3

- vừa được xem lúc

[LLM 101] Tìm hiểu RLHF trong InstructGPT và Llama 2

Giới thiệu. Nếu từng làm về LLM thì hẳn bạn sẽ không còn thấy xa lạ gì với RLHF (Reinforcement Learning with Human Feedback).

0 0 3

- vừa được xem lúc

Tìm hiểu về AI Agents / LLM Agents (Phần 1)

Tổng quan. AI Agents/ LLM Agents là các thuật ngữ dường như đã trở nên rất phổ biến nhưng cho đến thời điểm hiện tại nhưng để hiểu rõ khái niệm, có khả năng phân biệt những khái niệm bên trong, phân b

0 0 2

- vừa được xem lúc

[LLM 101 - Paper reading] Tìm hiểu khả năng suy luận "K-level" trong mô hình ngôn ngữ lớn

Giới thiệu. Các Mô hình Ngôn ngữ Lớn (LLMs) đã mở ra một kỷ nguyên mới trong trí tuệ nhân tạo, giúp cải thiện cách chúng ta giải quyết các vấn đề phức tạp, từ toán học đến những câu hỏi thực tế hàng n

0 0 1

- vừa được xem lúc

Sơ lược về Azure OpenAI Realtime và cách sử dụng nó

1. Giới thiệu chung.

0 0 3

- vừa được xem lúc

Một vài câu chuyện xung quanh phát triển Chatbot (Phần 1)

Chào mừng các bạn đã đến tới series một vài câu chuyện xung quanh phát triển Chabot. Trong series này gồm nhiễu bài viết mình dự định có cách nội dung như sau:.

0 0 3

- vừa được xem lúc

[LLM - Paper reading] RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback

Giới thiệu. Các bạn đều biết rằng Reinforcement Learning from Human Feedback (RLHF) là một phương pháp hiệu quả để align các mô hình ngôn ngữ lớn (LLMs) theo preference của con người, đóng vai trò qua

0 0 2

- vừa được xem lúc

[LLM 101] Thử chạy Llama 3 trên Laptop cá nhân

Giới thiệu. LLama 3 là một mô hình mới được release gần đây bởi Meta gây xôn xao cho cộng đồng làm AI.

0 0 3

- vừa được xem lúc

[LLM 101] Cài đặt kĩ thuật RAG sử dụng Hybrid Search, Embed Caching và Mistral-AI

RAG là gì. Mục tiêu chính của RAG là tăng độ chính xác của quá trình generate bằng cách truy xuất thông tin từ nguồn bên ngoài, giúp cho mô hình NLG (Natural Language Generation) tạo ra các phản hồi c

0 0 4

- vừa được xem lúc

[LLM 101] Thử tạo bộ nhớ ngắn hạn cho LLM Agent sử dụng LangChain

Giới thiệu. Trong chatbot, bộ nhớ đóng vai trò không thể phủ nhận trong việc tạo ra các cuộc hội thoại trôi chảy và gần gũi như con người.

0 0 2