Tag LLM

Tìm kiếm bài viết trong Tag LLM

- vừa được xem lúc

[2 phút đọc] Tại sao các ứng dụng RAG lại thất bại khi lên production?

Đây là phần ghi chép theo ý hiểu của mình từ bài viết Why RAG Applications Fail in Production của tác giả Mandar Karhade, MD. PhD. . 1.

0 0 16

- vừa được xem lúc

ChatGPT Series 7.2: Prompt Engineering (2)

Tiếp nối bài viết trước ChatGPT Series 7.1: Prompt Engineering (1) về kỹ thuật Prompt Engineering, bài viết này mình sẽ giới thiệu một số phương pháp nâng cao hơn được nghiên cứu và áp dụng cho kỹ thu

0 0 34

- vừa được xem lúc

ChatGPT Series 7.1: Prompt Engineering (1)

Tổng quan. .

0 0 32

- vừa được xem lúc

Chrome Extension - Web Summarizer & Translator - Trợ Thủ Đắc Lực Cho Việc Học Tiếng Anh

Giới Thiệu. Trong thời đại công nghệ 4.

0 0 18

- vừa được xem lúc

Hướng dẫn tạo Discord Bot bằng LM Studio

MỞ BÀI. . . Xin chào mọi người, ở bài viết trước mình đã hướng dẫn mọi người tạo 1 con discord bot cơ bản chạy bằng Nodejs.

0 0 23

- vừa được xem lúc

Let's read some LLMs paper in April!

Stay Up to Date with Latest Large Language Models Research. 1.

0 0 29

- vừa được xem lúc

🕹 Fun Project: Give AI a Persona👺

Can AI act as it know how to response with a given request attached with an emotion? Let’s find out. It is debated whether AI is sentient or not.

0 0 27

- vừa được xem lúc

Tìm hiểu "TinyLlama: An Open-Source Small Language Model"🦙

TinyLlama là mô hình ngôn ngữ 1,1B nhỏ gọn, được đào tạo trước trên 1 nghìn tỷ token. Xây dựng trên Llama 2, nó tận dụng những tiến bộ của cộng đồng nguồn mở như FlashAttention để có hiệu quả tính toá

0 0 29

- vừa được xem lúc

Dự án nhỏ: IELTS Suggestor

Giới thiệu. Mình hiện đang chuẩn bị cho kỳ thi IELTS.

0 0 38

- vừa được xem lúc

Nô đùa cùng Gemini API 🥳

Giới thiệu. Ở bài viết trước, tôi đã giới thiệu về mô hình Gemma, một bước tiến mới trong xây dựng mô hình lớn được phát triển bởi Google.

0 0 37

- vừa được xem lúc

[Paper Explain] Mixtral of Experts: Lắm thầy thì model khỏe

Mở đầu. Với những người sử dụng Large Language Model (LLM), hẳn cái tên Mixtral 8x7B đã không còn xa lạ gì nữa.

0 0 27

- vừa được xem lúc

Gemma - Bước tiến mới của Google

Giới thiệu. Gần đây, Google giới thiệu một mô hình ngôn ngữ mới hẹn tạo nên nhiều đột phát trong lĩnh vực xử lý ngôn ngữ tự nhiên.

0 0 23

- vừa được xem lúc

ChatGPT Series 6: Multimodal RAG và Những phương pháp được nghiên cứu để cải thiện chất lượng hệ thống RAG

Chúc mừng năm mới 2024 đến toàn thể cộng đồng ViBLO. Bài viết tiếp theo mình sẽ đề cập tới khía cạnh Multimodal RAG và những phương pháp được nghiên cứu để cải thiện hệ thống RAG.

0 0 37

- vừa được xem lúc

Text Summarization with LLM

Introduction. In my previous post, I have discussed about the summarization task in NLP, which is a very interesting topic.

0 0 29

- vừa được xem lúc

Làm thế nào để thao tác với LLM model?

Với một người dùng bình thường, sẽ rất đơn giản để sử dụng AI của các bên thứ 3 như Chat-GPT, Google Gemini... nhưng đồng thời bạn sẽ phải cung cấp những thông tin quan trọng, đôi khi là nhạy cảm cho

0 0 22

- vừa được xem lúc

Bạn đã biết gì về prompt engineering? (P3) - Cải thiện Retrieval Augmented Generation (RAG) với query transformation

Ở bài trước mình đã giới thiệu sơ qua về RAG - Retrieval Augmented Generation - một phương pháp hữu hiệu giải quyết vấn đề hallucination cho các bài toán dùng LLM để truy xuất và cung cấp thông tin. .

0 0 30

- vừa được xem lúc

LLM Hacking: Prompt Injection

LLM (Large Language Model). Large Language Models (LLM) là chủ đề bàn tán mạnh mẽ trên toàn thế giới từ cuối năm 2022 khi chatGPT release.

0 0 31

- vừa được xem lúc

ChatGPT Series 5: Tìm hiểu về Retrieval Augmented Generation (RAG)

Tổng quan. Chúng ta có thể hiểu nôm ra RAG trong thời đại LLMs như sau:.

0 0 39

- vừa được xem lúc

[Paper Explain] IAG: Induction-Augmented Generation Framework for Answering Reasoning

Cũng khá lâu rồi thì mình mới biết đến Viblo, một phần vì lười và cũng một phần vì có quá nhiều thứ cần cập nhật, đặc biệt là LLM khi cứ vài tuần lại có thêm một thứ mới để đọc. Nhưng lười mãi thì cũn

0 0 30