Tag LLM

Tìm kiếm bài viết trong Tag LLM

- vừa được xem lúc

[Từ Transformer Đến Language Model] Tổng quan về Large Language Model (phần 2)

ADAPTATION TUNING OF LLMS. Sau quá trình pretraining, tiếp đến ta sẽ cần finetune mô hình với downstream task nếu muốn mô hình hoạt động tốt với các tác vụ thực tế.

0 0 24

- vừa được xem lúc

Hướng dẫn tạo chat bot với OpenAI Assistant bằng Python

Giới thiệu về OpenAI Assistant. Ngày 7/11/2023, OpenAI giới thiệu một loạt các dịch vụ mới trong đó có OpenAI Assistant hứa hẹn sẽ tạo sự bùng nổ mới trong việc viết các ứng dụng 'trợ giúp' người dùng

0 0 29

- vừa được xem lúc

Bạn đã biết gì về prompt engineering? (P2) - Retrieval Augmented Generation - cứu cánh cho sự "ảo tưởng" của các LLM

Gần đây, sự phát triển của các mô hình ngôn ngữ lớn đã mở đường cho những tiến bộ vượt bậc trong lĩnh vực xử lý ngôn ngữ tự nhiên cũng như đẩy mạnh việc ứng dụng AI tạo sinh vào cuộc sống. Tuy nhiên,

0 0 36

- vừa được xem lúc

Sử dụng Self-Instruct và Unnatural Instruction để tạo thêm dữ liệu training LLM

Instruction finetuning. Việc có một mô hình ngôn ngữ (LM) có khả năng generalize tốt (trong quá khứ) thì khá là khó.

0 0 35

- vừa được xem lúc

BÀI GIẢNG MÔ HÌNH NGÔN NGỮ LỚN VÀ ỨNG DỤNG - SOICT SUMMER SCHOOL 2023

Trong video này mình sẽ chia sẻ với các bạn bài giảng đại chúng của mình tại Summer School 2023 được tổ chức bởi Trường CNTT-TT Đại học Bách Khoa Hà Nội và Trung tâm BKAI, Tập đoàn NAVER, quỹ đổi mới

0 0 22

- vừa được xem lúc

Tất tần tật những kĩ thuật Prompt Engineering hữu ích nhất cho chatGPT

chatGPT nói riêng hay mô hình ngôn ngữ lớn (LLM) nói chung, đã và đang đạt được những thành tựu cực kỳ quan trọng lĩnh vực ngôn ngữ tự nhiên, chúng dần dần xuất hiện ở mọi nơi và cho thấy một khả năng

0 0 52

- vừa được xem lúc

[Vinh danh Paper] QLoRA: Quantize để training mô hình hàng tỷ tham số trên Google Colab

Mình sẽ phải mở đầu bài này bằng một câu khen: Đây là một paper cực kì tuyệt vời! Lần đầu tiên mình có thể đem áp dụng ngay một paper ngay khi nó mới ra mắt và đạt được kết quả cực kì tốt. (Gần) Đúng

0 0 32

- vừa được xem lúc

Tất tần tật về LLaMA-2 - liệu có đủ làm nên một cuộc cách mạng mới

Lời giới thiệu. Xin chào tất cả các bạn, đã lâu lắm rồi kể từ sau bài viết về Trải lòng sau khi đọc GPT-4 Technical Report của OpenAI - các bác nên đổi tên công ty đi mình không có viết bài về LLM nữa

0 0 39

- vừa được xem lúc

Fine-tuning một cách hiệu quả và thân thiện với phần cứng: Adapters và LoRA

Fine-tuning là gì. Parameter-efficient Fine-tuning (PEFT) với Adapters.

0 0 50

- vừa được xem lúc

Lightweight Fine-Tuning: Một hướng đi cho những người làm AI trong kỉ nguyên của các Super Large Models (Phần 2)

Note: Tiêu đề và nội dung của bài viết này được lấy cảm hứng từ bài viết của sếp mình: "Hướng đi nào cho những người làm AI trong kỉ nguyên của các Super Large Models?". Recommend các bạn nên đọc để t

0 0 47

- vừa được xem lúc

Hướng dẫn xây dựng một trang web InterviewGPT ứng dụng chatgpt cho các bạn sinh viên thực hành phỏng vấn

Giới thiệu về InterviewGPT. InterviewGPT là một ứng dụng web được phát triển nhằm cung cấp một trải nghiệm tương tác và trợ giúp trong quá trình phỏng vấn việc làm.

0 0 38

- vừa được xem lúc

[Từ Transformer Đến Language Model] Bài 2: Kiến trúc và phương pháp Generative-Pretraining của GPT model

Tiếp nối series kiến thức nền tảng của large language model. Ở Bài 1: Bắt đầu với kiến trúc mô hình - Transformer, mình đã giới thiệu với các bạn về kiến trúc khởi nguồn của large language model - tra

0 0 43

- vừa được xem lúc

Lightweight Fine-Tuning: Một hướng đi cho những người làm AI trong kỉ nguyên của các Super Large Models (Phần 1)

Note: Tiêu đề và nội dung của bài viết này được lấy cảm hứng từ bài viết của sếp mình: "Hướng đi nào cho những người làm AI trong kỉ nguyên của các Super Large Models?". Recommend các bạn nên đọc để t

0 0 47