- vừa được xem lúc

tôi làm code 241211

0 0 2

Người đăng: Phan Ngoc

Theo Viblo Asia

Object detection

https://ai.gopubby.com/making-llms-more-truthful-with-dola-the-math-stuff-part-ii-4b66a12d1197

https://ai.gopubby.com/my-llms-outputs-got-1000-better-with-this-simple-trick-8403cf58691c

các topic cũng khá hay: Layer Selection , Contrasting the Predictions, Contrastive Decoding and Filtering function

  • Chỉ mới lướt qua, mà thấy cũng hay, cách giao giữa các model và loại dữ liệu.

https://github.com/ShawhinT/YouTube-Blog/blob/main/multimodal-ai/3-multimodal-rag/functions.py#L205

def embed_text(text): """ Convet text to embeddings using CLIP """ # import model model = CLIPTextModelWithProjection.from_pretrained("openai/clip-vit-base-patch16") # import processor (handles text tokenization and image preprocessing) processor = CLIPProcessor.from_pretrained("openai/clip-vit-base-patch16") # pre-process text and images inputs = processor(text=[text], return_tensors="pt", padding=True) # compute embeddings with CLIP outputs = model(**inputs) return outputs.text_embeds

https://aws.amazon.com/blogs/database/use-parallelism-to-optimize-querying-large-amounts-of-data-in-amazon-dynamodb/

Hiểu về https://modal.com/docs/examples/llm-finetuning

Parameter-Efficient Fine-Tuning (PEFT) via LoRA adapters for faster convergence Flash Attention for fast and memory-efficient attention during training (note: only works with certain hardware, like A100s) Gradient checkpointing to reduce VRAM footprint, fit larger batches and get higher training throughput Distributed training via DeepSpeed so training scales optimally with multiple GPUs

Bình luận

Bài viết tương tự

- vừa được xem lúc

Epoch, Batch size và Iterations

Khi mới học Machine Learning và sau này là Deep Learning chúng ta gặp phải các khái niệm như Epoch, Batch size và Iterations. Để khỏi nhầm lẫn mình xin chia sẻ với các bạn sự khác nhau giữa các khái n

0 0 46

- vừa được xem lúc

YOLOv2: Tốt hơn, nhanh hơn và mạnh mẽ hơn

1. Giới thiệu.

0 0 36

- vừa được xem lúc

Giới thiệu về Diffussion model (series 2)

1. Variable Diffussion model (VDM). 1.1 Lịch sử hình thành.

0 0 35

- vừa được xem lúc

Introduction Backpropagation ANN(Series 1)

Phần 1: Đạo hàm hồi quy logistic. Trong quá trình thực hiện mạng nơ-ron , chúng ta khởi tạo các tham số kết hợp với các đầu vào thông qua các layer có sử dụng activation function non linear.

0 0 29

- vừa được xem lúc

Introduction backpropagation RNN and LSTM(Series 3)

Phần 1: BPTT(Backpropgtation in Time). Trong bài viết này chúng ta sẽ tìm hiểu về Backpropagation in RNN từ đó hiểu lý do tại sao chúng bị vaninshing gradient .

0 0 27

- vừa được xem lúc

Khám phá sức mạnh của cơ chế Self Attention trong Transformers

Lời nói đầu. Transformers đã cách mạng hóa quá trình xử lý ngôn ngữ tự nhiên (NLP) bằng cách đạt được hiệu suất tiên tiến nhất trên nhiều tác vụ như dịch máy, lập mô hình ngôn ngữ và phân tích tình cả

0 0 33