Tag LLM
Tìm kiếm bài viết trong Tag LLM
vLLM – Giải pháp nhanh, gọn để triển khai mô hình ngôn ngữ lớn (LLM)
| Thiết lập vLLM để triển khai nhanh chóng. .
0 0 3
DeepSeek R1-0528: Mô hình AI Trung Quốc gây "bão" vì quá thông minh, lại còn chạy được trên 1 GPU
Trong thời điểm cuộc đua AI đang cực kỳ khốc liệt, một cái tên đến từ Trung Quốc – Deepseek – đã khiến cộng đồng công nghệ phải trầm trồ khi ra mắt phiên bản nâng cấp DeepSeek R1-0528. Không chỉ mạnh
0 0 6
Dễ sử dụng ngay cả với người mới! Tất cả về phát triển dựa trên AI với Cursor+Apidog MCP Server
Gần đây, ngay cả một lập trình viên mới như tôi cũng có thể viết mã cấp chuyên nghiệp nhờ sức mạnh của AI. Tuy nhiên, khi nói đến phát triển API, việc phải đối chiếu với tài liệu đặc tả và viết mã một
0 0 6
Bắt buộc cho lập trình viên! Hướng dẫn đầy đủ về công cụ lập trình Vibe năm 2025
Xin chào, Sự phát triển của các công cụ lập trình AI gần đây thực sự đáng kinh ngạc, phải không? Bản thân tôi đã được hỗ trợ rất nhiều bởi những công cụ này trong công việc phát triển hàng ngày, và th
0 0 7
[Advanced-LLM] Điều gì thật sự "ẩn dấu" sau "sự suy luận" của LLM ? Vén màn một chút sự thật....
Mở đầu. Thì 3 bài trước đó mình đã viết loanh quanh về khả năng của LLM.
0 0 6
Memory in LLM Agent
Introduction. Khi bạn bắt tay vào xây dựng một agent dùng mô hình ngôn ngữ lớn (LLM) để thực hiện một nhiệm vụ nào đó, thì chuyện "nhớ nhớ quên quên" không còn là chuyện cá nhân nữa — mà là yếu tố sốn
0 0 6
Tôi tìm thấy máy chủ DeepWiki MCP trên cursor nên tôi đã thử.
Xin chào mọi người! Gần đây, tôi có cơ hội đọc mã nguồn của một dự án mã nguồn mở và suýt nữa thì bỏ cuộc (cười). Tôi đã ôm đầu trước hàng chục nghìn dòng mã, tự hỏi "Khi nào mình mới hiểu được cái nà
0 0 5
Xây dựng AI Trading Team Vietnam: Ứng dụng giao thức Agent-to-Agent (A2A) trong đầu tư chứng khoán
Chào các bạn ! Lâu lắm mới ngoi lên để chia sẻ một cái gì đó và hi vọng bài này có thể giúp ích được cho nhiều anh em. Như mọi người cũng biết, MCP và A2A là 2 giao thức nổi đình nổi đám hiện nay mà v
0 0 5
[Paper Notes] Implicit Reasoning in Transformers is Reasoning through Shortcuts
Paper Link: Implicit Reasoning in Transformers is Reasoning through Shortcuts. Các mô hình ngôn ngữ hiện đại như OpenAI’s o1, o3 hay DeepSeek’s R1 cho thấy rằng tính toán thời gian kiểm tra (test-time
0 0 9
[Paper Notes] Reasoning models can be effective without thinking
Trong lĩnh vực trí tuệ nhân tạo, các mô hình ngôn ngữ lớn (LLMs) đã đạt được những bước tiến vượt bậc trong việc xử lý các nhiệm vụ suy luận phức tạp, từ giải toán đến lập trình và chứng minh định lý.
0 0 5
Không còn ClickOps, giờ là TalkOps! Những MCP Servers hữu ích cho Devops Engineer
Mở đầu. Trong những tháng gần đây MCP Server nổi lên nhưng một chuẩn chung giúp các mô hình ngôn ngữ lớn (LLM) thực hiện được nhiều công việc thay cho người dùng.
0 0 7
[Papers Notes] RL IN NAME ONLY? ANALYZING THE STRUCTURAL ASSUMPTIONS IN RL POST-TRAINING FOR LLMS
Trong quá trình tìm hiểu về việc sử dụng RL trong quá trình post-training trong LLM, có khá nhiều thắc mắc cũng như vấn đề mà mình suy nghĩ đến. Và tình cờ mình tìm được paper khá đúng với những gì mì
0 0 7
Better prompt engineering - Best practices từ kỹ sư của Google
Trong chuỗi bài viết về Prompt Engineering được tôi tổng hợp lại từ tài liệu của bác Lee Boonstra (Software Engineer Tech Lead tại Google, Office of the CTO), tôi đã chia sẻ về những kiến thức nền tản
0 0 5
Giới thiệu PyTorch: Có bột mới gột nên hồ
Trong loạt bài viết xây dựng mô hình ngôn ngữ lớn, PyTorch chính là công cụ quan trọng nhất được sử dụng. Tuy nhiên, chúng ta mới chỉ dừng ở mức sử dụng mà chưa có thời gian tìm hiểu kỹ hơn.
0 0 6
Better prompt engineering - Prompt techniques
Trong bài viết trước (Factors influencing LLM Output) , tôi đã đề cập những yếu tố ảnh hưởng đến output của LLM. Những yếu tố này đóng vai trò nền tảng giúp chúng ta khai thác tốt hơn sức mạnh của LLM
0 0 6
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 1): LLM là cái gì ?
Nếu đã click vào bài viết này thì chắc hẳn các bạn cũng đã dùng qua ChatGPT hay các công cụ tương tự ít nhất một lần Khả năng biểu đạt ngôn ngữ một cách tự nhiên của chatbot làm nhiều người kinh ngạc
0 0 8
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 2): Xử lý dữ liệu văn bản
Một phần bài viết được thể hiện dưới dạng Jupyter NoteBook tại đây. 1.
0 0 7
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 3): Cơ chế Attention
Ở bài viết trước chúng ta đã cùng tìm hiểu qua các kỹ thuật tiền xử lý dữ liệu văn bản. Với đầu ra input embeddings thu được, chúng ta sẽ tiếp tục dành toàn bộ bài viết để hiểu cơ chế Attention, thứ đ
0 0 5
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 4): Triển khai mô hình GPT
File Jupyter notebook của bài viết này nằm tại đây. 1.
0 0 6
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 5): Tiền huấn luyện với dữ liệu không gán nhãn
File Jupyter Notebook của bài viết này có thể xem tại đây. 1.
0 0 7
Xây Dựng Mô Hình Ngôn Ngữ Lớn (Phần 6): Tinh chỉnh cho nhiệm vụ phân loại văn bản
Ở các bài viết trước, ta đã triển khai gần như hoàn chỉnh việc xây dựng 1 mô hình ngôn ngữ lớn, từ việc xử lý dữ liệu đầu vào, cơ chế attention, logic trong khối Transformer cho đến tiền huấn luyện. B
0 0 6