- Khóa học miễn phí mã nguồn mở giúp học từng bước về công nghệ chạy trực tiếp mô hình AI trên thiết bị biên
- Mục tiêu là chạy trực tiếp mô hình AI trên thiết bị thay vì trên đám mây, từ đó đạt được giảm độ trễ, bảo vệ quyền riêng tư, tiết kiệm chi phí và giảm phụ thuộc vào mạng
- Người học có thể hoàn thành các dự án thực chiến như triển khai SLM, xây dựng hệ thống đa tác tử, triển khai pipeline RAG cục bộ, định tuyến mô hình, đồng thời nắm được kỹ thuật triển khai trên Windows, di động, nhúng và môi trường lai
- Giải thích theo hướng thực hành cách cải thiện hiệu năng (tăng tốc tối đa 85%, giảm 75% kích thước mô hình) thông qua các công cụ tối ưu hóa chủ chốt như Llama.cpp, Microsoft Olive, OpenVINO, Apple MLX
- Chương trình học (tổng thời lượng dự kiến: 36–45 giờ)
- 0. Tổng quan về EdgeAI và giới thiệu mục tiêu học tập (nhập môn: 1–2 giờ)
- 1. Khái niệm cơ bản và các ví dụ về Edge AI (sơ cấp: 3–4 giờ)
- 2. Cấu trúc và họ mô hình SLM (sơ cấp: 4–5 giờ)
- 3. Thực hành triển khai cục bộ và trên đám mây (trung cấp: 4–5 giờ)
- 4. Bộ công cụ tối ưu hóa mô hình (
Llama.cpp v.v.) (trung cấp: 5–6 giờ)
- 5. SLMOps và tinh chỉnh (nâng cao: 5–6 giờ)
- 6. AI agent và Function Calling (nâng cao: 4–5 giờ)
- 7. Triển khai đa nền tảng (nâng cao: 3–4 giờ)
- 8. Dự án mẫu Foundry Local (chuyên gia: 8–10 giờ)
Chưa có bình luận nào.