5 điểm bởi xguru 3 giờ trước | 2 bình luận | Chia sẻ qua WhatsApp
  • Công cụ suy luận LLM on-device cấp production do Google phát triển, cho phép chạy các mô hình ngôn ngữ lớn trên nhiều môi trường biên như Android, iOS, web, desktop và IoT (Raspberry Pi)
  • Đã bổ sung hỗ trợ mô hình Gemma 4 mới nhất, mang lại hiệu năng suy luận tối ưu ngay cả trên thiết bị biên thông qua tăng tốc phần cứng GPU·NPU
  • Hỗ trợ đa phương thức, có thể xử lý đầu vào thị giác (hình ảnh) và âm thanh, đồng thời hỗ trợ suy luận kèm ảnh đính kèm từ CLI với tùy chọn --attachment
  • Tích hợp sẵn Function Calling (Tool Use) cho các workflow dạng agent
  • Tương thích với nhiều mô hình LLM như Gemma, Llama, Phi-4, Qwen; có thể tải mô hình từ Hugging Face rồi suy luận ngay bằng lệnh CLI một dòng
    • uv tool install litert-lmlitert-lm run để bắt đầu ngay
  • Đã được triển khai thực tế trên các sản phẩm Google như Chrome, Chromebook Plus, Pixel Watch để chạy GenAI on-device
  • Có thể chạy mô hình ngay trên di động thông qua ứng dụng Google AI Edge Gallery (có trên Google Play và App Store)
  • API ngôn ngữ: hỗ trợ ổn định Kotlin (Android/JVM), Python (prototyping), C++ (native hiệu năng cao), Swift (iOS/macOS) đang được phát triển
  • Tình trạng phát hành: mới nhất là v0.10.2; v0.10.1 giới thiệu Gemma 4 và CLI, v0.8.0 bổ sung GPU desktop và đa phương thức, v0.7.0 thêm tăng tốc NPU
  • Giấy phép Apache-2.0

2 bình luận

 
picopress 1 giờ trước

Muốn chạy lắm mà không có bộ nhớ, huhu

 
hmmhmmhm 2 giờ trước

Dạo này chạy ổn hơn chưa nhỉ, trước đây trên phía Mac hiệu năng từng tệ một cách khá khó hiểu...