12 điểm bởi GN⁺ 2025-01-29 | 4 bình luận | Chia sẻ qua WhatsApp
  • Một PR giúp dự án llama.cpp “tăng gấp đôi tốc độ WASM” đã được công bố
    • Tối ưu hóa các hàm tích vô hướng (dot product) qX_K_q8_KqX_0_q8_0 bằng cách tận dụng các lệnh SIMD
    • Phần lớn mã nguồn (99%) được tự động tạo bởi “DeepSeek-R1”
    • DeepSeek-R1 mất 3~5 phút để xử lý prompt

Hiệu năng tạo mã của DeepSeek-R1

  • Tác giả PR đã dùng DeepSeek-R1 để tạo và cải thiện mã tối ưu hóa, còn bản thân chỉ trực tiếp thực hiện mã kiểm thử và viết prompt
  • Có thể xem tại prompt đã sử dụng
  • DeepSeek-R1 cho thấy chuỗi suy luận rất ấn tượng trong quá trình tối ưu hóa llm_groq.py

So sánh hiệu năng DeepSeek-R1 và OpenAI o1

  • Tác vụ tương tự cũng được thử với OpenAI o1, nhưng kết quả của DeepSeek-R1 tốt hơn
  • Quá trình suy nghĩ để tối ưu hóa model_map trong mã ví dụ:
    • Ban đầu xác định rằng cần model_map
    • Sau đó cân nhắc việc có thể cấu hình động dựa trên phản hồi API
    • Cuối cùng quyết định rằng loại bỏ model_map là giải pháp tối ưu nhất

Kết luận

  • DeepSeek-R1 cho thấy hiệu năng nổi bật trong tự động tạo mã và tối ưu hóa
  • Việc tối ưu hóa bằng SIMD trên WASM giúp cải thiện đáng kể hiệu năng của llama.cpp
  • Nếu PR được áp dụng, tốc độ thực thi của các ứng dụng dựa trên WebAssembly được kỳ vọng sẽ được cải thiện mạnh

4 bình luận

 
bungker 2025-01-29

Mình đã chạy deepseek r1 14b 30b 70b bằng ollama, khả năng suy luận tổng thể khá tốt nhưng vẫn có nhiều lỗi vặt. r1 thực sự rất xuất sắc.

 
yangeok 2025-01-29

Tôi đã thử bản distilled 8b nhưng hiệu năng tiếng Hàn bị giảm.

 
yangeok 2025-01-29

Có vẻ nó tạo ra được những kết quả khá có ý nghĩa trong việc sinh mã.

 
GN⁺ 2025-01-29
Ý kiến Hacker News
  • DeepSeek-R1 đã viết 99% mã cho PR của llama.cpp. Đây là một ví dụ cho thấy AI có thể đóng góp rất lớn cho việc lập trình

    • Aider viết khoảng 70% mã mới trong mỗi bản phát hành, và kể từ Sonnet, tỷ lệ mã do AI tạo ra đã tăng lên hơn 50%
    • Trong vài tháng gần đây, tỷ lệ mã mới do Aider viết là 70%, và mức kỷ lục là 82%
    • Họ đang dần chuyển việc lập trình từ Sonnet sang DeepSeek V3 nhiều hơn, và đang thử nghiệm R1 nhưng gặp khó khăn do API gần đây bị gián đoạn
  • Đang chạy DeepSeek-R1-Distill-Qwen-32B trên laptop thông qua Ollama, và cần khoảng 20GB RAM

    • Hữu ích cho việc refactor code và giúp phát hiện lỗi trong mã
  • Việc DeepSeek-R1 viết 99% mã cho PR của llama.cpp là một cột mốc đáng chú ý

  • Họ đã yêu cầu DeepSeek chuyển mã ARM SIMD sang mã WASM, và điều này giúp ích cho việc tối ưu hóa mã

    • Xử lý các lệnh SIMD là công việc khó hơn so với tối ưu hóa mã nâng cao thông thường
  • Khẳng định rằng LLM không hữu ích cho việc lập trình là sai

    • Nhận định rằng AI có thể thay thế lập trình viên không hoàn toàn là phóng đại
    • Nếu không có nhu cầu với nhiều ứng dụng hơn, số việc làm có thể sẽ giảm
  • Đã dùng o1 Pro và Deepseek R1 để viết kiểm thử e2e, và Deepseek viết bài kiểm thử tốt hơn

    • Nhưng các bài kiểm thử đó đã không vượt qua
  • Xuan-Son, ngoài việc chuyển ARM NEON sang SIMD, còn yêu cầu phát triển một cách tiếp cận mới

    • Họ đã thử tối ưu hóa wllama như một dự án cuối tuần và dùng LLM để hoàn thành công việc thành công
  • Đã viết lại plugin llm_groq.py bằng DeepSeek R1, việc này được thực hiện với deepseek-r1-distill-llama-70b, một mô hình đã được fine-tune từ Llama

  • AGI có thể xuất hiện trong vòng vài tháng tới, và việc huấn luyện sẽ diễn ra theo ba giai đoạn

    • Điều quan trọng là phải huấn luyện nhiều mô hình khác nhau để đảm bảo tính đa dạng cho khả năng tồn tại lâu dài