Nghe nói các nhà phát triển kernel đã nói với các nhà phát triển PostgreSQL suốt gần 10–20 năm rằng "spinlock ở userspace không được khuyến khích, nên mong họ cân nhắc lại"..
Nếu bạn đã dùng đội tác nhân Claude Code rồi thì không có gì quá đặc biệt.
Tuy vậy, việc xây dựng hạ tầng bằng agents hoặc skills để có thể tiếp tục duy trì thông tin cấu hình đội ngũ ngay cả trong các phiên mới là khá tiện.
Vì khi cấu hình đội ngũ thủ công, những phần kiểu boilerplate dành cho đội thường bị lặp lại.
Có một vấn đề là vì đây là môi trường có tính đến cả subagent lẫn agent team, nên trong mô hình Supervisor, đôi khi xảy ra tình huống kỳ quặc là người giám sát lại giao việc cho subagent dù team đã được tạo sẵn.
Tôi cứ nghĩ các mô hình ngôn ngữ lớn phổ biến xuất hiện trên thị trường sau GPT, ngoại trừ một vài mô hình dùng diffusion model, đều hoạt động theo dạng dự đoán token tiếp theo. Nếu có mô hình nào vận hành theo cách khác thì rất mong bạn cho tôi biết.
Tôi đã thử dùng trước đây, nhưng rồi gỡ bỏ vì Claude cứ tiêu tốn thêm nhiều token hơn để xử lý các vấn đề do rtk gây ra.
(Ví dụ, khi gửi yêu cầu JSON bằng curl thì nó tạo ra JSON không hợp lệ khiến jq báo lỗi, rồi Claude lại debug chuyện đó và đốt token, cuối cùng vẫn phải quay về lấy lại yêu cầu curl thô để parse bằng jq.)
Dù vậy, tôi vẫn nghĩ bản thân ý tưởng này là một nỗ lực đáng khen, nên nếu ổn định hơn thì có lẽ sẽ đáng để thử dùng.
Vậy thì model mới nhất là cái khác sao? Nếu có nội dung nào sai thì mong bạn chỉ giúp, như vậy có lẽ sẽ hữu ích cho cả những người khác nữa, bao gồm cả tôi haha
Cũng có kiểu spam đăng ký backlink vào bài viết trên blog khác bằng URL kết quả tìm kiếm có chứa các cụm từ mang tính spam;
Dù là kiểu nào thì cuối cùng cũng phải tự xóa thủ công thôi...
Cá nhân tôi cũng đang thử dùng, nhưng có vẻ còn tùy từng trường hợp vì do nén của rtk, đôi khi Claude Code cũng không lấy được ngữ cảnh cần thiết từ kết quả lệnh.
Có vẻ như có một vài tác dụng phụ nhỏ trong các trường hợp sử dụng của những người dùng khác.
Mong rằng vấn đề sẽ sớm được khắc phục và được áp dụng tốt. https://reddit.com/r/ClaudeCode/…
Nếu bạn muốn xem các LLM hiện đại chỉ là "dự đoán từ tiếp theo" thì AlphaGo cũng chẳng qua chỉ là "dự đoán nước đi tiếp theo" mà thôi.
Từ ChatGPT trở đi, việc dự đoán từ tiếp theo cũng chỉ là pre-trained đơn thuần.
Bản thân nó là một mô hình đạt được mục tiêu.
Nghe nói các nhà phát triển kernel đã nói với các nhà phát triển PostgreSQL suốt gần 10–20 năm rằng "spinlock ở userspace không được khuyến khích, nên mong họ cân nhắc lại"..
https://x.com/kosaki55tea/status/2040458791536497035
Nếu bạn đã dùng đội tác nhân Claude Code rồi thì không có gì quá đặc biệt.
Tuy vậy, việc xây dựng hạ tầng bằng agents hoặc skills để có thể tiếp tục duy trì thông tin cấu hình đội ngũ ngay cả trong các phiên mới là khá tiện.
Vì khi cấu hình đội ngũ thủ công, những phần kiểu boilerplate dành cho đội thường bị lặp lại.
Có một vấn đề là vì đây là môi trường có tính đến cả subagent lẫn agent team, nên trong mô hình Supervisor, đôi khi xảy ra tình huống kỳ quặc là người giám sát lại giao việc cho subagent dù team đã được tạo sẵn.
https://github.com/google-ai-edge/gallery/issues/437
Có vẻ khả năng tương thích với Exynos không tốt. Trên Galaxy Quantum 5 (A55) có vấn đề trả lời bằng cách lặp vô hạn các ký tự Hán.
Tôi cứ nghĩ các mô hình ngôn ngữ lớn phổ biến xuất hiện trên thị trường sau GPT, ngoại trừ một vài mô hình dùng diffusion model, đều hoạt động theo dạng dự đoán token tiếp theo. Nếu có mô hình nào vận hành theo cách khác thì rất mong bạn cho tôi biết.
Tôi còn không biết là đã có mạng LAN đối xứng 25 gigabit. Tôi từng nghĩ loại cỡ 10 gigabit cũng đã quá dư cho hộ gia đình rồi...
Tôi đã thử dùng trước đây, nhưng rồi gỡ bỏ vì Claude cứ tiêu tốn thêm nhiều token hơn để xử lý các vấn đề do rtk gây ra.
(Ví dụ, khi gửi yêu cầu JSON bằng
curlthì nó tạo ra JSON không hợp lệ khiếnjqbáo lỗi, rồi Claude lại debug chuyện đó và đốt token, cuối cùng vẫn phải quay về lấy lại yêu cầucurlthô để parse bằngjq.)Dù vậy, tôi vẫn nghĩ bản thân ý tưởng này là một nỗ lực đáng khen, nên nếu ổn định hơn thì có lẽ sẽ đáng để thử dùng.
Tôi cũng từng thấy tiếc ở điểm đó!
Bản cập nhật gần đây cho phép lưu
full outputvào một tệp riêng để LLM có thể đọc khi cần~Việc làm mới trang chủ chính thức đã được thực hiện trước khi phát hành Gnuboard 7.
Vì thế nên cũng có những trường hợp viết lại từ đầu còn nhanh hơn.
Cảm ơn bạn đã phản hồi!
Không rõ là nó có thực sự giảm được không. Tôi đã bảo agent cứ dùng lệnh
rtk ls..mà nó lại không dùng.Vậy thì model mới nhất là cái khác sao? Nếu có nội dung nào sai thì mong bạn chỉ giúp, như vậy có lẽ sẽ hữu ích cho cả những người khác nữa, bao gồm cả tôi haha
Cũng có kiểu spam đăng ký backlink vào bài viết trên blog khác bằng URL kết quả tìm kiếm có chứa các cụm từ mang tính spam;
Dù là kiểu nào thì cuối cùng cũng phải tự xóa thủ công thôi...
> LLM là mô hình dự đoán từ tiếp theo “tạo ra đầu ra phù hợp nhất cho đầu vào được cho”
Đang nói về GPT-3 đấy.
Cá nhân tôi cũng đang thử dùng, nhưng có vẻ còn tùy từng trường hợp vì do nén của rtk, đôi khi Claude Code cũng không lấy được ngữ cảnh cần thiết từ kết quả lệnh.
Đây có phải là quảng cáo không?
Có vẻ như có một vài tác dụng phụ nhỏ trong các trường hợp sử dụng của những người dùng khác.
Mong rằng vấn đề sẽ sớm được khắc phục và được áp dụng tốt.
https://reddit.com/r/ClaudeCode/…
Nói kiểu Sparta ở đây luôn à..? haha
Mình thấy đây là một ý tưởng khá mới mẻ~ Tuy vậy, có vẻ vẫn cần xem xét kỹ lưỡng hơn một chút về mức độ ứng dụng thực tế và hiệu quả kỳ vọng..