Có vẻ 505studio ở liên kết latpeed = mobeah (https://x.com/mobeahmi). Thật ra kể cả chỉ đăng là chính mình đã dịch thì có lẽ cũng không thành vấn đề lớn gì.
Nếu không có những thứ như React hay Vue thì ngay cả khi triển khai cùng một chức năng,
bạn cũng sẽ phải viết mã phức tạp hơn đúng không?
Đặc biệt khi xử lý popup, ngay cả việc truyền một props thôi mà làm bằng JavaScript thuần cũng khiến mã phức tạp hơn nhiều.
Ngay cả những việc đơn giản như thế này mà mã đã trở nên phức tạp thì thật sự
các chức năng phức tạp sẽ càng khó triển khai hơn.
Nếu chỉ là runtime CPU dùng cho suy luận đơn giản thì tình hình còn đỡ hơn một chút, nhưng vì các dịch vụ LLM được yêu cầu dạo này nên traffic cứ tăng theo kiểu traffic, dung lượng cũng tăng theo kiểu dung lượng, đến lúc tính chi phí thì chỉ biết chửi thề thôi ha ha ha
Có nhiều ý rất đáng đồng cảm.
Các bình luận cũng hay, nhưng khi có ai đó sắp xếp và nói lại như thế này, tức là tạo sẵn một khuôn khổ cho cuộc thảo luận, thì mình thấy qua phản biện, ủng hộ và bổ sung, nội dung sẽ trở nên hoàn thiện hơn.
P.S. Gần đây mình hay thấy cách diễn đạt "công nghệ nhàm chán", hóa ra trong tiếng Anh là boring technology.
> Ngược lại, nếu là kiểu công việc ‘chỉ cần cho nó chạy được’ thì việc tận dụng AI có thể hiệu quả.
Không chỉ riêng lập trình viên, nhưng vì có nhiều kiểu người với xu hướng khác nhau, nên tôi nghĩ rằng những người tình cờ làm nghề phát triển phần mềm, đồng thời ghét hoặc sợ việc viết hay đọc mã, và có tư duy chỉ cần chạy được là đủ hơn là diễn giải theo góc nhìn cấu trúc hệ thống hay khả năng bảo trì, dường như càng dễ phụ thuộc hoặc tin tưởng mù quáng vào AI hơn. Cũng có thể là tôi sai.
Có những gói chỉ khác nhau ở phiên bản trong phần phụ thuộc pytorch+cuda... đúng là một cảnh tượng khó tin.
Chẳng có mấy chức năng gì, vậy mà mỗi daemon nhỏ lại phải cài phụ thuộc gần 2 GB..
Bản thân tôi cũng vì nhu cầu mà đang làm một giải pháp RAG, dùng tới 4 GPU H100 vốn hiếm có, nhưng nếu tính không chỉ chi phí đầu tư phần cứng trực tiếp mà cả tiền điện, chi phí cho các giải pháp làm mát khác các kiểu thì tôi cứ thấy gọi API vẫn tốt hơn rất nhiều.
Lúc đầu tôi cũng bắt đầu thử với Ollama, rồi xác nhận là ngay cả 3 người dùng đồng thời cũng không gánh nổi nên chuyển ngay sang vLLM và xoay xở đủ kiểu để dựng cấu hình RAG. Nhưng riêng chỗ này thôi (giả định 10 người dùng đồng thời) đã gần như phải dùng gần hết 2 GPU H100. Các tác vụ embedding hay tìm kiếm tôi cũng mở bằng vLLM để dùng, nên 4 chiếc H100 thật sự vẫn rất chật vật. Dù VRAM mỗi card khoảng 90GB cũng vẫn là như vậy.
Tất nhiên là tôi cũng không rành AI lắm, chỉ là vừa làm theo nhu cầu của bộ phận vừa cố gắng đáp ứng qua lại các quy định bảo mật nội bộ nên cứ thế làm liều thôi... nhưng tôi cũng băn khoăn không biết như vậy có đúng không. Hình như là ChatGPT Enterprise ấy nhỉ? Tôi thật sự thấy mức giá của nó quá hời.
Tôi cũng từng có suy nghĩ tương tự nhưng khó diễn đạt cho rõ.
"Mô hình tinh thần" đúng là một cách đặt tên phù hợp. Tôi sẽ cố gắng dùng nó thường xuyên hơn.
Cảm ơn~
Có vẻ 505studio ở liên kết latpeed = mobeah (https://x.com/mobeahmi). Thật ra kể cả chỉ đăng là chính mình đã dịch thì có lẽ cũng không thành vấn đề lớn gì.
Nếu không có những thứ như React hay Vue thì ngay cả khi triển khai cùng một chức năng, bạn cũng sẽ phải viết mã phức tạp hơn đúng không? Đặc biệt khi xử lý popup, ngay cả việc truyền một
propsthôi mà làm bằng JavaScript thuần cũng khiến mã phức tạp hơn nhiều. Ngay cả những việc đơn giản như thế này mà mã đã trở nên phức tạp thì thật sự các chức năng phức tạp sẽ càng khó triển khai hơn.https://godotengine.org/article/godot-showcase-dogwalk/
Bài phỏng vấn trên blog Godot và
https://studio.blender.org/blog/our-workflow-with-blender-and-godot/
bài viết về cách đội ngũ phát triển Blender xây dựng workflow với Godot và quản lý tài nguyên như thế nào đều rất thú vị, cực kỳ khuyến nghị.
https://drive.google.com/file/d/…
Hãy xem trực tiếp ở đây mà không cần nhập số.
Người viết bài này có phải là CEO Ahn Kwang-seop của công ty ThreeBlocks.ai không?
Lý do thu thập số điện thoại là gì?
Muốn xem thật đấy... nhưng việc phải nhập số điện thoại mới có thể nhận được khiến tôi hơi ngần ngại.
Nước Mỹ đất rộng nên có vẻ những thử nghiệm như thế này cũng khả thi. Thú vị thật.
Nghe hay đấy haha, mong sớm hỗ trợ CUDA để có thể huấn luyện tốc độ cao trên Mac nữa~!
Cuối cùng thì đúng là họ đã phát triển xong trong khi đã nhận thức chính xác từ trước vấn đề làm thế nào để hợp nhất các nhánh đã tách ra.
Không chỉ là bản chất mà còn là việc có hay không có
prototype...Cả cách tham chiếu của hàm bậc cao được tạo ra cũng vậy...
Đó là sự phức tạp tất yếu. Không còn là HTML theo mẫu đơn giản như trước đây nữa.
Nếu chỉ là runtime CPU dùng cho suy luận đơn giản thì tình hình còn đỡ hơn một chút, nhưng vì các dịch vụ LLM được yêu cầu dạo này nên traffic cứ tăng theo kiểu traffic, dung lượng cũng tăng theo kiểu dung lượng, đến lúc tính chi phí thì chỉ biết chửi thề thôi ha ha ha
Có nhiều ý rất đáng đồng cảm.
Các bình luận cũng hay, nhưng khi có ai đó sắp xếp và nói lại như thế này, tức là tạo sẵn một khuôn khổ cho cuộc thảo luận, thì mình thấy qua phản biện, ủng hộ và bổ sung, nội dung sẽ trở nên hoàn thiện hơn.
P.S. Gần đây mình hay thấy cách diễn đạt "công nghệ nhàm chán", hóa ra trong tiếng Anh là boring technology.
> Ngược lại, nếu là kiểu công việc ‘chỉ cần cho nó chạy được’ thì việc tận dụng AI có thể hiệu quả.
Không chỉ riêng lập trình viên, nhưng vì có nhiều kiểu người với xu hướng khác nhau, nên tôi nghĩ rằng những người tình cờ làm nghề phát triển phần mềm, đồng thời ghét hoặc sợ việc viết hay đọc mã, và có tư duy chỉ cần chạy được là đủ hơn là diễn giải theo góc nhìn cấu trúc hệ thống hay khả năng bảo trì, dường như càng dễ phụ thuộc hoặc tin tưởng mù quáng vào AI hơn. Cũng có thể là tôi sai.
Có những gói chỉ khác nhau ở phiên bản trong phần phụ thuộc
pytorch+cuda... đúng là một cảnh tượng khó tin.Chẳng có mấy chức năng gì, vậy mà mỗi daemon nhỏ lại phải cài phụ thuộc gần 2 GB..
Bản thân tôi cũng vì nhu cầu mà đang làm một giải pháp RAG, dùng tới 4 GPU H100 vốn hiếm có, nhưng nếu tính không chỉ chi phí đầu tư phần cứng trực tiếp mà cả tiền điện, chi phí cho các giải pháp làm mát khác các kiểu thì tôi cứ thấy gọi API vẫn tốt hơn rất nhiều.
Lúc đầu tôi cũng bắt đầu thử với Ollama, rồi xác nhận là ngay cả 3 người dùng đồng thời cũng không gánh nổi nên chuyển ngay sang vLLM và xoay xở đủ kiểu để dựng cấu hình RAG. Nhưng riêng chỗ này thôi (giả định 10 người dùng đồng thời) đã gần như phải dùng gần hết 2 GPU H100. Các tác vụ embedding hay tìm kiếm tôi cũng mở bằng vLLM để dùng, nên 4 chiếc H100 thật sự vẫn rất chật vật. Dù VRAM mỗi card khoảng 90GB cũng vẫn là như vậy.
Tất nhiên là tôi cũng không rành AI lắm, chỉ là vừa làm theo nhu cầu của bộ phận vừa cố gắng đáp ứng qua lại các quy định bảo mật nội bộ nên cứ thế làm liều thôi... nhưng tôi cũng băn khoăn không biết như vậy có đúng không. Hình như là ChatGPT Enterprise ấy nhỉ? Tôi thật sự thấy mức giá của nó quá hời.
Tôi cũng từng có suy nghĩ tương tự nhưng khó diễn đạt cho rõ.
"Mô hình tinh thần" đúng là một cách đặt tên phù hợp. Tôi sẽ cố gắng dùng nó thường xuyên hơn.
150 đô một giờ à? Ngay từ đó thì việc kiểm soát biến đã buồn cười rồi ha ha ha ha