Kể từ khi dùng Django, với tư cách là một người dùng từng trải nghiệm sự nghiệp của mình được nâng tầm hoàn toàn, tôi thực sự rất biết ơn. Tôi cũng đã vài lần đóng góp cho Django, mong rằng nó sẽ còn được yêu mến thật lâu nữa haha
Tôi nghĩ nếu có kết quả benchmark làm căn cứ thì các lập trình viên sẽ dễ đồng cảm hơn. Nếu lạm dụng việc viết code dựa quá nhiều vào framework thì chắc chắn trang web sẽ chậm đi, nhưng cá nhân tôi lại thấy khá nhiều trang dùng mã thuần còn chậm hơn các trang dùng framework đã được tối ưu, đặc biệt ở khía cạnh chuyển trang bên trong site. Tất nhiên, nếu là một trang chỉ có dữ liệu tĩnh thì có thể chỉ với HTML + CSS sẽ nhanh hơn, nhưng tôi không chắc ngày nay những trang chỉ gồm dữ liệu tĩnh còn phổ biến đến mức nào.
> Các nhà phát triển tin rằng AI đã khiến họ làm việc nhanh hơn
Khi việc nghiên cứu với AI trở nên nhanh hơn, có lẽ cũng sẽ giúp nâng cao chất lượng, nên ngay cả với cùng một công việc thì kết quả cũng có thể tốt hơn đôi chút phải không. Có phải các nhà phát triển nghĩ rằng, nếu muốn phát triển sao cho phù hợp với chất lượng của thành phẩm sau khi hoàn thành công việc, thì nhờ AI hỗ trợ sẽ nhanh hơn so với tự mình đạt tới mức đó.
Tôi cũng nghĩ rằng, nếu ngay từ đầu không dùng nó, thì có lẽ người ta sẽ chỉ triển khai bằng lượng kiến thức mình thực sự biết nhiều hơn.
Vấn đề còn lớn hơn cả người dùng là các bot AI lao vào bám riết mỗi khi bạn bình luận trên SNS của báo chí hoặc YouTube đứng cùng phe với một đảng chính trị nào đó.
Có vẻ bạn đã đặt tiêu chuẩn về năng lực suy luận cần dùng trong khối lượng công việc của 300 người dùng hơi quá rộng. Nếu thực sự muốn bao phủ từ kiến thức phổ thông rất cơ bản cho đến luận văn hay các chủ đề nâng cao thì cách này là đúng, nhưng nếu xét mặt bằng các công việc thực tế cần xử lý thì với khoảng 30b kèm RAG là có thể xử lý được phần lớn rồi. Có phải vì đang cố nâng toàn bộ trọng số của mô hình nền tảng mã nguồn mở lên và dựa vào các tính năng có năng lực suy luận cao, nên quy mô mới trở nên quá lớn như vậy không?? Và tôi nghĩ phần có thể xử lý ngay lập tức với phần tìm kiếm, khám phá tài liệu nên được tách thành các chức năng riêng biệt.
Đối với phạm vi token mục tiêu của KV cache để xử lý đồng thời 300 người, nếu mỗi bên ở mức khoảng 20.000 token đã lượng tử hóa thì cũng có thể dùng khá dư dả, nên phần này cũng có thể đã bị tính quá cao... ??
Nếu không phải thật sự là 300 tiến sĩ đang làm luận án, thì có lẽ chỉ cần đặt mức suy luận ở tầm học sinh trung học (14~30b), rồi thiết lập quy trình tìm kiếm các tài liệu nội bộ đa dạng theo logic RAG với CoT phù hợp, thì dự án có thể vận hành thử nghiệm ở mức chi phí khá hợp lý.
À, vâng haha tôi cũng không có ý định phản bác lời của jhk0530-nim.
Tôi cũng nghĩ rằng dù trang web có yêu cầu thông tin cá nhân thì nếu anh/chị nói rõ đó là của mình rồi đăng lên cũng có lẽ không sao,
nhưng ngược lại, vì anh/chị đăng mà không nói rõ nên tôi lại cảm thấy còn ngại ngần hơn.
Không phải là tôi chưa từng thấy những người đăng bài của người khác như thể là bài của mình,
nhưng trong trường hợp này thì có vẻ có vấn đề vì bạn đã thu thập thông tin cá nhân trong khi giả vờ như không phải là chính mình.
Có vẻ 505studio ở liên kết latpeed = mobeah (https://x.com/mobeahmi). Thật ra kể cả chỉ đăng là chính mình đã dịch thì có lẽ cũng không thành vấn đề lớn gì.
Kể từ khi dùng Django, với tư cách là một người dùng từng trải nghiệm sự nghiệp của mình được nâng tầm hoàn toàn, tôi thực sự rất biết ơn. Tôi cũng đã vài lần đóng góp cho Django, mong rằng nó sẽ còn được yêu mến thật lâu nữa haha
Đúng là thứ rất cần lúc này....
>Công cụ CLI chỉ dành cho macOS
Huhuhuhu
Bài viết này về https://vi.news.hada.io/topic?id=21081 vẫn còn đọng lại trong tôi.
Có vẻ như liên kết không hoạt động.
https://reddit.com/r/datascience/…
Ồ, hay đấy. Trước đây tôi từng dùng lệnh
rename, nhưng chỉ cần có thể xem trước và hỗ trợ undo thôi là đã thực sự tiện rồi.Bản 2.5 ra cũng khá lâu rồi mà sao lại dùng 1.5
Tôi nghĩ nếu có kết quả benchmark làm căn cứ thì các lập trình viên sẽ dễ đồng cảm hơn. Nếu lạm dụng việc viết code dựa quá nhiều vào framework thì chắc chắn trang web sẽ chậm đi, nhưng cá nhân tôi lại thấy khá nhiều trang dùng mã thuần còn chậm hơn các trang dùng framework đã được tối ưu, đặc biệt ở khía cạnh chuyển trang bên trong site. Tất nhiên, nếu là một trang chỉ có dữ liệu tĩnh thì có thể chỉ với HTML + CSS sẽ nhanh hơn, nhưng tôi không chắc ngày nay những trang chỉ gồm dữ liệu tĩnh còn phổ biến đến mức nào.
Có được thu thập thông tin cá nhân mà không có sự đồng ý không?
Chỉ cần cho phép dùng GPU NVIDIA trên macOS là được rồi mà... ha ha.
> Các nhà phát triển tin rằng AI đã khiến họ làm việc nhanh hơn
Khi việc nghiên cứu với AI trở nên nhanh hơn, có lẽ cũng sẽ giúp nâng cao chất lượng, nên ngay cả với cùng một công việc thì kết quả cũng có thể tốt hơn đôi chút phải không. Có phải các nhà phát triển nghĩ rằng, nếu muốn phát triển sao cho phù hợp với chất lượng của thành phẩm sau khi hoàn thành công việc, thì nhờ AI hỗ trợ sẽ nhanh hơn so với tự mình đạt tới mức đó.
Tôi cũng nghĩ rằng, nếu ngay từ đầu không dùng nó, thì có lẽ người ta sẽ chỉ triển khai bằng lượng kiến thức mình thực sự biết nhiều hơn.
Việc thu thập số điện thoại đúng là khiến người ta thấy rất khó chịu. Cũng không có giải thích là sẽ dùng như thế nào nữa.
Vấn đề còn lớn hơn cả người dùng là các bot AI lao vào bám riết mỗi khi bạn bình luận trên SNS của báo chí hoặc YouTube đứng cùng phe với một đảng chính trị nào đó.
Có vẻ bạn đã đặt tiêu chuẩn về năng lực suy luận cần dùng trong khối lượng công việc của 300 người dùng hơi quá rộng. Nếu thực sự muốn bao phủ từ kiến thức phổ thông rất cơ bản cho đến luận văn hay các chủ đề nâng cao thì cách này là đúng, nhưng nếu xét mặt bằng các công việc thực tế cần xử lý thì với khoảng 30b kèm RAG là có thể xử lý được phần lớn rồi. Có phải vì đang cố nâng toàn bộ trọng số của mô hình nền tảng mã nguồn mở lên và dựa vào các tính năng có năng lực suy luận cao, nên quy mô mới trở nên quá lớn như vậy không?? Và tôi nghĩ phần có thể xử lý ngay lập tức với phần tìm kiếm, khám phá tài liệu nên được tách thành các chức năng riêng biệt.
Đối với phạm vi token mục tiêu của KV cache để xử lý đồng thời 300 người, nếu mỗi bên ở mức khoảng 20.000 token đã lượng tử hóa thì cũng có thể dùng khá dư dả, nên phần này cũng có thể đã bị tính quá cao... ??
Nếu không phải thật sự là 300 tiến sĩ đang làm luận án, thì có lẽ chỉ cần đặt mức suy luận ở tầm học sinh trung học (14~30b), rồi thiết lập quy trình tìm kiếm các tài liệu nội bộ đa dạng theo logic RAG với CoT phù hợp, thì dự án có thể vận hành thử nghiệm ở mức chi phí khá hợp lý.
allwehear.com
Bạn có thể xem phần tóm tắt bằng giọng nói tại trang web trên.
Có lẽ bình thường dùng darknamer là đủ rồi, nhưng ở những chỗ cần hiệu năng thì dùng cái này sẽ tốt hơn.
À, vâng haha tôi cũng không có ý định phản bác lời của jhk0530-nim.
Tôi cũng nghĩ rằng dù trang web có yêu cầu thông tin cá nhân thì nếu anh/chị nói rõ đó là của mình rồi đăng lên cũng có lẽ không sao,
nhưng ngược lại, vì anh/chị đăng mà không nói rõ nên tôi lại cảm thấy còn ngại ngần hơn.
À, ý tôi không phải là về nội dung của liên kết đó (bao gồm việc thu thập thông tin cá nhân), mà là về việc đăng liên kết. Cảm ơn bạn đã giải thích.
Không phải là tôi chưa từng thấy những người đăng bài của người khác như thể là bài của mình,
nhưng trong trường hợp này thì có vẻ có vấn đề vì bạn đã thu thập thông tin cá nhân trong khi giả vờ như không phải là chính mình.
Cảm ơn~
Có vẻ 505studio ở liên kết latpeed = mobeah (https://x.com/mobeahmi). Thật ra kể cả chỉ đăng là chính mình đã dịch thì có lẽ cũng không thành vấn đề lớn gì.