Nhìn mấy lập trình viên code kiểu vibe mà không dùng não là thấy bực thật sự. Sản phẩm do chính mình làm ra có chất lượng tệ hại mà thử lấy lý do là AI viết xem. Người phải chịu trách nhiệm vẫn là bản thân mình.
Cảm ơn. Claude cũng tiêu tốn nhiều token, mà hiệu quả công việc thì tôi cũng hơi không hài lòng so với Codex, nên dạo này tôi làm việc với Codex nhiều hơn.
Cảm ơn bạn đã chia sẻ thông tin hữu ích. Về cơ bản, tôi đang cảm nhận rõ rằng lượng token sử dụng bản thân nó đã giảm đi quá nhiều, nên mong là phía Claude sẽ tăng lên một chút. Vì khi harness chạy thì lại bị ngắt giữa chừng...
Tôi cũng đồng ý với ý kiến này.
Cuối cùng, tôi xem đây là một công cụ có sự đánh đổi rất rõ ràng.
Tôi cũng lo rằng càng dùng AI thì kỹ năng lập trình sẽ càng giảm đi, nhưng rõ ràng là mình sẽ suy nghĩ về những vấn đề khác mà trước đây chưa từng làm (hoặc không thể làm).
Đôi khi tôi cũng lo rằng một ngày nào đó máy tính bỏ túi bị hỏng và cho ra kết quả 3 X 3 = 10, nhưng sẽ chẳng ai nhận ra điều đó là sai... Nếu chuyện đó xảy ra trên máy tính của lập trình viên đang xử lý tài khoản ngân hàng của tôi thì... Có lẽ cẩn thận vẫn hơn.
Bản thân tôi cũng vẫn cảm thấy mình còn thiếu sót trong lĩnh vực chuyên môn của mình, nên tôi luôn cẩn trọng và cho rằng ở những lĩnh vực mà tôi nhận hỗ trợ, mức độ đó cũng chỉ ở chừng ấy. Thay vào đó, vì tốc độ phát triển là rất đáng kể, nên tôi vẫn định thử dùng nó cho những công việc mà chỉ cần chất lượng ở mức đó là đủ.
Việc học thuộc bảng cửu chương khi đã có máy tính có vẻ là sự níu kéo một cách làm việc của quá khứ. Dù sao thì những phần như thế máy tính rồi sẽ làm tốt hơn. Điều quan trọng lúc này là vừa dùng máy tính vừa tích lũy kinh nghiệm cải thiện những chỗ nó làm chưa tốt. Nhưng tôi cũng cho rằng điều này chỉ mang tính tạm thời.
Có lẽ đây chỉ là một diễn ngôn về Neuro-Symbolic đã được tiếp nối từ trước đến nay. Từng có một thời người ta gán cho tính “quyết định luận” nhiều ý nghĩa hơn bây giờ. Nhưng khi hiệu năng được cải thiện đến mức các mô hình xác suất có thể xấp xỉ ở cấp độ quyết định luận, thì phần lớn dư địa tranh luận cũng biến mất. Rốt cuộc, điều chúng ta luôn mong muốn không phải là một thứ gì đó mang tính quyết định luận, mà là sự bất định ở mức “có thể chấp nhận được”. Xét ở điểm đó, ít nhất từ góc nhìn của “giới công nghiệp” chứ không phải học giới, có lẽ không cần gán quá nhiều ý nghĩa cho quyết định luận. Dù sao thì ngay cả khi việc tích hợp được tiến hành vào thời điểm tính bất định của các mô hình sinh hiện tại đã chững lại, cũng hoàn toàn không phải là quá muộn.
Lý do humanoid có kích thước giống con người và cấu trúc khớp tương tự là để không phải xây riêng công cụ hay dây chuyền cho chúng.
Chúng ta đã từng làm mấy chuyện vô bổ như xây dựng toàn công ty bằng RAG rồi vận hành, bảo trì nó, và khi agent cùng MCP xuất hiện thì chẳng phải đã tự nhìn lại rằng hóa ra không cần làm thế sao? Tại sao lại muốn lặp lại cùng một sai lầm theo một cách khác?
Ý tưởng cũ rích rằng agent sẽ duyệt web thay con người không phải là vấn đề kỹ thuật, mà sẽ chịu ảnh hưởng nhiều hơn từ vấn đề chính trị đe dọa mô hình doanh thu chủ lực của Google, vốn là một phần của chính web.
Dù sao thì webMCP cũng chỉ là một phương án chuyển tiếp cho đến khi agent RPA thực sự chín muồi. Cứ thế này thì có khi lại xuất hiện cả ý kiến quay về xul mất.
Việc trong các mô hình ngôn ngữ lớn (LLM), sự sáng tạo và ảo giác (Hallucination) rốt cuộc đều là kết quả của cùng một cơ chế dự đoán token tiếp theo mang tính xác suất (Next-token prediction) vốn là tiền đề cơ bản quá hiển nhiên, chưa từng là điều bí mật với các kỹ sư làm việc với AI, nhưng bản bạch thư này lại cường điệu hóa như thể đang phơi bày một bí mật kinh thiên động địa.
Lập luận phê phán bằng cách giới hạn tự hiệu chỉnh của đa tác nhân chỉ như sự lặp lại đồng nhất (Homogeneous Iteration) trong cùng một ngữ cảnh là điều khá đáng tiếc.
Trong môi trường phát triển thực tế, khi tích hợp tác nhân thông minh vào IDE và thực hiện prompt engineering ở mức nâng cao, bản chất xác suất này của mô hình không phải là một khiếm khuyết chí mạng không thể khắc phục, mà chỉ đơn thuần là một điều kiện nền tảng cần được xem như hằng số khi thiết kế hệ thống. Với tiền đề rằng mô hình có thể vượt ra ngoài ngữ cảnh, cách làm ngoài thực tế là cung cấp các ngữ cảnh được tách biệt rõ ràng hoặc giành quyền kiểm soát thực chất thông qua các ngữ cảnh ở quy mô khác nhau.
Thế nhưng bản bạch thư này lại bọc gói những điều hiển nhiên mà ai cũng biết bằng các thuật ngữ học thuật to tát như lỗi phạm trù, vòng tránh xác suất, từ đó khơi gợi cảm giác bất an. Mục đích có vẻ rất rõ ràng. Chỉ khi hạ thấp hoàn toàn tính tự chủ của LLM thì họ mới có thể tối đa hóa giá trị của mạng kiểm soát mang tính quyết định do con người trực tiếp thiết kế (hệ thống SERA) mà họ đề xuất.
Rốt cuộc, bài viết này giống một sales pitch thiên lệch được viết ra để thuyết phục các nhà ra quyết định trong môi trường enterprise, những người e ngại rủi ro từ hiện tượng ảo giác, rằng hãy áp dụng pipeline quyết định hard-code của chúng tôi thay vì các tác nhân không thể kiểm soát, hơn là một bản bạch thư có sự cân bằng về mặt kỹ thuật.
Code cho công việc thì giao hết cho AI agent, để nó chạy vòng lặp càng dài càng tốt.
Còn dự án cá nhân làm vì sở thích thì tôi tự phát triển trực tiếp, không dùng AI assistant hay cả tính năng tự động hoàn thành bằng AI (...)
Tôi đã bỏ vim để chuyển sang vscode vì AI,
nhưng cảm giác như đã đánh mất niềm vui khi lập trình nên tôi quay lại với vim.
Tôi đang dùng AI như một assistant, và đúng là có cảm giác như đã tìm lại được niềm vui phát triển phần mềm.
Nhìn mấy lập trình viên code kiểu vibe mà không dùng não là thấy bực thật sự. Sản phẩm do chính mình làm ra có chất lượng tệ hại mà thử lấy lý do là AI viết xem. Người phải chịu trách nhiệm vẫn là bản thân mình.
Giữa bò đen và bò vàng, con nào làm việc giỏi hơn?
Con bò hay bị mắng làm việc giỏi hơn.
Có vẻ lúc nào cũng phản biện lại bằng kiểu lập luận tương tự thế này.. Máy tính bỏ túi thì không tính sai. Nó làm đúng vai trò của mình.
Cảm ơn. Claude cũng tiêu tốn nhiều token, mà hiệu quả công việc thì tôi cũng hơi không hài lòng so với Codex, nên dạo này tôi làm việc với Codex nhiều hơn.
Cảm ơn bạn đã chia sẻ thông tin hữu ích. Về cơ bản, tôi đang cảm nhận rõ rằng lượng token sử dụng bản thân nó đã giảm đi quá nhiều, nên mong là phía Claude sẽ tăng lên một chút. Vì khi harness chạy thì lại bị ngắt giữa chừng...
Vì vậy, với những câu hỏi cần tính khách quan, tôi dùng prompt yêu cầu trả lời theo 3 phần: “ủng hộ/phê phán/tổng hợp”.
Wow......!
Tôi cũng đồng ý với ý kiến này.
Cuối cùng, tôi xem đây là một công cụ có sự đánh đổi rất rõ ràng.
Tôi cũng lo rằng càng dùng AI thì kỹ năng lập trình sẽ càng giảm đi, nhưng rõ ràng là mình sẽ suy nghĩ về những vấn đề khác mà trước đây chưa từng làm (hoặc không thể làm).
id
name
displayName
email
active
admin
guest
timezone
createdAt
updatedAt
lastSeen
Nghe nói dữ liệu và cả các API key như npm token hoặc GitHub token cũng đã bị rò rỉ. Có vẻ như đã xuất hiện cả bên buôn bán dữ liệu nữa.
Đôi khi tôi cũng lo rằng một ngày nào đó máy tính bỏ túi bị hỏng và cho ra kết quả 3 X 3 = 10, nhưng sẽ chẳng ai nhận ra điều đó là sai... Nếu chuyện đó xảy ra trên máy tính của lập trình viên đang xử lý tài khoản ngân hàng của tôi thì... Có lẽ cẩn thận vẫn hơn.
Bản thân tôi cũng vẫn cảm thấy mình còn thiếu sót trong lĩnh vực chuyên môn của mình, nên tôi luôn cẩn trọng và cho rằng ở những lĩnh vực mà tôi nhận hỗ trợ, mức độ đó cũng chỉ ở chừng ấy. Thay vào đó, vì tốc độ phát triển là rất đáng kể, nên tôi vẫn định thử dùng nó cho những công việc mà chỉ cần chất lượng ở mức đó là đủ.
Việc học thuộc bảng cửu chương khi đã có máy tính có vẻ là sự níu kéo một cách làm việc của quá khứ. Dù sao thì những phần như thế máy tính rồi sẽ làm tốt hơn. Điều quan trọng lúc này là vừa dùng máy tính vừa tích lũy kinh nghiệm cải thiện những chỗ nó làm chưa tốt. Nhưng tôi cũng cho rằng điều này chỉ mang tính tạm thời.
Có lẽ đây chỉ là một diễn ngôn về Neuro-Symbolic đã được tiếp nối từ trước đến nay. Từng có một thời người ta gán cho tính “quyết định luận” nhiều ý nghĩa hơn bây giờ. Nhưng khi hiệu năng được cải thiện đến mức các mô hình xác suất có thể xấp xỉ ở cấp độ quyết định luận, thì phần lớn dư địa tranh luận cũng biến mất. Rốt cuộc, điều chúng ta luôn mong muốn không phải là một thứ gì đó mang tính quyết định luận, mà là sự bất định ở mức “có thể chấp nhận được”. Xét ở điểm đó, ít nhất từ góc nhìn của “giới công nghiệp” chứ không phải học giới, có lẽ không cần gán quá nhiều ý nghĩa cho quyết định luận. Dù sao thì ngay cả khi việc tích hợp được tiến hành vào thời điểm tính bất định của các mô hình sinh hiện tại đã chững lại, cũng hoàn toàn không phải là quá muộn.
Có lẽ nên dọn dẹp bớt những bài viết vi phạm EULA thì hơn chăng.
Lý do humanoid có kích thước giống con người và cấu trúc khớp tương tự là để không phải xây riêng công cụ hay dây chuyền cho chúng.
Chúng ta đã từng làm mấy chuyện vô bổ như xây dựng toàn công ty bằng RAG rồi vận hành, bảo trì nó, và khi agent cùng MCP xuất hiện thì chẳng phải đã tự nhìn lại rằng hóa ra không cần làm thế sao? Tại sao lại muốn lặp lại cùng một sai lầm theo một cách khác?
Ý tưởng cũ rích rằng agent sẽ duyệt web thay con người không phải là vấn đề kỹ thuật, mà sẽ chịu ảnh hưởng nhiều hơn từ vấn đề chính trị đe dọa mô hình doanh thu chủ lực của Google, vốn là một phần của chính web.
Dù sao thì webMCP cũng chỉ là một phương án chuyển tiếp cho đến khi agent RPA thực sự chín muồi. Cứ thế này thì có khi lại xuất hiện cả ý kiến quay về
xulmất.Đó là vì các chiều và layer của mô hình không được "nướng" một cách đồng đều. Vẫn luôn như vậy mà.
Việc trong các mô hình ngôn ngữ lớn (LLM),
sự sáng tạovàảo giác (Hallucination)rốt cuộc đều là kết quả của cùng một cơ chế dự đoán token tiếp theo mang tính xác suất (Next-token prediction) vốn là tiền đề cơ bản quá hiển nhiên, chưa từng là điều bí mật với các kỹ sư làm việc với AI, nhưng bản bạch thư này lại cường điệu hóa như thể đang phơi bày một bí mật kinh thiên động địa.Lập luận phê phán bằng cách giới hạn
tự hiệu chỉnhcủa đa tác nhân chỉ nhưsự lặp lại đồng nhất (Homogeneous Iteration)trong cùng một ngữ cảnh là điều khá đáng tiếc.Trong môi trường phát triển thực tế, khi tích hợp tác nhân thông minh vào IDE và thực hiện prompt engineering ở mức nâng cao, bản chất xác suất này của mô hình không phải là một
khiếm khuyết chí mạng không thể khắc phục, mà chỉ đơn thuần là mộtđiều kiện nền tảngcần được xem như hằng số khi thiết kế hệ thống. Với tiền đề rằng mô hình có thể vượt ra ngoài ngữ cảnh, cách làm ngoài thực tế là cung cấp các ngữ cảnh được tách biệt rõ ràng hoặc giành quyền kiểm soát thực chất thông qua các ngữ cảnh ở quy mô khác nhau.Thế nhưng bản bạch thư này lại bọc gói những điều hiển nhiên mà ai cũng biết bằng các thuật ngữ học thuật to tát như
lỗi phạm trù,vòng tránh xác suất, từ đó khơi gợi cảm giác bất an. Mục đích có vẻ rất rõ ràng. Chỉ khi hạ thấp hoàn toàn tính tự chủ của LLM thì họ mới có thể tối đa hóa giá trị củamạng kiểm soát mang tính quyết định do con người trực tiếp thiết kế (hệ thống SERA)mà họ đề xuất.Rốt cuộc, bài viết này giống một sales pitch thiên lệch được viết ra để thuyết phục các nhà ra quyết định trong môi trường enterprise, những người e ngại rủi ro từ hiện tượng ảo giác, rằng
hãy áp dụng pipeline quyết định hard-code của chúng tôi thay vì các tác nhân không thể kiểm soát, hơn là một bản bạch thư có sự cân bằng về mặt kỹ thuật.Code cho công việc thì giao hết cho AI agent, để nó chạy vòng lặp càng dài càng tốt.
Còn dự án cá nhân làm vì sở thích thì tôi tự phát triển trực tiếp, không dùng AI assistant hay cả tính năng tự động hoàn thành bằng AI (...)
Tắt tính năng AI của VSCode và dùng Claude Code thì đúng là thoải mái hơn hẳn.
Tôi đã bỏ
vimđể chuyển sangvscodevì AI,nhưng cảm giác như đã đánh mất niềm vui khi lập trình nên tôi quay lại với
vim.Tôi đang dùng AI như một assistant, và đúng là có cảm giác như đã tìm lại được niềm vui phát triển phần mềm.