Có vẻ như bài viết này được viết với giả định chỉ nghĩ đến những kịch bản quá lạc quan, nhưng không có điều nào là dễ dàng cả.
Trong nhiều trường hợp, nỗ lực và thời gian cần để tăng thêm chỉ 1% từ 90% lên 91% còn nhiều hơn cả nỗ lực và thời gian để đạt tới mốc 90%.
Điều tôi lo hơn cả sự xuất hiện của AI mạnh là hiện tượng con người ngày càng đặt niềm tin khổng lồ vào những kết quả do AI tạo ra mà lẽ ra không nên tin tưởng sẽ ngày càng trở nên mạnh hơn.
Ngay cả ở đây, khi viết một bình luận ngắn, cũng có người viết đến mức chính họ cũng không rõ mình đang nói gì, và cũng có người nói rằng hỏi AI thì nó trả lời như thế này, rồi xem đó như thể là sự thật.
Cô ấy có quay lại phát sóng, nhưng đã đổi tên thành Hoshino Rina và chỉ phát sóng việc đóng góp mã nguồn mở một cách độc lập thôi.
Gần đây cô ấy đang làm việc để Spout2, một ứng dụng? thư viện? phát sóng trực tiếp, có thể chạy tốt trên Linux.
Cá nhân tôi thấy nếu chỉ có kiến thức CS thì chắc cũng không khác biệt nhiều lắm.
Hoặc cũng có thể là vì cách tôi đang dùng giống như pair programming với một người bạn gõ tay cực nhanh và viết hết toàn bộ code cho mình...
Nếu có nỗ lực phân tích và hiểu đoạn mã mà nó tạo ra thì có lẽ vẫn ổn.
Trình biên dịch là một khái niệm hơi khác, vì nó tạo assembly dựa trên quy tắc nên thuộc miền mang tính quyết định; do đó chỉ cần rà soát một lần thì sau đó vấn đề sẽ không tái diễn. Nhưng LLM thuộc miền xác suất, nên vẫn có khả năng vấn đề lặp lại.
Không rõ khi độ chính xác xác suất này tiếp tục phát triển thì có thể tiến gần 100% hay không, nhưng nếu chính yêu cầu bằng ngôn ngữ tự nhiên đã không chính xác thì rốt cuộc kết quả cũng sẽ không chính xác, nên tôi nghĩ một bản hoàn thiện tốt cuối cùng vẫn phụ thuộc vào con người.
Cuối cùng, khi đi sâu vào phát triển thì sẽ đến lúc phải hiểu được bên trong các lớp trừu tượng.
Khoảng cách giữa prompt ngôn ngữ tự nhiên và đoạn mã được sinh ra là quá lớn, nên có vẻ rất khó đi từ prompt vào bên trong lớp trừu tượng của LLM.
Hiện tại, cách chúng ta làm là truyền cho LLM bằng prompt khái niệm về đặc tả vốn có trong đầu, rồi đọc lại và kiểm chứng đoạn mã đã được viết ra.
Vì vậy nó gần với việc review code do người khác viết hơn, nên tôi không có cảm giác là mình đang đi vào bên trong lớp trừu tượng.
Tôi cũng lo cho các bạn junior đã tiếp xúc với LLM từ thời còn là sinh viên. Tôi cũng có cảm giác là nguồn tuyển dụng cho vị trí junior có vẻ đã xấu đi đôi chút, nhưng lại khó mà chứng minh được...
Liner toang thật rồi… mình đã dùng rất ổn mà…
Tác giả vẫn đang sử dụng LLM một cách hạn chế cho một số công việc nhất định (khoảng 40%)
Nhìn vào cách mô tả như trên, có vẻ tác giả cũng không hẳn cho rằng cần phải loại bỏ hoàn toàn AI.
Cảm ơn! Tôi sẽ đọc kỹ.
Câu tít câu view bực thật.
Có vẻ như bài viết này được viết với giả định chỉ nghĩ đến những kịch bản quá lạc quan, nhưng không có điều nào là dễ dàng cả.
Trong nhiều trường hợp, nỗ lực và thời gian cần để tăng thêm chỉ 1% từ 90% lên 91% còn nhiều hơn cả nỗ lực và thời gian để đạt tới mốc 90%.
Điều tôi lo hơn cả sự xuất hiện của AI mạnh là hiện tượng con người ngày càng đặt niềm tin khổng lồ vào những kết quả do AI tạo ra mà lẽ ra không nên tin tưởng sẽ ngày càng trở nên mạnh hơn.
Ngay cả ở đây, khi viết một bình luận ngắn, cũng có người viết đến mức chính họ cũng không rõ mình đang nói gì, và cũng có người nói rằng hỏi AI thì nó trả lời như thế này, rồi xem đó như thể là sự thật.
Có vẻ chúng ta cần tiếp tục suy nghĩ về cách tận dụng nó cho tốt. Tôi cho rằng phát triển mà bỏ qua AI thì sẽ dần bị tụt lại phía sau.
Tác giả bài viết này đã dùng những phương pháp tận dụng hiệu quả rồi, nhưng dù vậy tôi vẫn nghĩ cần cân nhắc theo hướng tận dụng AI tốt hơn nữa.
(Vẫn chỉ là còn nhiều thử và sai... )
Có cảm giác giá cổ phiếu sẽ còn tăng nữa.....
Cô ấy có quay lại phát sóng, nhưng đã đổi tên thành Hoshino Rina và chỉ phát sóng việc đóng góp mã nguồn mở một cách độc lập thôi.
Gần đây cô ấy đang làm việc để Spout2, một ứng dụng? thư viện? phát sóng trực tiếp, có thể chạy tốt trên Linux.
Thật ngạc nhiên là nó lại được cập nhật gì đó.
Cá nhân tôi thấy nếu chỉ có kiến thức CS thì chắc cũng không khác biệt nhiều lắm.
Hoặc cũng có thể là vì cách tôi đang dùng giống như pair programming với một người bạn gõ tay cực nhanh và viết hết toàn bộ code cho mình...
Tôi thấy đúng là Claude đang làm việc 100% đấy chứ? Là sao nhỉ?
Không rõ đây là báo cáo hay tiểu thuyết nữa. Cách đây 10 năm thì rõ ràng nó là tiểu thuyết khoa học viễn tưởng.
Wow..... được hỗ trợ lâu thật đấy.
Nếu có nỗ lực phân tích và hiểu đoạn mã mà nó tạo ra thì có lẽ vẫn ổn.
Trình biên dịch là một khái niệm hơi khác, vì nó tạo assembly dựa trên quy tắc nên thuộc miền mang tính quyết định; do đó chỉ cần rà soát một lần thì sau đó vấn đề sẽ không tái diễn. Nhưng LLM thuộc miền xác suất, nên vẫn có khả năng vấn đề lặp lại.
Không rõ khi độ chính xác xác suất này tiếp tục phát triển thì có thể tiến gần 100% hay không, nhưng nếu chính yêu cầu bằng ngôn ngữ tự nhiên đã không chính xác thì rốt cuộc kết quả cũng sẽ không chính xác, nên tôi nghĩ một bản hoàn thiện
tốtcuối cùng vẫn phụ thuộc vào con người.Cuối cùng, khi đi sâu vào phát triển thì sẽ đến lúc phải hiểu được bên trong các lớp trừu tượng.
Khoảng cách giữa prompt ngôn ngữ tự nhiên và đoạn mã được sinh ra là quá lớn, nên có vẻ rất khó đi từ prompt vào bên trong lớp trừu tượng của LLM.
Hiện tại, cách chúng ta làm là truyền cho LLM bằng prompt khái niệm về đặc tả vốn có trong đầu, rồi đọc lại và kiểm chứng đoạn mã đã được viết ra.
Vì vậy nó gần với việc review code do người khác viết hơn, nên tôi không có cảm giác là mình đang đi vào bên trong lớp trừu tượng.
Thiết bị được hỗ trợ
Apple Watch Series 9 trở lên hoặc Apple Watch Ultra 2 trở lên.
Có cảm giác như OpenAI vẫn còn chưa xác định được hướng đi.
Ơ, chẳng phải chỉ có riêng chương trình phát sóng quay lại thôi sao? Đây là cái kiểu đội Hồng Chul mà không có Hồng Chul gì vậy..
Kimi, ra mắt Kimi K2.5 - mô hình agentic visual SOTA mã nguồn mở
Hãy tham khảo thêm cả phiên bản tóm tắt bằng AI
Tôi cũng lo cho các bạn junior đã tiếp xúc với LLM từ thời còn là sinh viên. Tôi cũng có cảm giác là nguồn tuyển dụng cho vị trí junior có vẻ đã xấu đi đôi chút, nhưng lại khó mà chứng minh được...