- Việc từ chối merge code đã khiến AI đăng các bài viết mang tính công kích, và cả những bài báo dùng trích dẫn bịa đặt cũng phải bị rút lại, cho thấy tác động tiêu cực của AI lên hệ sinh thái mã nguồn mở
- Các maintainer mã nguồn mở đang phải gánh thêm khối lượng rà soát rất lớn do code (PR) và báo cáo lỗi thiếu chính xác do AI tạo ra, trong khi tỷ lệ báo cáo thực sự hữu ích giảm mạnh
- Tình hình đã xấu đi đến mức GitHub phải bổ sung tính năng vô hiệu hóa Pull Request
- Năng lực sinh code của các mô hình AI đã rơi vào trạng thái chững lại (plateau) ở một mức nhất định, trong khi nguồn lực của các reviewer là con người đã chạm giới hạn
- Bài viết cảnh báo cơn sốt AI đang mang dáng dấp quá nhiệt đầu cơ tương tự NFT và tiền mã hóa, đồng thời làm tổn hại mã nguồn mở và toàn bộ hệ sinh thái công nghệ
Xung đột giữa AI và mã nguồn mở
Thiệt hại đối với các maintainer mã nguồn mở
- Daniel Stenberg, maintainer của curl, đã dừng chương trình bug bounty do chất lượng báo cáo lỗi do AI tạo ra suy giảm
- Tỷ lệ báo cáo lỗ hổng hữu ích đã giảm từ 15% xuống 5%
- Ông cho biết “người dùng AI không tham gia vào việc cải thiện thực sự, mà chỉ phóng đại lỗ hổng để nhắm đến phần thưởng”
- Jeff Geerling cũng cho biết khi quản lý hơn 300 dự án mã nguồn mở, ông chứng kiến số lượng ‘slop PR’ do AI tạo ra (đề xuất code kém chất lượng) tăng vọt
- Vì vấn đề này, GitHub đã bổ sung tùy chọn vô hiệu hóa Pull Request
- Đây là trường hợp đầu tiên một tính năng cốt lõi của GitHub bị hạn chế, cho thấy cấu trúc cộng tác của mã nguồn mở đang bị thu hẹp ngay từ gốc
Giới hạn của việc sinh code bằng AI
- Việc sinh code bằng AI đã chạm đến trạng thái chững lại (plateau) ở một mức nhất định, và chất lượng không còn được cải thiện
- Các lập trình viên con người phụ trách review code có giới hạn, khác với các công ty AI dường như có nguồn lực vô hạn
- Một số người cho rằng AI có thể thay thế cả review code, nhưng Geerling cảnh báo rằng việc dùng code AI chưa được kiểm chứng trong môi trường production là rất rủi ro
- Điều này có thể chấp nhận được trong các dự án thử nghiệm cá nhân, nhưng không phù hợp với dịch vụ thương mại
Cơn sốt AI và sự méo mó của hệ sinh thái công nghệ
- Sự lan rộng của OpenClaw và nỗ lực “phổ cập agent” của OpenAI có thể khiến tình hình tồi tệ hơn
- Geerling chỉ ra rằng cơn sốt AI hiện nay mang dáng dấp sự lạc quan phi lý và quá nhiệt đầu cơ tương tự làn sóng tiền mã hóa và NFT
- LLM và machine learning có những ứng dụng hữu ích thực sự, nhưng các dự án mang tính lừa đảo đang lấy đó làm cái cớ để phá hoại hệ sinh thái mã nguồn mở
Dấu hiệu quá nhiệt của ngành AI
- Western Digital công bố rằng lượng tồn kho ổ cứng cho năm 2026 đã bán hết sạch, và nguyên nhân được cho là nhu cầu liên quan đến AI tăng vọt
- Geerling xem đây là dấu hiệu điển hình của bong bóng AI, và lo ngại “các công ty AI sẽ còn phá hủy bao nhiêu thứ trước khi phải trả giá”
- Ông nhấn mạnh rằng AI, trong khi còn chưa đủ “tốt”, đã làm sụp đổ niềm tin và cấu trúc cộng tác của mã nguồn mở
Trải nghiệm cá nhân và kết luận
- Geerling cho biết ông đã dùng các open model chạy cục bộ để chuyển blog của mình từ Drupal sang Hugo, qua đó thừa nhận giá trị hỗ trợ nhất định của AI
- Tuy vậy, ông tự mình kiểm thử và rà soát toàn bộ code được tạo ra trước khi triển khai, và nói rằng nếu đóng góp cho dự án của người khác thì cần quy trình kiểm chứng còn nghiêm ngặt hơn
- Ông kết luận rằng AI có thể nâng cao hiệu suất phát triển, nhưng tự động hóa không qua kiểm chứng đang đe dọa chất lượng của mã nguồn mở
3 bình luận
Một trong những bản chất của mã nguồn mở chẳng phải nằm ở đoạn mã có thể đường hoàng đem ra cho người khác xem hay sao. Tính thanh nhã về mặt logic, sự gọn gàng và niềm tự hào là những điều thiết yếu. Đó là mã, nhưng cũng là thơ, và có sức hấp dẫn khác với mã phục vụ công nghiệp.
Agent thì đến giai đoạn lập kế hoạch và bước xây dựng kế hoạch triển khai vẫn khá ổn, nhưng sau đó thì chỉ thay đổi chiến lược cho tới khi vượt qua được hàm kiểm chứng. Càng đi sâu, kiểu này càng tạo ra một thứ dốc trơn trượt giống bẫy triển khai. Vấn đề là cũng có nhiều người dùng chỉ cần nó chạy được là OK.
Cuối cùng, dựa trên sự đồng điệu về triết lý của cộng đồng, việc con người thẩm định ở giai đoạn lập kế hoạch sẽ phải được thực hiện tốt hơn, nhưng điều này đòi hỏi nỗ lực bên cạnh trực giác vượt trội. Thực ra vì nó trông quá thuyết phục nên việc gỡ lỗi kế hoạch của agent không phải là chuyện dễ.
Có lẽ các moderator sẽ thực sự rất vất vả.
Ý kiến trên Hacker News
Đây không chỉ là vấn đề của riêng mã nguồn mở. Các nguồn thông tin chất lượng cao đang bị khai thác quá mức và tổn hại
StackOverflow về cơ bản đã chết(bài liên quan), các nhà xuất bản đang hạn chế truy cập Internet Archive và các tạp chí học thuật đang lao đao vì bài báo giả cùng các bài đánh giá chất lượng thấp dựa trên LLM, còn những dự án như OpenStreetMap đang phải trả giá đắt vì scraping
Có cảm giác chúng ta đang chuyển từ thời đại data mining sang thời đại data fracking
Tôi viết code như một sở thích, và dạo này chủ yếu dùng LLM. Dự án của tôi không có người dùng nào, và như vậy cũng không sao
Nhưng khi đóng góp cho mã nguồn mở thì lại khác. Trước đây, cả người mới cũng có thể trưởng thành nhờ được mentor hướng dẫn, còn sau thời LLM thì không còn đối thoại được nữa. Họ giống Linguini trong phim Pixar Ratatouille: không có nhiệt huyết muốn học, chỉ nhét vào textbox rồi xem kết quả.
Mong mọi người đừng làm bẩn căn bếp riêng của mình (dự án của mình), mà hãy tiếp cận với sự đồng cảm
Sự lan rộng của AI giống như một cuộc tấn công DDoS tinh vi. Nó không chỉ tiêu hao máy chủ mà còn bào mòn sự chú ý và tài nguyên của con người.
Nội dung AI phần lớn là chất lượng thấp, nên con người rất mệt mỏi. Có thể một ngày nào đó nó sẽ hữu ích, nhưng hiện giờ vẫn là giai đoạn hỗn loạn chuyển tiếp
Code review vốn đã là nút thắt cổ chai, mà nếu code chưa được test tăng lên thì gánh nặng cho maintainer sẽ bùng nổ.
Với mã nguồn mở, việc đảm bảo chất lượng code là bắt buộc để duy trì khả năng tương thích dài hạn
LLM đang làm ô nhiễm internet bằng nội dung chất lượng thấp. Thậm chí còn khó nói liệu sau này có thể dùng chúng làm dữ liệu huấn luyện nữa không
Bản chất của vấn đề không phải AI mà là sự bất đối xứng về nỗ lực. Trước đây muốn tạo một PR tệ ít nhất cũng phải bỏ công tối thiểu, còn bây giờ chỉ vài cú click là xong
Maintainer cần các công cụ lọc cả về kỹ thuật lẫn xã hội. Giống spam email, cần một cách tiếp cận pha trộn giữa công nghệ và chính sách
Cuối tuần tôi phát hiện một bug trong sqlcmd phiên bản Golang của Microsoft và dùng Claude để sửa nó.
Những đóng góp có chủ đích kiểu này là điều tích cực cho hệ sinh thái
Năm 2020, sinh viên đã từng ào ạt gửi PR chỉ để sửa một dòng README nhằm nhận áo thun. Ngay cả không có AI thì mã nguồn mở cũng đã ở trong tình trạng quá tải
Việc mentor liên thế hệ bị đứt gãy khiến hệ sinh thái trở nên bất ổn và mong manh.
Dù vậy, mã nguồn mở sẽ không chết. Chỉ cần còn ai đó chia sẻ một dự án họ làm trong phòng riêng của mình thì nó vẫn sống.
Cần tiêu chuẩn hóa như mẫu hướng dẫn đóng góp, công cụ báo lỗi tự động, và đào tạo maintainer mới.
Tắt PR và issue cũng không sao. Cũng không nhất thiết phải dùng GitHub
Câu nói “AI đang chững lại” nghe khá lạ. Chỉ vài tháng gần đây thôi đã có những cải thiện mạnh như Opus 4.5, 4.6, Codex 5.3
Nhìn vào biểu đồ của METR, năm 2024 có chậm lại một chút nhưng đến 2025 thì lại vượt lên trên đường xu hướng
Internet từng là một không gian vui vẻ, nhưng quảng cáo và SNS đã giết chết sự sáng tạo và hợp tác.
Ngày xưa còn có nhiệt huyết thức trắng đêm ăn pizza để debug, giờ thì quá buồn chán
Đây là vấn đề của những người dùng AI một cách tùy tiện và không suy nghĩ, chứ có phải vấn đề của AI không? Không khí bây giờ đúng là mới bắt đầu thôi mà đã muốn đổ hành vi sai trái của con người sang cho AI rồi.