11 điểm bởi GN⁺ 2026-01-24 | 2 bình luận | Chia sẻ qua WhatsApp
  • Dự án Ghostty áp dụng quy định nghiêm ngặt về việc sử dụng AI đối với các cộng tác viên bên ngoài, và mọi hình thức dùng AI đều bắt buộc phải được công khai
  • Pull Request do AI tạo ra chỉ được phép gửi cho các issue đã được phê duyệt, và sẽ bị từ chối nếu là issue chưa được duyệt hoặc bị nghi ngờ có sử dụng AI mà không khai báo
  • Mã do AI viết bắt buộc phải được con người trực tiếp xác minh và kiểm thử, đồng thời cấm mã được tạo tự động cho các môi trường không thể truy cập
  • Cho phép hỗ trợ bằng AI trong issue hoặc thảo luận, nhưng mọi nội dung đều phải được con người rà soát và biên tập; nội dung media do AI tạo ra bị cấm hoàn toàn
  • Ghostty nêu rõ rằng họ hoan nghênh AI, nhưng vấn đề không nằm ở công cụ mà ở năng lực còn thiếu của người dùng, và vẫn duy trì chính sách này để bảo vệ các maintainer

Quy tắc sử dụng AI

  • Mọi hình thức sử dụng AI đều có nghĩa vụ công khai
    • Phải nêu rõ tên công cụ đã dùng (ví dụ: Claude Code, Cursor, Amp) và mức độ AI đã đóng góp
  • Pull Request do AI tạo chỉ được phép gửi cho các issue đã được phê duyệt
    • PR cho issue chưa được phê duyệt sẽ bị đóng
    • Nếu không ghi rõ việc dùng AI nhưng maintainer nghi ngờ, PR sẽ bị từ chối
    • Mã liên quan đến issue chưa được phê duyệt có thể được chia sẻ qua Discussion
  • Mã do AI tạo bắt buộc phải được con người xác minh
    • Cấm gửi mã giả định chưa được kiểm thử
    • Cấm viết mã cho các nền tảng mà bản thân không thể trực tiếp truy cập để kiểm thử
  • Cho phép hỗ trợ bằng AI trong issue và thảo luận, nhưng con người bắt buộc phải rà soát và biên tập
    • Nội dung dài dòng hoặc không cần thiết do AI tạo ra phải được con người chỉnh lý
  • Cấm media do AI tạo ra (hình ảnh, video, âm thanh, v.v.), chỉ cho phép văn bản và mã
  • Người dùng AI không phù hợp (bad AI drivers) có thể bị xử lý công khai
    • Nhà phát triển mới bắt đầu được khuyến nghị tự học trực tiếp thay vì phụ thuộc vào AI

Các quy tắc này chỉ áp dụng cho cộng tác viên bên ngoài, còn maintainer là ngoại lệ dựa trên sự tin cậy

Nguyên tắc vận hành lấy con người làm trung tâm

  • Ghostty để con người trực tiếp xem xét mọi thảo luận, issue và PR
    • Đây là điểm tiếp xúc nơi con người tương tác với con người, nên việc đưa vào những đóng góp chất lượng thấp, chưa được kiểm chứng bị xem là hành vi thiếu tôn trọng
  • Thế giới nơi AI tạo ra kết quả hoàn hảo vẫn chưa tới; ở hiện tại, chất lượng vẫn phụ thuộc vào năng lực của người dùng AI (driver)
  • Vì vậy, cần có các quy định nghiêm ngặt để bảo vệ maintainer

Lập trường hoan nghênh AI

  • Ghostty tích cực tận dụng các công cụ AI, và các maintainer cũng dùng AI để nâng cao năng suất
  • Mục đích của chính sách không phải là chống AI, mà là ngăn việc lạm dụng bởi người dùng thiếu kỹ năng
  • Dự án duy trì tính minh bạch về việc sử dụng AI và khẳng định rõ thái độ hoan nghênh AI

2 bình luận

 
darjeeling 2026-01-24

"""Lý do chúng tôi thực thi chính sách AI nghiêm ngặt không phải vì chúng tôi phản đối bản thân AI, mà vì có quá nhiều người không đủ năng lực lại đang sử dụng AI. Vấn đề không nằm ở công cụ, mà nằm ở con người."""

 
GN⁺ 2026-01-24
Ý kiến trên Hacker News
  • Thật đáng ngạc nhiên khi dạo này có quá nhiều spam đóng góp chất lượng thấp trong mã nguồn mở
    Tôi chỉ từng đóng góp cho vài dự án nhỏ, nhưng những đoạn mã đó là thứ tôi đã kiểm thử và review kỹ lưỡng nhất trong số những gì mình từng viết
    Tôi luôn tiếp cận rất cẩn thận vì không muốn lãng phí thời gian của người khác
    Thế mà có những người dường như hoàn toàn không có cảm giác xấu hổ này, thật khó hiểu

    • Trước đây, những người thiếu năng lực thường không đi theo con đường này
      Giờ đây khi chiếc hộp Pandora của AI đã được mở ra, có vẻ như họ cảm thấy mình có được “cơ hội thứ hai”
      Không hẳn là họ không biết xấu hổ, mà là họ thậm chí không có góc nhìn để cảm nhận điều đó
      Chúng ta đã dành nhiều năm rèn kỹ năng nên hiểu được chiều sâu của việc học, còn họ chưa từng làm việc thực tế dù chỉ một ngày nên không thấy được khác biệt ấy
    • Đã có lần khách hàng gửi ảnh chụp màn hình GPT để phản bác ý kiến của tôi
      Tôi cũng thường thấy người ta copy-paste câu trả lời từ GPT trong các nhóm công khai
      Rốt cuộc, mọi người chỉ có nhu cầu vay mượn tầm quan trọng của bản thân
      Vì thế tôi ủng hộ một code of conduct cho phép công khai chế giễu những kẻ làm người khác phí thời gian
    • Nhiều người đơn giản là đóng góp vào các dự án mã nguồn mở lớn chỉ để làm đẹp CV
      Họ chỉ muốn viết một dòng “đã đóng góp cho Ghostty”, chứ không thực sự muốn giúp đỡ
    • Phải thừa nhận rằng xã hội đã thay đổi
      Bây giờ là một thế giới không biết xấu hổ, và nếu không hiểu điều đó thì bạn sẽ thấy hoang mang và tổn thương
      Không cần phải đánh mất sự xấu hổ, nhưng cần học cách hiểu cảm xúc ấy
    • Khi làm ở một công ty mã nguồn mở, phần lớn mọi người đều nghĩ đóng góp của mình là một món quà
      Nhưng thực tế không phải vậy
  • Tôi nghĩ cấu trúc xã hội của GitHub là gốc rễ của vấn đề PR chất lượng thấp
    Khi xuất hiện nhận thức kiểu “đóng góp cho nhiều dự án = lập trình viên giỏi”, mọi người bắt đầu khai thác nó như một trò chơi
    AI chỉ như đổ thêm dầu vào lửa, và về lâu dài cần loại bỏ các incentive kiểu này
    Trớ trêu thay, nhờ AI mà có thể sẽ càng rõ rằng đây không còn là tín hiệu năng lực nữa

    • Ngay cả khi bỏ AI ra thì vấn đề vẫn vậy
      Trước đây cũng đã có “PR rác để làm CV”, giờ chỉ là chi phí tạo ra nó rẻ hơn thôi
    • Quy trình làm việc dựa trên mailing list giúp giảm kiểu vấn đề này
      Chỉ những người thật sự quan tâm mới vượt qua rào cản để gửi patch bằng git send-email
      Tuy vậy, tác dụng phụ là số người đóng góp mới sẽ giảm đi
  • Chính sách sử dụng AI của Ghostty có vẻ là một cách tiếp cận khá cân bằng
    Điểm mấu chốt là AI không thể thay thế tư duy, kiểm thử và refactor của con người
    Khi dùng Codex để tạo tính năng, cuối cùng vẫn phải viết lại rất nhiều phần. Vấn đề lớn nhất là lạm dụng abstraction không cần thiết

    • Trừ điều khoản đầu tiên thì còn lại đều hợp lý
      Cách viết mã là quyền tự do cá nhân, miễn là chịu trách nhiệm về kết quả
      Cũng như không ai yêu cầu công khai công cụ hay OS đang dùng, không có lý do gì phải ép buộc khai báo việc có dùng AI hay không
    • Tôi đang định lấy đây làm tham khảo cho hướng dẫn AI nội bộ của công ty
      Tốc độ dự án đang chậm lại vì mã tệ hại từ các nhà thầu bên ngoài, nên rất cần thứ này
    • Sẽ rất hay nếu GitHub cung cấp chính sách này dưới dạng template
      Nếu được đưa vào như gợi ý mặc định giống contribution guide hay code of conduct thì sẽ rất hữu ích
    • Chính sách thì cân bằng, nhưng câu “AI không thay thế con người” khá thú vị
      Đọc bài viết của Sam Altman thì thấy tiền đề là AI sẽ thông minh hơn con người trong tương lai
      Rốt cuộc, ranh giới về việc con người còn cần thiết đến đâu đang ngày càng mơ hồ
  • Tôi thích cụm từ “bad AI drivers”
    AI chỉ là công cụ, nhưng những PR bừa bãi này giống như những tài xế tệ hại trên đường
    Những người như vậy sớm muộn cũng sẽ lên dashcam subreddit của giới lập trình

    • Thực ra thì AI mới là người lái, còn chúng ta giống người ngồi ghế phụ hơn
      Chỉ khi AI đi sai đường thì ta mới can thiệp sửa lại
  • Theo bài đăng trên X của Mitchell Hashimoto,
    anh ấy muốn xem toàn bộ bản ghi phiên AI (transcript)
    Tôi cũng đang làm một side project tên là git-prompt-story, gắn các phiên Claude vào ghi chú trên GitHub

    • Việc công khai lịch sử phiên có hai mặt
      Việc phơi bày nguyên cả quá trình suy nghĩ rối rắm của mình khá nặng nề, thậm chí lại còn phải “sắp xếp lại” nó thêm lần nữa
    • Tôi cũng từng lưu prompt trước đây nhưng giá trị thực tế không lớn
      Nên cũng tự hỏi liệu có thật sự đáng làm không
    • Tôi nghĩ đính kèm file kế hoạch được tạo từ Plan mode của Claude sẽ tốt hơn
      Nó có thể trở thành source of truth thực sự
    • AI cũng có thể giúp trong việc整理 những bản ghi như vậy
    • Đội của chúng tôi đang bàn chuyện đính kèm phiên Claude vào ticket Jira thay vì GitHub
  • Quy định “cấm media do AI tạo ra (hình ảnh, âm thanh, v.v.), chỉ cho phép văn bản/mã” khá thú vị
    Nó giống như đang xem văn bản và mã là thứ miễn nhiễm với tranh cãi
    Nhưng cũng như các công ty AI đã thu thập dữ liệu nghệ thuật không xin phép, mã và văn bản cũng không phải ngoại lệ

    • Khi Microsoft dùng các kho GitHub làm dữ liệu huấn luyện AI, đã từng có phản ứng dữ dội
      Giờ thì phần lớn lập trình viên đều dùng LLM nên chuyện đó lắng xuống, nhưng từ góc nhìn của Ghostty,
      nếu cấm cả văn bản/mã thì thực tế sẽ là chặn phần lớn người đóng góp, nên đây có lẽ là lựa chọn thực dụng
    • Không phải vì mã kém quan trọng hơn nghệ thuật, mà là vấn đề về quyền hạn và ranh giới
      Tôi đã đóng góp rất nhiều mã nguồn mở cho việc huấn luyện AI, và cũng trực tiếp chịu thiệt hại do tự động hóa từ đó
      Vì vậy tôi cho rằng mình có thẩm quyền đạo đức để lên tiếng về việc dùng AI với mã
      Còn với lĩnh vực nghệ thuật thì nạn nhân không phải chính tôi, nên khó giữ cùng một lập trường
  • Trong tương lai, mã được viết mà không có AI có lẽ chỉ còn tồn tại ở những lĩnh vực đặc biệt
    Việc “khai báo có dùng AI hay không” cuối cùng rất có thể sẽ chỉ là thủ tục hình thức
    Trước đây, nếu thứ gì đó “chạy được + mã phức tạp” thì người ta tin đó là sản phẩm của một lập trình viên lành nghề,
    nhưng giờ tín hiệu xã hội đó đã biến mất
    Từ nay về sau, uy tín và thương hiệu cá nhân sẽ quan trọng hơn, còn huyền thoại trọng dụng nhân tài kiểu “mã tự nói lên tất cả” sẽ lung lay

  • Trong dự án Zulip gần đây cũng bùng nổ PR rác do AI tạo ra
    Thậm chí còn có trường hợp đính kèm cả ảnh chụp màn hình giả do AI tạo
    Chúng tôi đang cảnh báo hoặc chặn những người vi phạm lặp lại
    Chúng tôi muốn giúp những người thực sự muốn học, chứ không muốn vật lộn với các cộng tác viên copy-paste từ LLM
    Vì vậy đã tạo ra một chính sách AI tương tự Ghostty nhưng cụ thể hơn

    • Chính sách của Zulip thực tế và hữu dụng hơn nhiều so với của Mitchell
      Nó còn hướng dẫn cả cách tận dụng AI cho tốt, nên rất đáng tham khảo