- CEO OpenAI Sam Altman công bố đã đạt được thỏa thuận triển khai mô hình trong mạng lưới mật với Bộ Quốc phòng Mỹ (DoD)
- Thỏa thuận bao gồm nguyên tắc cấm giám sát quy mô lớn trong nước và trách nhiệm của con người đối với việc sử dụng vũ lực, bao gồm cả hệ thống vũ khí tự động; Bộ Quốc phòng cũng đồng ý với các nguyên tắc này
- Điều kiện gồm xây dựng các biện pháp bảo vệ kỹ thuật để mô hình hoạt động đúng như dự định, chỉ triển khai trên mạng cloud, và cử FDE (Field Deployment Engineer) tham gia
- OpenAI đề nghị Bộ Quốc phòng áp dụng cùng các điều kiện này cho mọi công ty AI, và cho rằng đây là những điều kiện mà mọi công ty đều có thể chấp nhận
- Công ty bày tỏ mong muốn mạnh mẽ về việc giảm căng thẳng thông qua các thỏa thuận hợp lý hơn là các biện pháp ở cấp độ pháp lý hoặc chính phủ
Nội dung thỏa thuận
- OpenAI ký thỏa thuận triển khai mô hình trong mạng lưới mật của Bộ Quốc phòng
- Trong quá trình đàm phán, OpenAI đánh giá rằng Bộ Quốc phòng đã thể hiện sự tôn trọng sâu sắc đối với an toàn và mong muốn hợp tác để đạt kết quả tốt nhất
Nguyên tắc an toàn
- An toàn AI và việc phân phối rộng rãi lợi ích là cốt lõi trong sứ mệnh của OpenAI
- Hai nguyên tắc an toàn cốt lõi trong thỏa thuận:
- Cấm giám sát quy mô lớn trong nước
- Trách nhiệm của con người đối với việc sử dụng vũ lực, bao gồm cả hệ thống vũ khí tự động
- Bộ Quốc phòng cũng đồng ý với các nguyên tắc này, đồng thời phản ánh chúng trong luật pháp và chính sách và ghi rõ trong thỏa thuận
Biện pháp bảo vệ kỹ thuật và điều kiện triển khai
- Sẽ xây dựng các biện pháp bảo vệ kỹ thuật (technical safeguards) để mô hình hoạt động đúng như dự định; đây cũng là điều Bộ Quốc phòng mong muốn
- Để hỗ trợ mô hình và bảo đảm an toàn, sẽ cử FDE (Field Deployment Engineer) tham gia
- Điều kiện là chỉ triển khai trên mạng cloud
Đề nghị mở rộng ra toàn ngành
- OpenAI đề nghị Bộ Quốc phòng đưa ra cùng các điều kiện này cho mọi công ty AI
- Công ty cho rằng đây là những điều kiện mà mọi doanh nghiệp đều sẵn sàng chấp nhận (willing to accept)
- Công ty bày tỏ mong muốn mạnh mẽ về việc giảm căng thẳng thông qua các thỏa thuận hợp lý thay vì các biện pháp ở cấp độ pháp lý hoặc chính phủ
3 bình luận
Rốt cuộc thì việc Bộ Quốc phòng Mỹ bỏ Anthropic và chọn OpenAI, nhưng cách diễn đạt thường thấy lại có sự khác biệt.
OpenAI cùng đề xuất cơ chế triển khai cụ thể như xây dựng các biện pháp an toàn kỹ thuật, đưa FDE (kỹ sư hiện trường) vào, và triển khai chuyên dụng trên đám mây
Anthropic thì yêu cầu điều khoản ngoại lệ ở mức điều khoản sử dụng
Từ góc nhìn của Bộ Quốc phòng Mỹ, điều đó bị xem là "một doanh nghiệp tư nhân thực hiện quyền phủ quyết đối với từng trường hợp sử dụng riêng lẻ", nên họ công bố theo kiểu như muốn dằn mặt.
Thỏa thuận này được công bố không lâu sau khi Anthropic bị chỉ định là rủi ro chuỗi cung ứng,
nếu nhìn bài của Axios thì Bộ Quốc phòng đã tận dụng cuộc đối đầu với Anthropic để thiết lập tông giọng trong các cuộc đàm phán với những công ty AI khác,
và OpenAI, dưới áp lực đó, đã dẫn dắt được một thỏa thuận theo hình thức mà Bộ Quốc phòng có thể chấp nhận
Sự khác biệt trong cách diễn đạt lập trường chính thức cũng khá lớn.
Sam Altman nói rằng "Bộ Quốc phòng đã thể hiện sự tôn trọng sâu sắc đối với an toàn",
trong khi phía Anthropic đến cuối vẫn giữ tông "về mặt lương tâm, chúng tôi không thể đồng ý với yêu cầu của Bộ Quốc phòng"
Có vẻ như, dù cùng một nguyên tắc, khác biệt lớn nằm ở chỗ có giữ thể diện cho Bộ Quốc phòng hay không,
và kết quả là khi OpenAI chấp nhận thì cục diện trở nên hơi kỳ,
nên ở đoạn cuối Sam Altman đã thêm câu "hãy đề nghị các điều kiện này giống nhau với mọi công ty AI",
như một thông điệp gián tiếp rằng nên nới lỏng các biện pháp đối với Anthropic.
Dù là hợp đồng ở cùng một mức độ, cảm giác về độ tin cậy hay hình ảnh lại khác hẳn nhau.
Chắc tôi cũng nên hủy đăng ký gpt thôi.
Ý kiến trên Hacker News
Nếu OpenAI cũng giữ vững các điều kiện mà Anthropic yêu cầu thì chính phủ đã không phê duyệt hợp đồng này
Cuối cùng chỉ có thể hiểu là đã tồn tại một sự đồng thuận ngầm rằng OpenAI trên thực tế sẽ không thực thi các lằn ranh giới hạn
Những người còn lại giờ phần lớn chắc là vì cổ phiếu
Họ nói đã ghi rõ “cấm giám sát quy mô lớn trong nước” và “con người chịu trách nhiệm cho việc sử dụng vũ lực”, đồng thời cho biết DoW(Department of War) cũng đã đồng ý với điều này
Đó đúng kiểu của họ: tự đốt vốn chính trị rồi chốt những thỏa thuận còn tệ hơn
OpenAI có thể đã đưa ra các điều kiện giống Anthropic, nhưng nhờ tiền vận động hành lang hoặc hiệu ứng PR mà chính phủ đã làm ngơ
Tôi cũng đã xóa ChatGPT, hủy đăng ký và quyết định ủng hộ Anthropic nhiều hơn
Tôi thấy lập trường có nguyên tắc là quan trọng, và giờ tôi không còn tin OpenAI nữa
Chút tôn trọng còn sót lại dành cho Sam Altman cũng biến mất, và tôi thấy ghê tởm trước thực tế AI đã bị lòng tham của con người làm tha hóa
Những lý tưởng từ thời OpenAI khởi đầu như một tổ chức phi lợi nhuận đã hoàn toàn biến mất
Mọi người nên hủy đăng ký hết và đánh thuế thật mạnh những công ty và CEO kiểu này
Chỉ nhìn chất lượng sản phẩm thôi cũng thấy OpenAI không còn như xưa nữa
Tôi sẽ theo dõi xem Google chọn làm gì
Những câu như “con người chịu trách nhiệm cho việc sử dụng vũ lực” nghe giống phát ngôn né tránh
Nghĩa là cuối cùng vũ khí sát thương tự động vẫn có thể xảy ra
Dù tổng thống hay Bộ Quốc phòng có được nêu là ‘người chịu trách nhiệm’ thì trên thực tế việc truy cứu trách nhiệm là bất khả thi
Bài đăng thứ nhất nói rằng hợp đồng với OpenAI có các biện pháp an toàn dựa trên ràng buộc pháp lý
Bài đăng thứ hai nói rằng hợp đồng được ký dựa trên tiêu chuẩn “mọi cách sử dụng hợp pháp”, và lập luận đây là cách tiếp cận trao quyền cho hệ thống dân chủ
Có thông tin cho rằng Anthropic đã từ chối phương án thỏa hiệp như vậy
Trước đây đã có rất nhiều trường hợp hợp thức hóa hành vi bất hợp pháp, thậm chí còn sửa luôn cả luật
Cuối cùng chỉ dựa vào luật thôi thì không thể ngăn chính phủ lạm quyền
Kể cả nếu lời giải thích đó đúng, vẫn khó tin cho đến khi một cơ quan báo chí đáng tin công bố toàn văn hợp đồng
Nếu đúng thật thì có lẽ mức phản ứng phù hợp là tẩy chay OpenAI và quân đội Mỹ
Bài viết liên quan
Có lẽ vấn đề không nằm ở các lằn ranh giới hạn, mà là chính phủ xem Anthropic là đối thủ chính trị
Nhưng nhìn khách quan hơn thì điểm mấu chốt là ai là người có quyền phán định “sử dụng hợp pháp”: chính phủ hay công ty AI
Nhìn vào bài đăng liên quan thì Anthropic được cho là đã cố phản ánh trực tiếp tiêu chuẩn này vào hiến pháp của Claude
Cuối cùng tôi đã hủy đăng ký cho đến khi OpenAI đưa ra lập trường rõ ràng
Nhưng rồi đột ngột đòi đàm phán lại bằng cách đe dọa chỉ định SCR và cưỡng chế mua lại theo DPA
Nếu hợp đồng của OpenAI thật sự tương tự Anthropic thì đây đúng là chuyện đạo đức giả và bất công
Theo thời gian họ sẽ cho phép các mô hình dùng cho vũ khí tự động, còn chức năng giám sát có thể lách qua Palantir
Khả năng cao đây là lời nói dối mang tính chiến lược nhằm khiến Anthropic trông xấu đi
OpenAI không thể duy trì mức định giá doanh nghiệp hiện đang bị thổi phồng nếu không có người dùng
Các mô hình khác giờ cũng đã đủ sức cạnh tranh
Tôi đã quá chán ngấy kiểu hành xử mục ruỗng này rồi