- Đã ký hợp đồng với Bộ Quốc phòng Mỹ (DoD) về việc triển khai các hệ thống AI tiên tiến trong môi trường mật, đồng thời đề nghị các điều khoản của hợp đồng này cũng được áp dụng tương tự cho mọi công ty AI
- Thỏa thuận nêu rõ ba lằn ranh đỏ: không sử dụng công nghệ của OpenAI cho giám sát nội địa quy mô lớn, điều khiển trực tiếp hệ thống vũ khí tự hành, ra quyết định tự động hóa rủi ro cao
- Áp dụng mô hình triển khai chỉ trên đám mây, OpenAI giữ toàn quyền với ngăn xếp an toàn, và nhân sự OpenAI có chứng nhận an ninh tham gia trong vòng lặp
- Khẳng định có hàng rào bảo vệ mạnh hơn các hợp đồng hiện có như của Anthropic, đồng thời loại trừ triển khai trên thiết bị biên để chặn khả năng chuyên dùng cho vũ khí tự hành
- Nhấn mạnh sự cần thiết của việc xây dựng cơ chế hợp tác dân chủ giữa các công ty AI và chính phủ, đồng thời cũng đề nghị chính phủ tháo gỡ xung đột với Anthropic
Bối cảnh và mục tiêu của hợp đồng
- Đã ký hợp đồng với Bộ Quốc phòng Mỹ về triển khai các hệ thống AI tiên tiến trong môi trường mật, và đề nghị các điều kiện tương tự cũng được cung cấp cho mọi công ty AI
- Cho rằng với tầm quan trọng của công nghệ AI, cần có sự hợp tác sâu sắc giữa quy trình dân chủ và nghiên cứu AI
- Những người bảo vệ nước Mỹ cần được trang bị các công cụ tốt nhất, đồng thời cũng nhận thức rằng công nghệ này có thể tạo ra những rủi ro mới cho thế giới
Ba lằn ranh đỏ
- Cấm sử dụng công nghệ OpenAI cho giám sát nội địa quy mô lớn (mass domestic surveillance)
- Cấm sử dụng công nghệ OpenAI để điều khiển trực tiếp hệ thống vũ khí tự hành (autonomous weapons systems)
- Cấm sử dụng công nghệ OpenAI cho ra quyết định tự động hóa rủi ro cao (ví dụ: hệ thống tín dụng xã hội)
- Khác với một số phòng nghiên cứu AI khác đang thu hẹp hoặc loại bỏ hàng rào an toàn và chỉ dựa vào chính sách sử dụng, OpenAI cho rằng cách tiếp cận bảo vệ nhiều lớp hiệu quả hơn
Các thành phần cốt lõi của hợp đồng
-
Kiến trúc triển khai
- Triển khai chỉ trên đám mây, bao gồm ngăn xếp an toàn do OpenAI trực tiếp vận hành
- Không cung cấp các mô hình đã bị gỡ hàng rào bảo vệ hoặc chưa được huấn luyện an toàn
- Loại trừ triển khai trên thiết bị biên để ngăn khả năng bị sử dụng cho vũ khí sát thương tự hành
- Có thể xác minh độc lập việc có vi phạm lằn ranh đỏ hay không, đồng thời có thể chạy và cập nhật các bộ phân loại (classifiers)
-
Điều khoản hợp đồng
- Bộ Quốc phòng có thể sử dụng hệ thống AI cho mọi mục đích hợp pháp phù hợp với luật áp dụng, yêu cầu vận hành, và các giao thức an toàn và giám sát đã được thiết lập
- Nếu luật, quy định hoặc chính sách của bộ yêu cầu con người kiểm soát, thì không được dùng để chỉ huy vũ khí tự hành một cách độc lập
- Theo DoD Directive 3000.09 (ngày 25/1/2023), việc sử dụng AI trong các hệ thống tự hành và bán tự hành phải trải qua xác thực, thẩm định và thử nghiệm nghiêm ngặt trong môi trường thực tế trước khi triển khai
- Khi xử lý dữ liệu cá nhân trong hoạt động tình báo, phải tuân thủ Tu chính án thứ 4, Đạo luật An ninh Quốc gia (1947), Đạo luật Giám sát Tình báo Nước ngoài (1978), Sắc lệnh Hành pháp 12333 và các chỉ thị liên quan của Bộ Quốc phòng
- Cấm giám sát không giới hạn đối với dữ liệu cá nhân của công dân Mỹ
- Chỉ được sử dụng trong hoạt động thực thi pháp luật trong nước khi được Posse Comitatus Act và các luật áp dụng khác cho phép
-
Sự tham gia của chuyên gia AI
- Kỹ sư OpenAI có chứng nhận an ninh sẽ được bố trí hỗ trợ trực tiếp cho chính phủ
- Các nhà nghiên cứu an toàn và căn chỉnh (alignment) có chứng nhận an ninh sẽ tham gia trong vòng lặp
Những điểm chính trong FAQ
-
Lý do ký hợp đồng
- Quân đội Mỹ cần các mô hình AI mạnh để đối phó với mối đe dọa từ việc các đối thủ tiềm năng tích hợp công nghệ AI
- Ban đầu cho rằng các cơ chế an toàn và hệ thống cho triển khai mật vẫn chưa sẵn sàng, nên không ký ngay, mà trước hết chuẩn bị để bảo đảm các lằn ranh đỏ có thể được tuân thủ
- Việc loại bỏ các biện pháp an toàn kỹ thuật cốt lõi nhằm tăng hiệu năng cho công việc an ninh quốc gia không phải là cách tiếp cận đúng đắn
- Cũng nhằm giảm căng thẳng giữa Bộ Quốc phòng và các phòng nghiên cứu AI tại Mỹ, đồng thời đề nghị chính phủ cung cấp cùng điều kiện này cho mọi phòng nghiên cứu AI và đặc biệt là giải quyết vấn đề với Anthropic
-
So sánh với Anthropic
- Cho rằng hợp đồng của OpenAI mang lại cam kết tốt hơn và các biện pháp an toàn có trách nhiệm hơn so với hợp đồng hiện có của Anthropic
- Việc triển khai chỉ trên đám mây (không phải edge), duy trì ngăn xếp an toàn riêng, cùng sự tham gia của nhân sự OpenAI có chứng nhận an ninh khiến các lằn ranh đỏ có thể được thực thi tốt hơn
- Không biết vì sao Anthropic đã không ký được hợp đồng này, và hy vọng Anthropic cùng nhiều phòng nghiên cứu khác sẽ cân nhắc điều đó
-
Về việc có chỉ định Anthropic là "rủi ro chuỗi cung ứng" hay không
- Phản đối việc chỉ định Anthropic là "rủi ro chuỗi cung ứng", và đã truyền đạt rõ quan điểm này với chính phủ
-
Khả năng dùng cho vũ khí tự hành
- Dựa trên ngăn xếp an toàn, triển khai chỉ trên đám mây, ngôn ngữ hợp đồng, cùng luật lệ, quy định và chính sách hiện có, hệ thống không thể được dùng cho vũ khí tự hành
- Nhân sự OpenAI tham gia trong vòng lặp để cung cấp bảo đảm bổ sung
-
Khả năng dùng cho giám sát quy mô lớn
- Dựa trên ngăn xếp an toàn, ngôn ngữ hợp đồng và các luật hiện hành vốn hạn chế mạnh việc giám sát trong nước của Bộ Quốc phòng, hệ thống không thể được dùng cho giám sát quy mô lớn
-
Có triển khai mà không có ngăn xếp an toàn hay không
- OpenAI giữ toàn quyền kiểm soát ngăn xếp an toàn và không triển khai khi không có hàng rào bảo vệ an toàn
- Khác với một số phòng nghiên cứu AI khác đang thu hẹp hàng rào bảo vệ mô hình và dựa chủ yếu vào chính sách sử dụng như biện pháp an toàn chính, OpenAI cho rằng cách tiếp cận nhiều lớp hiệu quả hơn
-
Nếu chính phủ vi phạm hợp đồng
- Giống như các hợp đồng thông thường, nếu bên kia vi phạm điều kiện thì có thể chấm dứt hợp đồng
-
Nếu luật hoặc chính sách thay đổi
- Hợp đồng có tham chiếu rõ ràng theo tiêu chuẩn hiện tại tới các luật và chính sách liên quan đến giám sát và vũ khí tự hành
- Dù luật hoặc chính sách trong tương lai có thay đổi, việc sử dụng hệ thống vẫn phải phù hợp với các tiêu chuẩn hiện tại đã được phản ánh trong hợp đồng
- OpenAI cũng đồng ý với hai lằn ranh đỏ mà Anthropic nêu ra (giám sát nội địa quy mô lớn và vũ khí hoàn toàn tự hành), đồng thời bổ sung lằn ranh đỏ thứ ba là ra quyết định rủi ro cao được tự động hóa
- Giám sát nội địa quy mô lớn: trong quá trình trao đổi, đã rõ rằng Bộ Quốc phòng xem đây là hành vi bất hợp pháp và không có kế hoạch sử dụng cho mục đích đó; hợp đồng cũng ghi rõ rằng đây không thuộc phạm vi sử dụng hợp pháp
- Vũ khí hoàn toàn tự hành: trong môi trường triển khai trên đám mây được nêu trong hợp đồng, không thể vận hành vũ khí hoàn toàn tự hành, vì điều đó đòi hỏi triển khai trên thiết bị biên
- Ngoài các biện pháp bảo vệ này, còn có các lớp an toàn bổ sung là ngăn xếp an toàn và sự tham gia trong vòng lặp của các chuyên gia kỹ thuật OpenAI
1 bình luận
Ý kiến trên Hacker News
Theo cách tôi hiểu, hợp đồng giữa OpenAI và Bộ Quốc phòng có vẻ như cấm giám sát hàng loạt đối với công dân Mỹ, nhưng thực ra chỉ có nghĩa là họ bị giới hạn trong phạm vi vốn đã bị pháp luật cấm
Nói cách khác, điều đó có thể được hiểu là Bộ Quốc phòng vẫn có thể mua dữ liệu hàng loạt như vị trí hoặc giao dịch tài chính từ các công ty tư nhân rồi dùng công cụ của OpenAI để phân tích
Tôi nhớ là hợp đồng của Anthropic không có điều khoản như vậy
Nếu điều này là thật thì quá khủng khiếp. Nhưng gần đây tôi đã nhiều lần vội kết luận, nên lần này tôi đang tạm hoãn phán xét
(Xin nói thêm, tôi là cựu nhân viên OpenAI và hiện là cổ đông)
Không còn như thời còn là tổ chức phi lợi nhuận, giờ họ đã thay đổi chính sách quyền riêng tư tới hai lần để thu thập nhiều dữ liệu hơn từ tôi
Quá trình tắt các thiết lập cũng rắc rối, đầy dark pattern. Tính năng tải dữ liệu về thì gần như không hoạt động
Đây là ví dụ điển hình của ‘weasel language’ (cách diễn đạt lắt léo để né tránh)
Nếu nguyên tắc này biến mất thì phần lớn những kịch bản ác mộng kiểu này cũng sẽ biến mất
Cụm “Shall not be used as consistent with these authorities” nghe còn sai cả ngữ pháp
Có vẻ như các luật sư đã cố tình viết mơ hồ để chừa chỗ cho cách diễn giải phục vụ PR
Cụm “The Department of War may use the AI System for all lawful purposes…” rốt cuộc có nghĩa là có thể dùng cho mọi mục đích mà pháp luật cho phép
Anthropic đã cố áp dụng tiêu chuẩn đạo đức riêng của mình, còn OpenAI thì chấp nhận nguyên xi yêu cầu của chính phủ
Cá nhân tôi đều hiểu được cả hai lập trường, nhưng cách chính phủ đối xử với Anthropic là ác ý và cũng có hại cho lợi ích của Mỹ
Chính phủ đã công khai làm những việc bất hợp pháp rồi, nên chẳng ai biết chuyện gì đang diễn ra trong bí mật
Rốt cuộc, cốt lõi của Anthropic là lập trường đạo đức rằng không thể tin chính phủ
Việc thay đổi quy định cũng do họ quyết định
Sam Altman либо là ngây thơ, hoặc đang khiến chúng ta nghĩ như vậy
Đó rõ ràng là tội ác chiến tranh, vậy ai sẽ phán định tính ‘hợp pháp’? OpenAI, Bộ trưởng Quốc phòng, hay thẩm phán?
Cụm “cho mọi mục đích được pháp luật cho phép” nghĩa là chủ thể làm ra luật không tự giới hạn chính mình
Nhưng nếu biết là bất hợp pháp mà vẫn hỗ trợ chính phủ thì có thể cấu thành đồng phạm. Chính phủ có thể được miễn trách, nhưng OpenAI thì chưa chắc
Tôi không nghĩ Anthropic hoàn toàn là thánh nhân đạo đức
ChatGPT cũng vậy
Nhưng ở thời điểm này, hủy ChatGPT để dùng Claude là một hành động thể hiện thông điệp mà tôi muốn gửi đi
Nếu các công ty biết rằng người dùng sẽ rời đi ngay khi có tranh cãi, họ cũng sẽ phải cẩn trọng hơn
Anthropic lần này không lùi bước là điều rất đáng nể
Dù GPU đang khan hiếm, tôi cũng định bỏ ChatGPT để chuyển sang Claude hoặc Kimi
Cuối cùng thì dù nhân viên có giữ lập trường đạo đức, nếu không có quyền quyết định thì cũng vô nghĩa
Sức mạnh duy nhất là ‘nghỉ việc’
Nếu các kỹ sư chủ chốt cùng dừng lại, Sam Altman một mình không thể duy trì công ty
OpenAI đang né tránh trách nhiệm đạo đức theo kiểu “hãy giao trách nhiệm đạo đức của AI cho pháp luật”
Nếu vẫn còn nhân viên OpenAI có tài sản ròng hơn 2 triệu USD mà tiếp tục ở lại, thì la bàn đạo đức của họ đã hỏng rồi
Giờ cũng chẳng khác gì làm ở Palantir hay xAI
Cụm “có thể dùng cho mọi mục đích hợp pháp” rốt cuộc có nghĩa là Bộ Quốc phòng đã đạt được điều họ muốn nhờ vào sự thiếu hụt quy định
Bài blog này khiến tình hình trông còn tệ hơn
Nó không vạch ranh giới rõ ràng với những mục đích sử dụng gây tranh cãi mà Anthropic từng từ chối
Chỉ nói rằng “chỉ được phép nếu hợp pháp và đã được kiểm thử”
Cảm giác giống như IBM những năm 1930 bán máy cho Đức rồi nói rằng “chúng tôi không biết”
Rốt cuộc, điều quân đội muốn là vũ khí tự động và giám sát hàng loạt, cùng với những mục đích khác tuy hợp pháp về mặt pháp lý nhưng mập mờ về mặt đạo đức