- OpenAI đã ký hợp đồng triển khai các hệ thống AI tiên tiến trong môi trường mật với Department of War, đồng thời đề nghị điều này được áp dụng như nhau cho mọi công ty AI
- Công ty cho biết hợp đồng này bao gồm nhiều rào chắn an toàn hơn so với các đợt triển khai AI mật trước đây
- OpenAI nêu rõ các lằn ranh đỏ: không sử dụng công nghệ của mình cho giám sát nội địa quy mô lớn, chỉ huy vũ khí tự động, hoặc ra quyết định tự động rủi ro cao
- Duy trì toàn quyền với ngăn xếp an toàn, triển khai dựa trên đám mây, có sự can thiệp của nhân sự có cấp phép an ninh, và áp dụng các biện pháp bảo vệ hợp đồng mạnh mẽ
- OpenAI đã nói rõ với Department of War rằng không nên chỉ định Anthropic là rủi ro chuỗi cung ứng
Ký hợp đồng với Department of War
- OpenAI đã ký hợp đồng với Department of War để triển khai các hệ thống AI tiên tiến trong môi trường mật
- Đồng thời đề nghị việc triển khai này được cung cấp như nhau cho mọi công ty AI
- Hợp đồng lần này bao gồm nhiều biện pháp an toàn hơn so với các hợp đồng triển khai AI mật trước đây
Duy trì các lằn ranh đỏ
- Không sử dụng công nghệ của OpenAI cho giám sát nội địa quy mô lớn
- Không sử dụng công nghệ của OpenAI để chỉ huy các hệ thống vũ khí tự động
- Không sử dụng công nghệ của OpenAI cho các hệ thống ra quyết định tự động rủi ro cao (ví dụ: social credit)
Cấu trúc bảo vệ an toàn nhiều lớp
- Đối lập với một số phòng thí nghiệm AI đã thu hẹp hoặc loại bỏ các biện pháp bảo vệ tập trung vào chính sách sử dụng trong các đợt triển khai an ninh quốc gia
- OpenAI áp dụng cách tiếp cận nhiều lớp mở rộng
- Duy trì toàn quyền quyết định đối với ngăn xếp an toàn
- Duy trì phương thức triển khai dựa trên đám mây
- Cấu trúc có sự tham gia của nhân sự OpenAI đã được cấp phép an ninh
- Bao gồm các biện pháp bảo vệ hợp đồng mạnh mẽ
- Song hành với các biện pháp bảo vệ sẵn có theo luật pháp Mỹ
Lập trường về Anthropic
- Bày tỏ lập trường phản đối việc chỉ định Anthropic là rủi ro chuỗi cung ứng
- Đã truyền đạt rõ ràng lập trường này tới Department of War
5 bình luận
Có lẽ cần sắp xếp lại mốc thời gian của nội dung liên quan. Cũng có ý kiến nói rằng OpenAI khi đó đang trong quá trình đàm phán hợp đồng, phải không?
Đây là lần đầu tôi thấy lỗi tóm tắt thành “không có nội dung”..
Có vẻ là có những trường hợp như vậy vì việc để x thu thập dữ liệu đã trở nên khá khó xử. Chúng tôi sẽ cố gắng cải thiện.
Tôi luôn theo dõi rất kỹ, xin cảm ơn.
Ý kiến trên Hacker News
Cốt lõi nằm ở câu chữ thực tế trong hợp đồng của OpenAI và sự khác biệt với những gì Altman nói
Trong hợp đồng ghi rằng “nếu pháp luật hoặc chính sách yêu cầu sự kiểm soát của con người thì sẽ không được sử dụng cho vận hành vũ khí tự động”
Nghĩa là nếu Bộ Quốc phòng quyết định rằng “không cần kiểm soát của con người” thì vẫn có thể làm như vậy
Anthropic đặt ra một ranh giới cấm tuyệt đối là “tuyệt đối không được giám sát quy mô lớn”, còn OpenAI thì nới lỏng theo kiểu “nếu pháp luật cho phép thì có thể”
Ký một hợp đồng như vậy rồi lại giả vờ đứng về phía Anthropic trông giống một màn PR hiếm thấy trong ngành
Trong chuỗi bài trên X, OpenAI tuyên bố rằng “hợp đồng với Bộ Quốc phòng vẫn giữ các redline của chúng tôi”
Nhưng theo bài báo của NPR, Anthropic đã bị loại khỏi hợp đồng vì giữ cùng tiêu chuẩn đó, còn OpenAI thì nhận tiền
Vì thế họ mới giành được hợp đồng
Nhưng guardrail có ngăn được việc giám sát dân thường hay không thì vẫn đáng nghi
Vấn đề của điều khoản “Any Lawful Use” là Bộ Quốc phòng có thể tự ý định nghĩa thế nào là ‘hợp pháp’
Chỉ cần luật sư nội bộ viết một bản ghi nhớ thì như vậy là thành hợp pháp
Việc lạm dụng quyền lực của chính phủ phải được sửa bằng bầu cử và cải cách thể chế
Hệ thống không được thiết kế như thế, nhưng thực tế lại khác
Rốt cuộc cái gọi là “Department of War” được đặt tên mới này chỉ sẽ lãng phí tiền thuế để mua những công nghệ vô dụng với giá đắt đỏ
Tôi thấy thương cho người dân
Khác biệt giữa Anthropic và OpenAI là Anthropic cố cưỡng chế các giới hạn bằng kỹ thuật, còn OpenAI chỉ hứa bằng lời rằng “mong chính phủ đừng vi phạm”
Việc chính phủ chọn bên sau là điều dễ hiểu
Tức là vẫn để ngỏ khả năng “nếu hợp pháp thì giám sát quy mô lớn hay vũ khí tự động gây chết người cũng được”
AI đưa ra quyết định giết chóc một cách tự động là một ý tưởng cực kỳ nguy hiểm
Không chỉ vì siêu trí tuệ, mà còn vì ngay cả mô hình nhỏ cũng có thể cho phép bất kỳ ai tạo ra vũ khí không thể truy vết
Các mô hình hiện tại đã được huấn luyện để có thái độ tích cực với sinh mạng con người, nhưng nếu loại bỏ điều đó thì sẽ thành một hệ thống quái vật
Nó chỉ là bộ dự đoán token theo xác suất mà thôi
Ví dụ, chương trình lập danh sách mục tiêu bị tiêu diệt còn con người điều khiển drone
Có vẻ mọi người quên rằng Anthropic từng hợp tác với Palantir
Khi chuyện đó bị phanh phui, họ chỉ dùng PR để che lấp mà thôi
Có vẻ OpenAI đang mất khách vì tranh cãi lần này nên mới đăng bài viết để quản lý hình ảnh
Anthropic từng muốn chính phủ siết chặt quy định AI, và giờ thì có thể xem như chính họ đang nhận lại hệ quả đó
Chuyện lần này trông như OpenAI đang phản ứng bằng PR vì họ ý thức được chỉ trích rằng tiêu chuẩn đạo đức của họ yếu
Ở nước ngoài thì việc sử dụng phi đạo đức vẫn hoàn toàn có thể xảy ra