- CEO Anthropic Dario Amodei đã mạnh mẽ chỉ trích trong một bản ghi nhớ gửi nhân viên, gọi hợp đồng với Bộ Quốc phòng Mỹ của OpenAI là “safety theater”
- Anthropic trước đó từng có một hợp đồng quân sự trị giá 200 triệu USD, nhưng đàm phán đổ vỡ khi Bộ Quốc phòng yêu cầu quyền truy cập công nghệ không giới hạn
- Sau đó OpenAI đã ký hợp đồng với Bộ Quốc phòng, và Sam Altman công bố rằng thỏa thuận này có bao gồm các cơ chế bảo vệ theo lằn ranh đỏ giống như điều Anthropic từng yêu cầu
- Amodei nói với nhân viên rằng Altman đang tự xây dựng hình ảnh như một “nhà hòa giải và người chốt thỏa thuận”, đồng thời cho rằng thông điệp của OpenAI là “dối trá trắng trợn”
- Sau thỏa thuận này, số lượt xóa ChatGPT đã tăng vọt 295%, cho thấy dư luận công chúng có phản ứng thiện cảm hơn với phía Anthropic
Nội dung bản ghi nhớ gửi nhân viên của Dario Amodei
- Trong bản ghi nhớ được The Information đưa tin, Amodei mô tả thương vụ của OpenAI với Bộ Quốc phòng là “safety theater”
- Ông viết rằng: “Lý do chính OpenAI chấp nhận hợp đồng này còn chúng ta từ chối là vì họ quan tâm đến việc xoa dịu nhân viên, còn chúng ta thực sự quan tâm đến việc ngăn chặn lạm dụng”
- Ông còn nói Altman đang tự tô vẽ mình như một “nhà hòa giải kiêm người chốt thỏa thuận”, và trực tiếp gọi thông điệp của OpenAI là “straight up lies”
Vì sao đàm phán giữa Anthropic và Bộ Quốc phòng đổ vỡ
- Trong quá trình đàm phán với Bộ Quốc phòng Mỹ, Anthropic đã từ chối yêu cầu về quyền truy cập không giới hạn vào công nghệ AI
- Công ty muốn DoD bảo đảm rằng AI của mình sẽ không bị dùng cho giám sát quy mô lớn trong nước hoặc phát triển vũ khí tự động
- Do điều kiện này không được chấp nhận, hợp đồng trị giá 200 triệu USD đã đổ bể
- Sau đó DoD ký một hợp đồng mới với OpenAI
- Dưới chính quyền Trump, Bộ Quốc phòng được gọi là “Department of War”, và đã ký hợp đồng với OpenAI thay vì Anthropic
- Sam Altman tuyên bố hợp đồng quốc phòng mới có bao gồm các cơ chế bảo vệ cho những lằn ranh đỏ tương tự như Anthropic từng yêu cầu
- Trong một bài đăng blog, OpenAI nêu rõ hệ thống AI của họ có thể được dùng cho “all lawful purposes”
- Theo blog của OpenAI, “Bộ Quốc phòng coi giám sát quy mô lớn trong nước là bất hợp pháp và đã nói rõ trong quá trình trao đổi rằng họ không có kế hoạch sử dụng cho mục đích này”
- Công ty cho biết điểm này cũng đã được phản ánh rõ ràng trong hợp đồng như là ngoài phạm vi sử dụng hợp pháp
Các phản đối cụ thể của Anthropic
- Anthropic phản đối cụ thể việc Bộ Quốc phòng yêu cầu có thể dùng AI của họ cho “any lawful use”
- Các nhà phê bình chỉ ra rằng luật pháp có thể thay đổi, và điều hiện nay là bất hợp pháp có thể được cho phép trong tương lai
Phản ứng công chúng và tác động thị trường
- Sau thông báo về hợp đồng với Bộ Quốc phòng của OpenAI, số lượt xóa ChatGPT đã tăng vọt 295%
- Điều này cho thấy công chúng đang nhìn nhận hợp đồng quân sự của OpenAI là đáng ngờ hoặc thiếu minh bạch
- Trong bản ghi nhớ, Amodei viết rằng: “Nỗ lực spin/gaslighting này không thực sự hiệu quả với công chúng hay truyền thông; đa số đang nhìn hợp đồng của OpenAI là đáng ngờ, còn xem chúng ta như người hùng”
Bầu không khí nội bộ tại Anthropic
- Amodei nhấn mạnh với nhân viên rằng cần không để “thông điệp méo mó” của OpenAI ảnh hưởng đến nhân viên nội bộ
- Ông đánh giá rằng chiến lược PR của OpenAI chỉ hiệu quả với một bộ phận người dùng online, nhưng đã thất bại trong việc thuyết phục công chúng
3 bình luận
Nhưng tại sao lại chặn opencode vậy.. hức..
Ý kiến Hacker News
Khi @sama công bố chỉ vài giờ sau đó rằng OpenAI sẽ ký hợp đồng với các điều khoản tương tự thay cho Anthropic, tôi cảm thấy rõ ràng là DoW hoặc OAI đang bóp méo sự thật
Nếu DoW đã từ chối các điều kiện của Anthropic, thì các điều kiện của OAI hẳn trên thực tế ở mức không thể thực thi
Đọc kỹ thì nó giống như một điều kiện kiểu “DoW sẽ không vi phạm các quy tắc do chính mình đặt ra”
Sam Altman nói sẽ tích hợp các quy tắc vào mô hình dành cho DoD để ngăn chặn lạm dụng, nhưng điều đó chẳng khác nào nói rằng sẽ giải quyết được bài toán căn chỉnh (alignment) trong thời gian ngắn. Khó mà tin được
Trước đây tôi thích các bài luận của ông ấy, nhưng dần dần lại thấy ông thiếu tự phản tỉnh và hành xử như thể startup là tất cả trong cuộc sống
Lần này nữa, việc ông ấy bênh vực Altman thật quá đáng thất vọng. Xem tweet của ông ấy thì thấy ông đang phớt lờ thực tế
Có lẽ vì cảm giác trách nhiệm khi chính mình là người đưa Altman ra trước công chúng nên ông không thể chỉ trích anh ta
Phần lớn kỹ sư không học triết học chính trị, và câu chuyện cổ về “chiếc nhẫn của Gyges” vẫn còn nguyên giá trị
Đây không thể chỉ được nhìn như một vấn đề đạo đức. Đây là vấn đề có nguồn vốn khổng lồ liên quan
Việc huấn luyện các mô hình tiên tiến nhất tốn chi phí thiên văn, và những nơi có thể gánh nổi chỉ có các tổ chức như DoD
Việc Anthropic từ chối hợp đồng với Bộ Quốc phòng vì vấn đề an toàn là một canh bạc lớn. Đổi lại, họ kỳ vọng cách tiếp cận ‘Constitutional AI’ sẽ được thị trường đền đáp
OpenAI muốn tiền từ Bộ Quốc phòng mà vẫn giữ hình ảnh thân thiện với người tiêu dùng. Nhưng không thể bắt cả hai con thỏ
Có khi sau vụ này Anthropic còn kiếm được nhiều doanh thu hơn
Rủi ro thật sự là nếu chính phủ chỉ định Anthropic là rủi ro chuỗi cung ứng
Việc Anthropic hợp tác với Palantir nhưng lại phản đối giám sát của DoD trông có vẻ mâu thuẫn
Việc DoD chấm dứt hợp đồng rồi ký mới với OpenAI cho thấy rõ ràng đã có khác biệt thực chất trong điều khoản giữa hai công ty
Theo các hợp đồng chính phủ, họ tích hợp nhiều loại dữ liệu khác nhau (bao gồm điều tra và an ninh), nhưng không trực tiếp thu thập chúng
Xem bài viết của Wired
Xem bài của TechCrunch
Toàn bộ ghi chú của Dario đã được công khai tại đây
Nó không chỉ là cạnh tranh đơn thuần mà có vẻ là xung đột về hệ tư tưởng
Hơn nữa, việc gọi nhân viên OpenAI là “đám ngốc Twitter dễ bị lừa” là một lựa chọn không hay về mặt thu hút nhân tài
Xem tweet ví dụ
@pg từng mô tả @sama là “một người mà dù bị thả xuống đảo ăn thịt người, 5 năm sau cũng sẽ trở thành vua”, nhưng nhìn bây giờ thì câu đó nghe như một trích dẫn mang tính biểu tượng của ham muốn quyền lực
Dario có vẻ là một con người chân thành hiếm hoi của thời đại này. Mong ông ấy không lung lay
Rốt cuộc tất cả họ đều là các công ty vì lợi nhuận, và việc một bên sai không tự động khiến bên kia đúng
Xem liên kết thông báo chính thức
Tôi công nhận Altman đã bảo vệ Anthropic trong điều khoản SCR, nhưng mức đó là điều quá hiển nhiên
Ngay từ đầu câu trích dẫn đó đã mang sắc thái tiêu cực. Cộng đồng này cũng cần có sự hoài nghi tự nhiên với thứ bậc
Thực ra cả hai phòng thí nghiệm đều đang làm ‘safety theater’
Trong khi chưa giải quyết được bài toán căn chỉnh, họ vẫn lao vào một cuộc đua năng lực nguy hiểm vì áp lực thị trường
Đây là lời kêu gọi hành động: hãy hủy đăng ký OpenAI và xóa tài khoản sau vụ việc này
Không làm gì cả thì không khác gì dung túng
Sam Altman nói dối à? Giờ chuyện đó cũng chẳng còn đáng ngạc nhiên
Khiến mọi người ngày càng phụ thuộc vào mình, để sau này không ai còn có thể đẩy ông ta ra được nữa
OpenAI đang ở tình thế phải sống dựa vào trợ cấp của chính phủ
Sam và ban lãnh đạo đã cảm nhận được khủng hoảng, và họ cần tiền từ chính phủ
Trong bối cảnh cận kề bầu cử, còn có cả tính toán chính trị nhằm duy trì thị trường
Nvidia, Micron, Oracle, Microsoft đều bị cuốn vào dòng chảy này
Tôi đã tạo một website dòng thời gian tổng hợp các sự kiện gần đây giữa Anthropic, OpenAI và chính phủ Mỹ
Liên kết bài đăng HN
DoD: Bộ Quốc phòng
..W: ..Chiến tranh