- Loại trừ khỏi hợp đồng hai lĩnh vực là giám sát nội địa quy mô lớn và vũ khí hoàn toàn tự động
- Anthropic coi việc sử dụng AI để bảo vệ Mỹ và các quốc gia dân chủ là sứ mệnh cốt lõi, và đang hợp tác với Bộ Quốc phòng cùng các cơ quan tình báo vì mục tiêu này
- Các mô hình Claude đang được sử dụng trên mạng lưới mật, phòng thí nghiệm quốc gia và các cơ quan an ninh quốc gia để thực hiện các nhiệm vụ như phân tích tình báo, lập kế hoạch tác chiến và tác chiến mạng
- Công ty bảo vệ lợi thế AI của Mỹ thông qua các biện pháp như ngừng giao dịch với các công ty liên quan đến Đảng Cộng sản Trung Quốc, chặn các cuộc tấn công mạng lạm dụng AI và ủng hộ siết chặt kiểm soát xuất khẩu chất bán dẫn
- Tuy vậy, công ty nêu rõ hai lĩnh vực giám sát nội địa quy mô lớn và vũ khí hoàn toàn tự động bị loại trừ vì các vấn đề về giá trị dân chủ và độ tin cậy công nghệ
- Bất chấp sức ép từ Bộ Quốc phòng, Anthropic vẫn giữ lập trường duy trì hai hàng rào an toàn này và mong muốn tiếp tục hợp tác
Hợp tác quốc phòng và triển khai AI của Anthropic
- Anthropic là công ty tiên phong đầu tiên triển khai mô hình AI trên mạng lưới mật của chính phủ Mỹ
- Đồng thời cũng là bên đầu tiên cung cấp mô hình tùy chỉnh cho các phòng thí nghiệm quốc gia và khách hàng an ninh quốc gia
- Các mô hình Claude được Bộ Quốc phòng và nhiều cơ quan an ninh sử dụng cho phân tích tình báo, mô hình hóa và mô phỏng, lập kế hoạch tác chiến và tác chiến mạng
- Công ty đưa ra các ví dụ cho thấy đã từ bỏ lợi ích ngắn hạn để duy trì ưu thế công nghệ AI của Mỹ
- Dừng giao dịch với các công ty liên quan đến Đảng Cộng sản Trung Quốc, từ bỏ doanh thu trị giá hàng trăm triệu USD
- Ngăn chặn các cuộc tấn công mạng từ Trung Quốc lợi dụng Claude
- Ủng hộ siết chặt kiểm soát xuất khẩu chất bán dẫn để bảo đảm lợi thế công nghệ cho phe dân chủ
Hai ngoại lệ dựa trên giá trị dân chủ và độ tin cậy công nghệ
- Anthropic nêu rõ loại trừ hai trường hợp sử dụng mà AI có thể làm xói mòn các giá trị dân chủ
- Giám sát nội địa quy mô lớn: công ty ủng hộ hoạt động tình báo đối ngoại hợp pháp, nhưng giám sát đại chúng trong nước đi ngược lại các nguyên tắc dân chủ
- Giám sát dựa trên AI có thể tự động kết hợp dữ liệu về di chuyển cá nhân, hoạt động web và các mối quan hệ xã hội, cho phép lập hồ sơ cá nhân ở quy mô lớn
- Luật pháp hiện tại chưa theo kịp tốc độ phát triển công nghệ, khiến một số hành vi giám sát vẫn còn hợp pháp
- Vũ khí hoàn toàn tự động: các loại vũ khí xác định và tấn công mục tiêu mà không có sự can thiệp của con người hiện thiếu độ tin cậy với công nghệ ngày nay
- Anthropic không cung cấp sản phẩm cho các loại vũ khí như vậy
- Công ty đã đề xuất hợp tác nghiên cứu nâng cao độ tin cậy với Bộ Quốc phòng, nhưng không được chấp nhận
- Công ty nêu rõ hiện chưa thể triển khai vì thiếu giám sát và hàng rào an toàn phù hợp
Yêu cầu từ Bộ Quốc phòng và phản ứng của Anthropic
- Bộ Quốc phòng yêu cầu các công ty AI phải “đồng ý với mọi cách sử dụng hợp pháp” và gỡ bỏ hai hàng rào an toàn nói trên
- Nếu từ chối, Anthropic có thể bị chỉ định là rủi ro chuỗi cung ứng (supply chain risk) hoặc bị cưỡng chế theo Đạo luật Sản xuất Quốc phòng (Defense Production Act)
- Hai biện pháp này mang tính chất mâu thuẫn: một bên coi công ty là mối đe dọa an ninh, bên kia lại xem đây là công nghệ thiết yếu cho an ninh quốc gia
- Bất chấp sức ép đó, Anthropic tuyên bố rõ rằng về mặt lương tâm công ty không thể chấp nhận yêu cầu này
- Công ty thừa nhận Bộ Quốc phòng có quyền chọn nhà thầu khác, nhưng vẫn mong muốn tiếp tục hợp tác trong khi giữ nguyên hai hàng rào an toàn
- Ngay cả nếu hợp đồng chấm dứt, Anthropic cũng hứa hỗ trợ chuyển đổi suôn sẻ để không làm gián đoạn hoạt động hay kế hoạch quân sự
Lập trường sắp tới
- Anthropic tái khẳng định ý chí hỗ trợ an ninh quốc gia của Mỹ
- Công ty muốn tiếp tục hợp tác với Bộ Quốc phòng, nhưng giữ vững lập trường không nhân nhượng về các nguyên tắc giá trị dân chủ và an toàn công nghệ
1 bình luận
Ý kiến trên Hacker News
Điểm mạnh nhất trong bài là đoạn chính phủ ép Anthropic gỡ bỏ các biện pháp bảo mật, đồng thời đe dọa sẽ xếp họ vào diện “rủi ro chuỗi cung ứng”
Một mặt thì nói là thiết yếu cho an ninh quốc gia, mặt khác lại gọi họ là yếu tố rủi ro — một thái độ đầy mâu thuẫn
Việc Anthropic đáp lại rằng “vậy thì chính phủ không cần dùng dịch vụ của chúng tôi” thật ấn tượng. Đó là một chiến lược thông điệp, nhưng cũng đồng thời đẩy quả bóng sang phía chính quyền
Tôi từng làm ở Anthropic, và có bình luận tôi đã viết về lần cập nhật RSP này
Thật cảm động khi thấy các lãnh đạo Anthropic sẵn sàng đánh đổi vị trí hay cơ hội để giữ vững giá trị của mình
Những người như Dario, Jared, Sam thật sự nghiêm túc đến mức chấp nhận bất lợi nếu điều đó đi ngược lại niềm tin của họ
Tất nhiên đây không phải một công ty hoàn hảo, nhưng phần lớn những người đưa ra các quyết định quan trọng đều hành động từ thiện chí và các động lực dựa trên giá trị
Khi đọc bài, tôi khựng lại ở câu “AI hiện tại chưa đủ đáng tin cậy để vận hành vũ khí hoàn toàn tự động”
Tức là nghe như họ vẫn để ngỏ khả năng có vũ khí tự động nếu sau này đủ đáng tin cậy
Tôi cũng thấy đáng tiếc khi họ chỉ phê phán “giám sát quy mô lớn trong nước”, còn “giám sát bán tự động” hay “giám sát ở nước ngoài” thì không phủ nhận
Tôi từng nghĩ cái tên ‘Anthropic’ mang nghĩa vì toàn thể nhân loại, nhưng rốt cuộc lại giống kiểu “người của chúng ta vs người của các anh”
Cũng giống như OpenAI là ‘mở’, hay Triều Tiên tự gọi là ‘Cộng hòa Nhân dân’, tên gọi và thực tế có thể khác nhau
Liên quan đến đó, tôi chợt nhớ đến trang châm biếm People’s Republic of Tyranny
Điều Anthropic đang nói chỉ là “bây giờ thì chưa thể”. Về sau khả năng cao các ràng buộc sẽ được nới lỏng
Phần cứng hay phần mềm thông thường cũng có giới hạn về độ tin cậy, nên bản thân lập luận đó không hẳn là phi lý
Bản chất thật của một tổ chức bộc lộ ra khi giá trị và lợi ích xung đột
Việc Anthropic cố giữ nguyên tắc thật đáng khâm phục. Phần lớn công ty có lẽ đã không làm được như vậy
Phụ thuộc vào những hệ thống tồi tệ vì lý do đạo đức thì về dài hạn sớm muộn cũng thất bại
Cần có cơ chế răn đe mạnh đối với hành vi xấu, nhưng có cảm giác là đã quá muộn
Đọc bài này tôi thật sự thấy chán nản. Tôi không biết nước Mỹ đang đi về đâu
Hy vọng cuộc bầu cử tới sẽ mang lại một ban lãnh đạo biết hành xử lý trí
Tôi sống ở San Francisco, giáo viên thì phải dùng GoFundMe để mua đồ dùng học tập, trong khi thành phố lại chi 36 triệu USD để dẹp RV
Chỉ cần đọc bài này là thấy thực tế đã méo mó đến mức nào
Gốc rễ của mọi vấn đề là Quốc hội đã trao quyền cho nhánh hành pháp
Quân đội phải bị kiểm soát bằng luật pháp, và chỉ có hành động của công dân mới thay đổi được điều đó
Việc doanh nghiệp có thể chi phối hành động của quân đội là chuyện vô lý. Công nghệ lúc nào cũng có thể bị trưng dụng, và doanh nghiệp không ngăn được
Việc các CEO được tôn thành anh hùng vì chuyện này cho thấy nhận thức về thực tại đã méo mó đến mức nào
Ban đầu tôi thất vọng khi nghe tin Anthropic, trong khi vẫn nói về AI vì nhân loại, lại đi bán quyền truy cập ưu tiên cho Lầu Năm Góc
Tuy vậy, nếu đã có ai đó buộc phải hợp tác với tổ hợp công nghiệp-quân sự, thì tôi cũng hiểu logic rằng để nơi có chuẩn mực đạo đức cao nhất đảm nhận vẫn tốt hơn
Rốt cuộc doanh nghiệp tồn tại vì lợi nhuận
Chừng nào còn có nhà đầu tư và cổ đông, thì sinh tồn tất yếu vẫn sẽ được đặt lên trước đạo đức
Sự độc lập thực sự chỉ có thể tồn tại trong một cấu trúc không phụ thuộc vào lợi nhuận
Tôi là người đăng ký Claude Max, và lần này tôi thấy tự hào vì Anthropic đã không khuất phục trước quyền lực
Mong các công ty khác cũng lấy được dũng khí từ chuyện này
Việc cụm từ ‘Department of War’ được dùng nguyên văn chỉ đơn giản là vì Quốc hội chưa từng đổi tên nó. Ngoài ra thì đây là một cách diễn đạt ổn
Chúng ta cứ dùng uyển ngữ cho mọi thứ nên thành ra không còn nhìn rõ thực tế nữa
Tôi đánh giá cao việc Dario và Anthropic đã chọn một lập trường đạo đức. Dạo này trong ngành công nghệ hiếm khi thấy điều đó
Việc Dario không hành xử như Sam Altman hay Sundar Pichai là điều đáng nể
Trên thực tế, Anthropic đã triển khai các mô hình cho cơ quan quốc phòng và tình báo
Lập luận ở đây là trước những hợp đồng chính phủ trị giá hàng tỷ USD, không công ty nào có thể giữ mình hoàn toàn trong sạch