4 điểm bởi GN⁺ 2026-02-27 | 1 bình luận | Chia sẻ qua WhatsApp
  • Loại trừ khỏi hợp đồng hai lĩnh vực là giám sát nội địa quy mô lớnvũ khí hoàn toàn tự động
  • Anthropic coi việc sử dụng AI để bảo vệ Mỹ và các quốc gia dân chủ là sứ mệnh cốt lõi, và đang hợp tác với Bộ Quốc phòng cùng các cơ quan tình báo vì mục tiêu này
  • Các mô hình Claude đang được sử dụng trên mạng lưới mật, phòng thí nghiệm quốc gia và các cơ quan an ninh quốc gia để thực hiện các nhiệm vụ như phân tích tình báo, lập kế hoạch tác chiến và tác chiến mạng
  • Công ty bảo vệ lợi thế AI của Mỹ thông qua các biện pháp như ngừng giao dịch với các công ty liên quan đến Đảng Cộng sản Trung Quốc, chặn các cuộc tấn công mạng lạm dụng AIủng hộ siết chặt kiểm soát xuất khẩu chất bán dẫn
  • Tuy vậy, công ty nêu rõ hai lĩnh vực giám sát nội địa quy mô lớnvũ khí hoàn toàn tự động bị loại trừ vì các vấn đề về giá trị dân chủ và độ tin cậy công nghệ
  • Bất chấp sức ép từ Bộ Quốc phòng, Anthropic vẫn giữ lập trường duy trì hai hàng rào an toàn này và mong muốn tiếp tục hợp tác

Hợp tác quốc phòng và triển khai AI của Anthropic

  • Anthropic là công ty tiên phong đầu tiên triển khai mô hình AI trên mạng lưới mật của chính phủ Mỹ
    • Đồng thời cũng là bên đầu tiên cung cấp mô hình tùy chỉnh cho các phòng thí nghiệm quốc gia và khách hàng an ninh quốc gia
    • Các mô hình Claude được Bộ Quốc phòng và nhiều cơ quan an ninh sử dụng cho phân tích tình báo, mô hình hóa và mô phỏng, lập kế hoạch tác chiến và tác chiến mạng
  • Công ty đưa ra các ví dụ cho thấy đã từ bỏ lợi ích ngắn hạn để duy trì ưu thế công nghệ AI của Mỹ
    • Dừng giao dịch với các công ty liên quan đến Đảng Cộng sản Trung Quốc, từ bỏ doanh thu trị giá hàng trăm triệu USD
    • Ngăn chặn các cuộc tấn công mạng từ Trung Quốc lợi dụng Claude
    • Ủng hộ siết chặt kiểm soát xuất khẩu chất bán dẫn để bảo đảm lợi thế công nghệ cho phe dân chủ

Hai ngoại lệ dựa trên giá trị dân chủ và độ tin cậy công nghệ

  • Anthropic nêu rõ loại trừ hai trường hợp sử dụng mà AI có thể làm xói mòn các giá trị dân chủ
    • Giám sát nội địa quy mô lớn: công ty ủng hộ hoạt động tình báo đối ngoại hợp pháp, nhưng giám sát đại chúng trong nước đi ngược lại các nguyên tắc dân chủ
      • Giám sát dựa trên AI có thể tự động kết hợp dữ liệu về di chuyển cá nhân, hoạt động web và các mối quan hệ xã hội, cho phép lập hồ sơ cá nhân ở quy mô lớn
      • Luật pháp hiện tại chưa theo kịp tốc độ phát triển công nghệ, khiến một số hành vi giám sát vẫn còn hợp pháp
    • Vũ khí hoàn toàn tự động: các loại vũ khí xác định và tấn công mục tiêu mà không có sự can thiệp của con người hiện thiếu độ tin cậy với công nghệ ngày nay
      • Anthropic không cung cấp sản phẩm cho các loại vũ khí như vậy
      • Công ty đã đề xuất hợp tác nghiên cứu nâng cao độ tin cậy với Bộ Quốc phòng, nhưng không được chấp nhận
      • Công ty nêu rõ hiện chưa thể triển khai vì thiếu giám sát và hàng rào an toàn phù hợp

Yêu cầu từ Bộ Quốc phòng và phản ứng của Anthropic

  • Bộ Quốc phòng yêu cầu các công ty AI phải “đồng ý với mọi cách sử dụng hợp pháp” và gỡ bỏ hai hàng rào an toàn nói trên
    • Nếu từ chối, Anthropic có thể bị chỉ định là rủi ro chuỗi cung ứng (supply chain risk) hoặc bị cưỡng chế theo Đạo luật Sản xuất Quốc phòng (Defense Production Act)
    • Hai biện pháp này mang tính chất mâu thuẫn: một bên coi công ty là mối đe dọa an ninh, bên kia lại xem đây là công nghệ thiết yếu cho an ninh quốc gia
  • Bất chấp sức ép đó, Anthropic tuyên bố rõ rằng về mặt lương tâm công ty không thể chấp nhận yêu cầu này
    • Công ty thừa nhận Bộ Quốc phòng có quyền chọn nhà thầu khác, nhưng vẫn mong muốn tiếp tục hợp tác trong khi giữ nguyên hai hàng rào an toàn
    • Ngay cả nếu hợp đồng chấm dứt, Anthropic cũng hứa hỗ trợ chuyển đổi suôn sẻ để không làm gián đoạn hoạt động hay kế hoạch quân sự

Lập trường sắp tới

  • Anthropic tái khẳng định ý chí hỗ trợ an ninh quốc gia của Mỹ
  • Công ty muốn tiếp tục hợp tác với Bộ Quốc phòng, nhưng giữ vững lập trường không nhân nhượng về các nguyên tắc giá trị dân chủ và an toàn công nghệ

1 bình luận

 
GN⁺ 2026-02-27
Ý kiến trên Hacker News
  • Điểm mạnh nhất trong bài là đoạn chính phủ ép Anthropic gỡ bỏ các biện pháp bảo mật, đồng thời đe dọa sẽ xếp họ vào diện “rủi ro chuỗi cung ứng”
    Một mặt thì nói là thiết yếu cho an ninh quốc gia, mặt khác lại gọi họ là yếu tố rủi ro — một thái độ đầy mâu thuẫn
    Việc Anthropic đáp lại rằng “vậy thì chính phủ không cần dùng dịch vụ của chúng tôi” thật ấn tượng. Đó là một chiến lược thông điệp, nhưng cũng đồng thời đẩy quả bóng sang phía chính quyền

  • Tôi từng làm ở Anthropic, và có bình luận tôi đã viết về lần cập nhật RSP này
    Thật cảm động khi thấy các lãnh đạo Anthropic sẵn sàng đánh đổi vị trí hay cơ hội để giữ vững giá trị của mình
    Những người như Dario, Jared, Sam thật sự nghiêm túc đến mức chấp nhận bất lợi nếu điều đó đi ngược lại niềm tin của họ
    Tất nhiên đây không phải một công ty hoàn hảo, nhưng phần lớn những người đưa ra các quyết định quan trọng đều hành động từ thiện chí và các động lực dựa trên giá trị

  • Khi đọc bài, tôi khựng lại ở câu “AI hiện tại chưa đủ đáng tin cậy để vận hành vũ khí hoàn toàn tự động”
    Tức là nghe như họ vẫn để ngỏ khả năng có vũ khí tự động nếu sau này đủ đáng tin cậy
    Tôi cũng thấy đáng tiếc khi họ chỉ phê phán “giám sát quy mô lớn trong nước”, còn “giám sát bán tự động” hay “giám sát ở nước ngoài” thì không phủ nhận
    Tôi từng nghĩ cái tên ‘Anthropic’ mang nghĩa vì toàn thể nhân loại, nhưng rốt cuộc lại giống kiểu “người của chúng ta vs người của các anh”

    • Điều này khiến tôi tự hỏi liệu câu “Anthropic vì con người” có thật sự chân thành không
      Cũng giống như OpenAI là ‘mở’, hay Triều Tiên tự gọi là ‘Cộng hòa Nhân dân’, tên gọi và thực tế có thể khác nhau
      Liên quan đến đó, tôi chợt nhớ đến trang châm biếm People’s Republic of Tyranny
    • Tôi thấy cách diễn đạt đó là phù hợp. Dario không ở vị thế có thể nói chắc như đinh đóng cột về tương lai
    • Tôi nghĩ một ngày nào đó, khi hệ thống đủ đáng tin cậy, vũ khí hoàn toàn tự động sẽ xuất hiện trên chiến trường
      Điều Anthropic đang nói chỉ là “bây giờ thì chưa thể”. Về sau khả năng cao các ràng buộc sẽ được nới lỏng
    • Tôi hiểu ý đó không phải là “khi có đủ dữ liệu huấn luyện thì sẽ làm được”, mà là khi đáp ứng được tiêu chuẩn độ tin cậy thì sẽ làm được
      Phần cứng hay phần mềm thông thường cũng có giới hạn về độ tin cậy, nên bản thân lập luận đó không hẳn là phi lý
    • Nhưng điều thú vị là họ nói vũ khí tự động thì còn chưa đủ đáng tin, trong khi lại cho rằng nó đã đủ đáng tin để thay thế các công việc văn phòng — cảm giác khá mâu thuẫn
  • Bản chất thật của một tổ chức bộc lộ ra khi giá trị và lợi ích xung đột
    Việc Anthropic cố giữ nguyên tắc thật đáng khâm phục. Phần lớn công ty có lẽ đã không làm được như vậy

    • Nhưng những quyết định kiểu này rốt cuộc đều phải trả giá bằng tiền
      Phụ thuộc vào những hệ thống tồi tệ vì lý do đạo đức thì về dài hạn sớm muộn cũng thất bại
      Cần có cơ chế răn đe mạnh đối với hành vi xấu, nhưng có cảm giác là đã quá muộn
  • Đọc bài này tôi thật sự thấy chán nản. Tôi không biết nước Mỹ đang đi về đâu
    Hy vọng cuộc bầu cử tới sẽ mang lại một ban lãnh đạo biết hành xử lý trí

    • Nhưng chuyện này không thể giải quyết chỉ bằng một kỳ bầu cử. Nó đòi hỏi nỗ lực ở cấp độ nhiều thế hệ
    • Chỉ hy vọng thôi thì không đủ. Không có kế hoạch cụ thể thì cũng không có tương lai
    • Xu hướng này không có gì mới. Từ sau 11/9, đã liên tục có quân sự hóa lực lượng cảnh sát, tấn công vào nền dân chủ và chính sách đối ngoại đơn phương
    • Tôi lo việc AI lan rộng một cách thiếu kiểm soát sẽ làm cấu trúc xã hội tệ hơn nữa. Có khi còn xuất hiện một thời kỳ hỗn loạn hơn cả kỷ nguyên mạng xã hội
    • Chừng nào đảng Dân chủ còn chỉ tập trung vào các vấn đề bên lề thay vì các vấn đề cốt lõi, thì rất khó thắng trong kỳ bầu cử tới
      Tôi sống ở San Francisco, giáo viên thì phải dùng GoFundMe để mua đồ dùng học tập, trong khi thành phố lại chi 36 triệu USD để dẹp RV
      Chỉ cần đọc bài này là thấy thực tế đã méo mó đến mức nào
  • Gốc rễ của mọi vấn đề là Quốc hội đã trao quyền cho nhánh hành pháp
    Quân đội phải bị kiểm soát bằng luật pháp, và chỉ có hành động của công dân mới thay đổi được điều đó
    Việc doanh nghiệp có thể chi phối hành động của quân đội là chuyện vô lý. Công nghệ lúc nào cũng có thể bị trưng dụng, và doanh nghiệp không ngăn được
    Việc các CEO được tôn thành anh hùng vì chuyện này cho thấy nhận thức về thực tại đã méo mó đến mức nào

    • Trừ khi là trong cơ chế tổng động viên thời chiến, còn trong một quốc gia dân chủ thời bình thì những biện pháp cưỡng ép như vậy không thể chấp nhận được
  • Ban đầu tôi thất vọng khi nghe tin Anthropic, trong khi vẫn nói về AI vì nhân loại, lại đi bán quyền truy cập ưu tiên cho Lầu Năm Góc
    Tuy vậy, nếu đã có ai đó buộc phải hợp tác với tổ hợp công nghiệp-quân sự, thì tôi cũng hiểu logic rằng để nơi có chuẩn mực đạo đức cao nhất đảm nhận vẫn tốt hơn

    • AI vốn dĩ là công nghệ được tối ưu cho mục đích quân sự và giám sát. Nó phân tích lượng dữ liệu khổng lồ để rút ra thông tin hữu ích
      Rốt cuộc doanh nghiệp tồn tại vì lợi nhuận
    • Doanh nghiệp cần doanh thu để tồn tại. Nếu người dùng không trả đủ tiền thì họ sẽ phải tìm nguồn thu khác
      Chừng nào còn có nhà đầu tư và cổ đông, thì sinh tồn tất yếu vẫn sẽ được đặt lên trước đạo đức
      Sự độc lập thực sự chỉ có thể tồn tại trong một cấu trúc không phụ thuộc vào lợi nhuận
  • Tôi là người đăng ký Claude Max, và lần này tôi thấy tự hào vì Anthropic đã không khuất phục trước quyền lực
    Mong các công ty khác cũng lấy được dũng khí từ chuyện này

    • Nhưng thực ra họ cũng đã phần nào khuất phục trước quyền lực rồi. Chỉ là ít nhất vẫn còn giữ được chút lòng tự trọng
  • Việc cụm từ ‘Department of War’ được dùng nguyên văn chỉ đơn giản là vì Quốc hội chưa từng đổi tên nó. Ngoài ra thì đây là một cách diễn đạt ổn

    • Không cần tranh cãi về chuyện tên gọi. Thực tế là chính những người nắm quyền cũng đang tự gọi như vậy
    • Thậm chí tôi còn thấy tên gốc ‘Department of War’ hay hơn vì nó nói thẳng đúng chức năng
      Chúng ta cứ dùng uyển ngữ cho mọi thứ nên thành ra không còn nhìn rõ thực tế nữa
    • Tôi cũng thấy cái tên đó trung thực hơn. Nó thể hiện đúng việc họ làm, và khiến người ta phải suy ngẫm về ý nghĩa của nó
    • Có lẽ cách nói này được giữ nguyên vì đó là thuật ngữ Hegseth cứ khăng khăng dùng. Nếu viết ‘DoD’ thì ngược lại còn gây kích động hơn
    • Dù vậy, việc chọn cách gọi như thế vẫn có ý nghĩa trong việc định hình không khí của bài viết
  • Tôi đánh giá cao việc Dario và Anthropic đã chọn một lập trường đạo đức. Dạo này trong ngành công nghệ hiếm khi thấy điều đó

    • Dù là người lạc quan hay bi quan về LLM, thì rủi ro của giám sát và vũ khí tự động vẫn là điều rất rõ ràng
      Việc Dario không hành xử như Sam Altman hay Sundar Pichai là điều đáng nể
    • Nhưng cũng có người xem đây chỉ là một màn trình diễn. Chỉ là cử chỉ tô vẽ muộn màng của những kẻ đã tạo ra con quái vật
    • Từ một góc nhìn khác, có người thấy ghê tởm khi ngay từ câu đầu tiên của tuyên bố đã nói “chúng tôi sẽ dùng AI để bảo vệ nước Mỹ và nền dân chủ”
      Trên thực tế, Anthropic đã triển khai các mô hình cho cơ quan quốc phòng và tình báo
    • Có người khác chỉ trích rằng kiểu như “giám sát Canada hay Đức thì được sao”, cho thấy nền tảng đạo đức quá yếu
    • Cũng có cái nhìn hoài nghi rằng “dù bây giờ có đạo đức đến đâu, sau IPO thì cuối cùng họ vẫn sẽ phục tùng logic lợi ích của Phố Wall và các quỹ
      Lập luận ở đây là trước những hợp đồng chính phủ trị giá hàng tỷ USD, không công ty nào có thể giữ mình hoàn toàn trong sạch