3 điểm bởi GN⁺ 25 ngày trước | 1 bình luận | Chia sẻ qua WhatsApp
  • Một thẩm phán liên bang ở California đã phán quyết nỗ lực của Bộ Quốc phòng nhằm chỉ định Anthropic là ‘rủi ro chuỗi cung ứng’ là vi hiến và chặn vô thời hạn
  • Phán quyết nêu rõ biện pháp này xâm phạm quyền tự do ngôn luận và thủ tục tố tụng đúng đắn, đồng thời khẳng định không có cơ sở pháp lý để gắn nhãn một công ty Mỹ là đối tượng thù địch
  • Đây là trường hợp thứ ba tòa án chặn các biện pháp hạn chế phát ngôn của Bộ trưởng Quốc phòng Pete Hegseth, qua đó kiềm chế hoạt động hành chính mang tính trả đũa của chính phủ
  • Anthropic hoan nghênh phán quyết và nhấn mạnh ý chí hợp tác nhằm bảo đảm tính an toàn và độ tin cậy của AI
  • Vụ việc này có thể ảnh hưởng đến các chuẩn mực pháp lý trong tương lai về quan hệ hợp đồng giữa doanh nghiệp AI và chính phủ cũng như giới hạn sử dụng cho mục đích quân sự

Thẩm phán chặn động thái của Lầu Năm Góc muốn chỉ định Anthropic là ‘rủi ro chuỗi cung ứng’

  • Một thẩm phán liên bang ở California đã chặn vô thời hạn nỗ lực của Bộ Quốc phòng nhằm chỉ định Anthropic là ‘rủi ro chuỗi cung ứng’ để cắt đứt quan hệ với chính phủ
    • Phán quyết cho rằng biện pháp này xâm phạm các quyền hiến định
    • Hiệu lực của phán quyết được hoãn 1 tuần để chính phủ kháng cáo
  • Thẩm phán nêu rõ: “Không có cơ sở pháp lý để một công ty Mỹ bị đóng dấu là đối tượng thù địch tiềm tàng hay kẻ phá hoại chỉ vì bất đồng quan điểm với chính phủ
    • Biện pháp này bị coi là vi phạm quyền tự do ngôn luận (First Amendment)thủ tục tố tụng đúng đắn (due process)
    • Bản án dài 43 trang gọi hành động của chính phủ là “một ý tưởng mang màu sắc Orwell”
  • Đây là phán quyết thứ ba trong vài tháng gần đây mà tòa án ngăn chặn các biện pháp của Bộ trưởng Quốc phòng Pete Hegseth đối với nhà báo và chính trị gia
    • Trước đó, các thẩm phán liên bang tại Washington, D.C. đã lần lượt phán quyết rằng Hegseth vi phạm quyền tự do ngôn luận thông qua chính sách với báo chí và việc hạn chế phát biểu của thượng nghị sĩ
  • Ngay sau phán quyết, Anthropic tuyên bố: “Chúng tôi cảm ơn tòa án đã hành động nhanh chóng và công nhận các lập luận của công ty là xác đáng
    • Công ty cho biết vụ kiện này là biện pháp nhằm bảo vệ chính mình, khách hàng và đối tác, đồng thời nói rằng sẽ tiếp tục hợp tác với chính phủ để phát triển AI an toàn và đáng tin cậy

Ý nghĩa và bối cảnh của việc chỉ định rủi ro chuỗi cung ứng

  • Việc chỉ định là ‘rủi ro chuỗi cung ứng’ đồng nghĩa mọi doanh nghiệp giao dịch với quân đội phải chứng minh họ không sử dụng sản phẩm của Anthropic
    • Trước đây, chỉ định này vốn chỉ áp dụng cho các công ty có liên hệ với quốc gia thù địch nước ngoài
  • Anthropic cho rằng biện pháp này đã gây ra xâm phạm quyền tự do ngôn luận, phỉ báng danh dựđe dọa các hợp đồng trị giá hàng trăm triệu USD
  • Mâu thuẫn với Bộ Quốc phòng bắt đầu khi Anthropic kiên định hạn chế sử dụng mô hình AI Claude cho vũ khí tự động và giám sát quy mô lớn
    • Tháng 2, Hegseth đã chỉ định Anthropic là rủi ro chuỗi cung ứng và ra lệnh các cơ quan liên bang ngừng sử dụng và cắt giao dịch với các công ty liên quan

Căn cứ chính của phán quyết

  • Thẩm phán cho rằng biện pháp của Bộ Quốc phòng là hành vi trả đũa không liên quan đến mục tiêu an ninh quốc gia
    • Hồ sơ của Bộ Quốc phòng nêu rằng Anthropic bị chỉ định vì đã thể hiện “thái độ thù địch thông qua truyền thông”
    • Thẩm phán khẳng định: trừng phạt một công ty vì công khai chỉ trích lập trường của chính phủ về hợp đồng là hành vi trả đũa bất hợp pháp đối với quyền tự do ngôn luận

Lập trường của Bộ Quốc phòng và phản ứng tiếp theo

  • Bộ Quốc phòng yêu cầu mô hình Claude phải cho phép “quyền truy cập đầy đủ cho mọi mục đích hợp pháp”
    • CTO của Bộ Quốc phòng Emil Michael nói trong một cuộc phỏng vấn với CNBC rằng các công ty có mô hình tích hợp sẵn ưu tiên chính sách không thể làm ô nhiễm chuỗi cung ứng và làm suy giảm hiệu quả chiến đấu
  • Anthropic giữ vững hai nguyên tắc là cấm vũ khí tự động và giám sát trong nước
    • Công ty cho rằng lập trường này là phát ngôn được hiến pháp bảo vệ
  • Trên X (trước đây là Twitter), Michael gọi phán quyết này là “một quyết định đáng xấu hổ” và cho biết sẽ kháng cáo
    • Ông nói bản án có “hàng chục lỗi thực tế”, nhưng không nêu chi tiết cụ thể

Các vụ kiện bổ sung và triển vọng sắp tới

  • Anthropic cũng đang theo đuổi một vụ kiện riêng về thẩm quyền pháp lý khác mà Hegseth sử dụng để đưa ra chỉ định rủi ro chuỗi cung ứng, tại tòa án liên bang Washington, D.C.
  • Phán quyết này có thể ảnh hưởng đến các chuẩn mực pháp lý về quan hệ hợp đồng giữa doanh nghiệp AI và chính phủ, đặc biệt là quanh giới hạn sử dụng AI cho mục đích quân sự

1 bình luận

 
Ý kiến trên Hacker News
  • Thật may vì đôi khi hệ thống tư pháp vẫn vận hành đúng cách
    Nhưng nếu bớt hoài nghi đi một chút thì, tổng thống đã nhiều lần công khai nói rằng ông ngưỡng mộ Tập Cận Bình, và phong cách điều hành cũng đang tiến gần hơn với kiểu Trung Quốc
    Mọi người đều quỳ gối như các CEO công nghệ, và ông ta đang tìm cách kiểm soát bằng bàn tay sắt mọi mặt của nhánh hành pháp

    • Ở Trung Quốc chắc người ta sẽ không đưa một người dẫn chương trình TV lên làm lãnh đạo quân đội
      Tôi thấy giống tình hình ở Thổ Nhĩ Kỳ hiện nay hơn. Trump chỉ đang đẩy quá trình đó diễn ra nhanh hơn nhiều
    • Theo tôi thì chính phủ Mỹ hiện tại là điều ngược lại với Trung Quốc
      Đó là một chế độ kakistocracy gồm những kẻ xu nịnh, trung thành với một kẻ ái kỷ lớn nhất của cả thế hệ
      Nó đã trở thành một chế độ tài phiệt nơi các tỷ phú chỉ biết chạy theo tiền và sự chú ý được mặc sức hành động
      Trung Quốc không như vậy. Tập Cận Bình và Đảng Cộng sản có nguyên tắc hơn nhiều
  • Dù thẩm phán có ra phán quyết gì đi nữa, miễn là tổng thống không muốn dùng một sản phẩm cụ thể thì trong chính phủ cũng sẽ chẳng ai dùng nó
    Cuối cùng Anthropic sẽ trở thành một cái tên bị khai tử trên thực tế trong chính phủ cho đến kỳ bầu cử tổng thống tiếp theo

    • Chính phủ không cần phải gắn nhãn Anthropic là “rủi ro chuỗi cung ứng” thì vẫn có thể chặn giao dịch chỉ bằng một điều khoản trong RFP
      Nhưng với lần chỉ định này, mọi công ty có làm ăn với chính phủ sẽ không thể dùng Anthropic ở bất cứ đâu trong nội bộ công ty
      May là nếu thẩm phán chặn được động thái thái quá của chính phủ, các doanh nghiệp vẫn có thể tiếp tục dùng nội bộ
      Nếu có lợi về kinh tế thì phần lớn công ty sẽ tiếp tục dùng
    • Bộ Quốc phòng vẫn đang dùng Anthropic trong các hoạt động tác chiến thực tế ngay cả sau khi đưa ra chỉ định rủi ro chuỗi cung ứng
      Bài liên quan (CNBC)
    • Dù sao hợp đồng cũng là tùy chọn. Không giao dịch thì thôi
      Trái lại, có vẻ vụ này còn củng cố nhận thức rằng Anthropic là một nền tảng có đạo đức và lý trí
    • Chính phủ dùng mô hình nào thì tôi không quan tâm, nhưng việc chỉ định rủi ro chuỗi cung ứng ảnh hưởng đến mọi kỹ sư làm ăn với chính phủ
      Gần như mọi công ty công nghệ đều có hợp đồng với chính phủ, nên đây thực chất là một lệnh chặn trên diện rộng
    • Những vấn đề kiểu này hoàn toàn có thể được xử lý bằng kiện tụng dân sự thông thường. Doanh nghiệp cũng từng thắng trong các vụ bị từ chối hợp đồng chính phủ
  • Sau khi nói chuyện với bạn mình, tôi cảm thấy có thể lạc quan về độ bền thể chế của nền dân chủ Mỹ
    Dạo này có nhiều bi quan, nhưng các thể chế vẫn đang vận hành
    Khi một người nắm quyền nhờ lựa chọn của đa số đi quá giới hạn, tòa án và các cơ quan sẽ kiềm chế người đó
    Nhìn tổng thể thì hệ thống vẫn đang hoạt động tốt

    • Tôi không phải người Mỹ, nhưng khó mà đồng ý với sự lạc quan đó
      Tổng thống phớt lờ các giới hạn đạo đức và pháp lý và hành động theo ý mình
      Những người thân cận của ông ta sẽ tìm cách loại Anthropic khỏi chính phủ, và các CEO cũng sẽ nghe theo để tránh bất lợi
    • Vấn đề không phải là ‘bức tường có chặn được con bò tót hay không’, mà là liệu sau quá trình đó đồ sứ còn nguyên vẹn không
    • Với quy mô vấn đề như Trump, các thể chế lẽ ra đã phải loại ông ta khỏi chức vụ rồi
      Tư pháp ra lệnh nhưng phần lớn bị phớt lờ thì đó không phải là hệ thống đang hoạt động
    • Hàng trăm vụ giam giữ của ICE đã bị phán là bất hợp pháp nhưng chẳng có gì thay đổi
      Lạc quan pháp lý là thái độ phớt lờ thực tế. Những người thực thi pháp luật được bảo vệ bởi quyền miễn trừ, và không phải chịu trách nhiệm gì
      Hệ thống công lý không vận hành
    • Ông ta chưa từng giành được đa số phiếu phổ thông
  • Không biết vụ kiện này có liên quan đến 10 U.S. Code § 3252 không
    Tài liệu tòa án liên quan

  • Không biết có bao nhiêu người đã ngừng dùng Claude vì lệnh từ Lầu Năm Góc

    • Tổ chức của chúng tôi đã cho thời hạn chuyển đổi 5 tháng để ngừng dùng sản phẩm của Anthropic
      Giờ thì đã dừng rồi nhưng chưa có thông báo chính thức. Công việc của tôi liên quan đến Medicare/Medicaid nên việc chỉ định này ảnh hưởng trực tiếp
    • Tôi cũng đã ngừng. Tôi làm ở NIH
    • Bên tôi cũng đang đi theo hướng đó (một nhà thầu phụ quốc phòng quy mô nhỏ)
    • Mặt khác, tăng trưởng người dùng phổ thông vẫn tiếp diễn, như bài trên TechCrunch
    • Tôi cũng đã ngừng. Chính phủ là một trong các khách hàng của công ty tôi
  • Kiểu phán quyết này có thực sự giúp được gì không? Chính quyền hiện tại có vẻ không mấy quan tâm đến việc tuân thủ pháp luật

  • Phán quyết lần này mới ở cấp tòa án quận, nên khả năng cao chính quyền Trump sẽ kháng cáo
    Phán quyết của Tòa Phúc thẩm Khu vực 9 sẽ quan trọng hơn

  • Thật ra Anthropic đúng là cũng là rủi ro chuỗi cung ứng, nhưng các công ty phần mềm độc quyền khác có bảo mật lỏng lẻo cũng vậy
    Chính phủ tự cắm GPU và dùng công cụ FOSS đâu phải chuyện quá khó
    Điều thực sự đáng lo là một chính phủ có ngân sách vô hạn mà lại không có nổi năng lực cơ bản đó

  • Kết quả thực tế có lẽ cũng không khác biệt nhiều
    Dù sao họ cũng sẽ không thể giành được hợp đồng, nên lần chỉ định này chỉ là một thủ tục mang tính hình thức
    Đó chỉ là khoác lên một lớp vỏ thể chế thay vì chính quyền nói thẳng là “chúng tôi cứ chặn thôi”

    • Mục đích của việc chỉ định rủi ro chuỗi cung ứng không chỉ là khiến DoD ngừng sử dụng
      Mà là khiến mọi công ty giao dịch với chính phủ không thể dùng Anthropic ở bất kỳ đâu
      Ví dụ công ty chúng tôi Calaveras.ai cũng cung ứng gián tiếp cho DoD nên bị ảnh hưởng
    • Việc chỉ định này không chỉ là né tránh đơn thuần, mà gần như là một lệnh cấm mang tính pháp lý
      Nếu Palantír đang dùng Claude thì họ cũng sẽ bị cấm
    • Động thái lần này cũng là tín hiệu rằng chính phủ không thể cưỡng ép kiểm soát khu vực tư nhân
    • Chỉ định rủi ro chuỗi cung ứng buộc toàn bộ chuỗi cung ứng—kể cả các nhà thầu phụ của nhà thầu phụ—đều phải loại Anthropic ra
      Trên thực tế, mức ảnh hưởng là tới toàn bộ nền kinh tế
  • Đáng tiếc là Lầu Năm Góc có thể kháng cáo, và các tòa cấp trên thường quá thiên về phía chính phủ trong các vấn đề “an ninh quốc gia”