1 điểm bởi GN⁺ 2026-03-01 | 1 bình luận | Chia sẻ qua WhatsApp
  • Các nhân viên nội bộ Google đang yêu cầu thiết lập những giới hạn đạo đức rõ ràng (ranh giới đỏ) đối với các dự án trí tuệ nhân tạo (AI) dùng cho quân sự
  • Họ bày tỏ lo ngại về việc mở rộng hợp tác với Pentagon (Bộ Quốc phòng Mỹ), đồng thời nêu ra sự cần thiết phải giới hạn phạm vi ứng dụng quân sự của AI
  • Yêu cầu này được đánh giá là có xu hướng tương tự với quyết định gần đây của Anthropic trong việc đặt ra các giới hạn riêng đối với AI quân sự
  • Nhân viên cho rằng cần xây dựng hướng dẫn rõ ràng để các bộ phận AI thuộc Google như DeepMind không tham gia vào phát triển vũ khí hoặc hỗ trợ tác chiến
  • Cuộc thảo luận nội bộ trong các công ty công nghệ về ranh giới giữa đạo đức AI và hợp tác an ninh đang nổi lên trở lại

Lo ngại của nhân viên Google về AI quân sự

  • Nhân viên Google đã bày tỏ lo ngại về khả năng công nghệ AI của công ty bị sử dụng cho mục đích quân sự
    • Đặc biệt, trong bối cảnh hợp tác với Pentagon đang mở rộng, họ nhấn mạnh sự cần thiết của các quy chuẩn nội bộ để ngăn AI được áp dụng vào vũ khí sát thương hoặc hệ thống tác chiến
  • Nhân viên cho rằng cần tăng cường hướng dẫn đạo đức và làm rõ mục đích phi quân sự của việc phát triển AI

So sánh với Anthropic

  • Gần đây, Anthropic đã công bố các biện pháp hạn chế riêng đối với AI quân sự
    • Yêu cầu của nhân viên Google cho thấy định hướng tương tự với quyết định này của Anthropic
  • Cả hai trường hợp đều được diễn giải là động thái tự điều chỉnh trong ngành công nghệ nhằm ngăn chặn việc lạm dụng AI cho mục đích quân sự

Vai trò của DeepMind và thảo luận nội bộ

  • Khả năng DeepMind thuộc Google tham gia các dự án liên quan đến Pentagon đã trở thành chủ đề được thảo luận
  • Một số nhân viên cho rằng cần đặt ra ranh giới đỏ rõ ràng để DeepMind không can dự vào phát triển vũ khí hoặc các hệ thống hỗ trợ tác chiến

Căng thẳng đạo đức trong các công ty công nghệ

  • Cuộc thảo luận lần này bên trong Google một lần nữa làm nổi bật sự căng thẳng giữa đạo đức AI và hợp tác an ninh quốc gia
  • Yêu cầu của nhân viên đồng thời đặt ra hai bài toán: trách nhiệm xã hội của doanh nghiệpviệc hạn chế ứng dụng quân sự của công nghệ

Ý nghĩa đối với toàn ngành

  • Các trường hợp của Anthropic và Google cho thấy xu hướng các công ty AI đang tái thiết lập tiêu chuẩn nội bộ về hợp tác quân sự
  • Trong tương lai, những công ty công nghệ khác cũng có thể sẽ bị yêu cầu xây dựng chính sách rõ ràng về việc sử dụng AI cho mục đích quân sự

1 bình luận

 
GN⁺ 2026-03-01
Ý kiến trên Hacker News
  • Tôi hiểu tầm nhìn này, nhưng tự hỏi nó sẽ vận hành thế nào ở quy mô toàn cầu
    Ví dụ, nhân viên ở Mỹ có thể từ chối phát triển các loại vũ khí như vậy, nhưng nhân viên ở Trung Quốc có thể không làm thế
    Tôi đang băn khoăn làm sao cân bằng giữa tình cảm phản chiến của cá nhân và thực tế thế giới, đặc biệt trong cuộc chạy đua vũ trang AI

    • Cần giải thích rõ việc Trung Quốc vũ khí hóa AI sẽ tạo ra mối đe dọa gì đối với thế giới bên ngoài, và thảo luận các biện pháp ứng phó
      Lập luận rằng cứ phải chạy theo năng lực bằng mọi giá là rất nguy hiểm
      Cân bằng giữa cảm xúc phản chiến cá nhân và thực tế nên được đặt trên sự cởi mở thông tin, quyền từ chối đồng ý một cách tự nguyện, và yêu cầu về tính chính danh cho mọi quyết định
    • Không cần lo. Dù Google không làm thì xAI cũng sẽ làm
      Nhân tiện, Anthropic không từ chối mọi dự án quân sự, mà chọn cách tham gia có điều kiện
    • Bỏ qua lý thuyết trò chơi, nếu nhìn thực tế thì khi Trung Quốc vũ khí hóa AI, có thể họ sẽ dùng nó vào ‘một lúc nào đó’
      nhưng nếu Mỹ vũ khí hóa, khả năng nó thực sự giết người là ‘ngay trong năm nay’
      Tức là các nhà phát triển ở Mỹ phải tính đến việc hậu quả đó là thực tế trước mắt
    • Cần hạn chế và kiểm soát thông qua hiệp ước như trong cuộc chạy đua vũ khí hạt nhân
      Tuy nhiên, sẽ tốt hơn nếu các lãnh đạo chính trị bắt đầu đàm phán trước khi vượt qua những giới hạn đạo đức
    • Nếu số người tham gia giảm đi thì tốc độ tiến triển cũng chậm lại
      Nói cách khác, nếu các kỹ sư giỏi từ chối những dự án phi đạo đức, thì cơ hội để những người kém năng lực hơn làm điều xấu cũng sẽ giảm
      Giống như việc các lập trình viên white-hat không hợp tác với hacker black-hat, sự không tham gia vì đạo đức có tác dụng răn đe
  • Nếu chuyện như thế này mà chỉ có thể giao cho tự điều chỉnh thì tôi thấy đã hết hy vọng rồi

    • Rốt cuộc ở tầng cao nhất thì tất cả vẫn chỉ là tự điều chỉnh
      Dù vậy, việc công khai bộc lộ sự do dự về đạo đức như thế này vẫn là một bước tiến
      Những cuộc đối thoại như vậy phải được tích lũy thì mới hình thành đồng thuận xã hội và dẫn tới yêu cầu thay đổi
    • Tình hình hiện tại nghiêm trọng đến mức, ngay cả tự điều chỉnh vẫn còn tốt hơn là không có gì
      Còn hơn nhiều so với việc quỳ gối trước những kẻ cầm quyền điên loạn
  • Ý định thì tốt, nhưng chiếc hộp Pandora của việc vũ khí hóa AI đã bị mở từ lâu rồi

    • Lúc nào cũng có người nói vậy — “giờ thì không thể kiểm soát nữa”
      Nhưng nếu cứ như thế thì nhân loại đã diệt vong nhiều lần rồi
      Đừng đánh mất niềm tin rằng sự kiềm chế là khả thi
    • Thực ra xu hướng này đã có từ đầu
      Vì quân đội Mỹ từ lâu đã tài trợ cho vô số dự án điện toán
  • Mức chuẩn phải là không phải “chỉ dùng trong nước” mà đơn giản là “không làm

  • Tin “100 nhân viên Google phản đối” khá ấn tượng

    • Nhưng những việc như thế này thường bị chuyển thành dự án bí mật, và những người liên quan cuối cùng rất có thể sẽ bị sa thải
      Có lẽ đến khoảng năm 2027 thì mọi chuyện sẽ được dàn xếp trong im lặng
    • Tôi nghe nói thực tế là khoảng 200 người
    • Dù vậy, mọi thay đổi đều bắt đầu từ một số ít người dũng cảm
  • Nhìn vào phát ngôn chính trị của Jeff Dean thì có vẻ ông ấy nghiêng về phía phản đối
    Nhưng không rõ toàn bộ ban lãnh đạo có đi theo lập trường đó hay không

    • Tuy vậy, ngay khoảnh khắc một người Mỹ trở thành nạn nhân của vũ khí tự hành, sự phản kháng này sẽ biến mất
      Phải ngăn chặn tối đa ngay từ bây giờ để chuyện đó không xảy ra
  • Bài báo của New York Times: chiến tranh Ukraine và vai trò của drone AI

  • Tôi gần như không tin Google sẽ giữ vững lập trường có nguyên tắc đến cùng

  • Điều thú vị là, dù Bộ Quốc phòng chỉ định Anthropic là công ty có rủi ro chuỗi cung ứng,
    họ vẫn trao hợp đồng cho OpenAI
    Chính sách cấm đoán của hai công ty gần như giống hệt nhau, nên thật khó hiểu vì sao lại có sự phân biệt như vậy

  • Thật ngạc nhiên khi cuộc thảo luận này đã bị quên lãng
    Theo bài báo trên The Guardian,
    cả Google lẫn OpenAI đều đã có hợp đồng quốc phòng
    Nếu không đồng ý với điều đó thì đúng ra nên rời công ty, nhưng thực tế sẽ rất ít người làm vậy

    • Cá nhân tôi lại nghĩ tốt hơn là ở lại và phản kháng bằng cách làm việc kém hiệu quả một cách âm thầm