- Các nhân viên nội bộ Google đang yêu cầu thiết lập những giới hạn đạo đức rõ ràng (ranh giới đỏ) đối với các dự án trí tuệ nhân tạo (AI) dùng cho quân sự
- Họ bày tỏ lo ngại về việc mở rộng hợp tác với Pentagon (Bộ Quốc phòng Mỹ), đồng thời nêu ra sự cần thiết phải giới hạn phạm vi ứng dụng quân sự của AI
- Yêu cầu này được đánh giá là có xu hướng tương tự với quyết định gần đây của Anthropic trong việc đặt ra các giới hạn riêng đối với AI quân sự
- Nhân viên cho rằng cần xây dựng hướng dẫn rõ ràng để các bộ phận AI thuộc Google như DeepMind không tham gia vào phát triển vũ khí hoặc hỗ trợ tác chiến
- Cuộc thảo luận nội bộ trong các công ty công nghệ về ranh giới giữa đạo đức AI và hợp tác an ninh đang nổi lên trở lại
Lo ngại của nhân viên Google về AI quân sự
- Nhân viên Google đã bày tỏ lo ngại về khả năng công nghệ AI của công ty bị sử dụng cho mục đích quân sự
- Đặc biệt, trong bối cảnh hợp tác với Pentagon đang mở rộng, họ nhấn mạnh sự cần thiết của các quy chuẩn nội bộ để ngăn AI được áp dụng vào vũ khí sát thương hoặc hệ thống tác chiến
- Nhân viên cho rằng cần tăng cường hướng dẫn đạo đức và làm rõ mục đích phi quân sự của việc phát triển AI
So sánh với Anthropic
- Gần đây, Anthropic đã công bố các biện pháp hạn chế riêng đối với AI quân sự
- Yêu cầu của nhân viên Google cho thấy định hướng tương tự với quyết định này của Anthropic
- Cả hai trường hợp đều được diễn giải là động thái tự điều chỉnh trong ngành công nghệ nhằm ngăn chặn việc lạm dụng AI cho mục đích quân sự
Vai trò của DeepMind và thảo luận nội bộ
- Khả năng DeepMind thuộc Google tham gia các dự án liên quan đến Pentagon đã trở thành chủ đề được thảo luận
- Một số nhân viên cho rằng cần đặt ra ranh giới đỏ rõ ràng để DeepMind không can dự vào phát triển vũ khí hoặc các hệ thống hỗ trợ tác chiến
Căng thẳng đạo đức trong các công ty công nghệ
- Cuộc thảo luận lần này bên trong Google một lần nữa làm nổi bật sự căng thẳng giữa đạo đức AI và hợp tác an ninh quốc gia
- Yêu cầu của nhân viên đồng thời đặt ra hai bài toán: trách nhiệm xã hội của doanh nghiệp và việc hạn chế ứng dụng quân sự của công nghệ
Ý nghĩa đối với toàn ngành
- Các trường hợp của Anthropic và Google cho thấy xu hướng các công ty AI đang tái thiết lập tiêu chuẩn nội bộ về hợp tác quân sự
- Trong tương lai, những công ty công nghệ khác cũng có thể sẽ bị yêu cầu xây dựng chính sách rõ ràng về việc sử dụng AI cho mục đích quân sự
1 bình luận
Ý kiến trên Hacker News
Tôi hiểu tầm nhìn này, nhưng tự hỏi nó sẽ vận hành thế nào ở quy mô toàn cầu
Ví dụ, nhân viên ở Mỹ có thể từ chối phát triển các loại vũ khí như vậy, nhưng nhân viên ở Trung Quốc có thể không làm thế
Tôi đang băn khoăn làm sao cân bằng giữa tình cảm phản chiến của cá nhân và thực tế thế giới, đặc biệt trong cuộc chạy đua vũ trang AI
Lập luận rằng cứ phải chạy theo năng lực bằng mọi giá là rất nguy hiểm
Cân bằng giữa cảm xúc phản chiến cá nhân và thực tế nên được đặt trên sự cởi mở thông tin, quyền từ chối đồng ý một cách tự nguyện, và yêu cầu về tính chính danh cho mọi quyết định
Nhân tiện, Anthropic không từ chối mọi dự án quân sự, mà chọn cách tham gia có điều kiện
nhưng nếu Mỹ vũ khí hóa, khả năng nó thực sự giết người là ‘ngay trong năm nay’
Tức là các nhà phát triển ở Mỹ phải tính đến việc hậu quả đó là thực tế trước mắt
Tuy nhiên, sẽ tốt hơn nếu các lãnh đạo chính trị bắt đầu đàm phán trước khi vượt qua những giới hạn đạo đức
Nói cách khác, nếu các kỹ sư giỏi từ chối những dự án phi đạo đức, thì cơ hội để những người kém năng lực hơn làm điều xấu cũng sẽ giảm
Giống như việc các lập trình viên white-hat không hợp tác với hacker black-hat, sự không tham gia vì đạo đức có tác dụng răn đe
Nếu chuyện như thế này mà chỉ có thể giao cho tự điều chỉnh thì tôi thấy đã hết hy vọng rồi
Dù vậy, việc công khai bộc lộ sự do dự về đạo đức như thế này vẫn là một bước tiến
Những cuộc đối thoại như vậy phải được tích lũy thì mới hình thành đồng thuận xã hội và dẫn tới yêu cầu thay đổi
Còn hơn nhiều so với việc quỳ gối trước những kẻ cầm quyền điên loạn
Ý định thì tốt, nhưng chiếc hộp Pandora của việc vũ khí hóa AI đã bị mở từ lâu rồi
Nhưng nếu cứ như thế thì nhân loại đã diệt vong nhiều lần rồi
Đừng đánh mất niềm tin rằng sự kiềm chế là khả thi
Vì quân đội Mỹ từ lâu đã tài trợ cho vô số dự án điện toán
Mức chuẩn phải là không phải “chỉ dùng trong nước” mà đơn giản là “không làm”
Tin “100 nhân viên Google phản đối” khá ấn tượng
Có lẽ đến khoảng năm 2027 thì mọi chuyện sẽ được dàn xếp trong im lặng
Nhìn vào phát ngôn chính trị của Jeff Dean thì có vẻ ông ấy nghiêng về phía phản đối
Nhưng không rõ toàn bộ ban lãnh đạo có đi theo lập trường đó hay không
Phải ngăn chặn tối đa ngay từ bây giờ để chuyện đó không xảy ra
Bài báo của New York Times: chiến tranh Ukraine và vai trò của drone AI
Tôi gần như không tin Google sẽ giữ vững lập trường có nguyên tắc đến cùng
Điều thú vị là, dù Bộ Quốc phòng chỉ định Anthropic là công ty có rủi ro chuỗi cung ứng,
họ vẫn trao hợp đồng cho OpenAI
Chính sách cấm đoán của hai công ty gần như giống hệt nhau, nên thật khó hiểu vì sao lại có sự phân biệt như vậy
Thật ngạc nhiên khi cuộc thảo luận này đã bị quên lãng
Theo bài báo trên The Guardian,
cả Google lẫn OpenAI đều đã có hợp đồng quốc phòng
Nếu không đồng ý với điều đó thì đúng ra nên rời công ty, nhưng thực tế sẽ rất ít người làm vậy