- Tháng 2/2026, quân đội Mỹ đã ném bom Trường Tiểu học Minab ở Iran, khiến hơn 175 người thiệt mạng, và ban đầu đã lan truyền thông tin sai rằng Claude của Anthropic đã chọn mục tiêu
- Trên thực tế, việc quyết định mục tiêu do hệ thống Maven của Palantir thực hiện, và việc không cập nhật dữ liệu quân sự cũ đã dẫn tới thương vong dân sự
- Maven đã tự động hóa quy trình kill chain, tăng tốc đến mức có thể quyết định 1.000 mục tiêu mỗi giờ, và trong quá trình đó các bước xác minh và đánh giá lại đã bị loại bỏ
- Kiểu tự động hóa này, tương tự các vụ oanh tạc nhầm trong Chiến tranh Việt Nam và Chiến tranh Kosovo trước đây, đã dẫn tới một vấn đề cấu trúc lặp đi lặp lại, nơi niềm tin vào công nghệ thay thế phán đoán của con người
- Cốt lõi của vụ việc không phải là lỗi của AI, mà là một hệ thống quan liêu loại bỏ phán đoán và sự tiêu biến trách nhiệm của con người
Ảo tưởng về việc “AI phải chịu trách nhiệm” trong vụ ném bom Trường Tiểu học Minab ở Iran
- Ngày 28/2/2026, quân đội Mỹ đã ném bom Trường Tiểu học Shajareh Tayyebeh ở Minab, miền nam Iran, khiến 175~180 người thiệt mạng, trong đó có các bé gái từ 7 đến 12 tuổi
- Ngay sau vụ ném bom, truyền thông và giới chính trị tập trung vào câu hỏi liệu chatbot Claude của Anthropic có chọn mục tiêu hay không
- Nhưng hệ thống chọn mục tiêu thực tế là Maven của Palantir, Claude không liên quan
- Ngôi trường này trước đây từng là cơ sở quân sự, nhưng do không cập nhật thông tin nên vẫn bị phân loại là mục tiêu quân sự
Nguồn gốc và cấu trúc của hệ thống Maven
- Maven là dự án bắt đầu từ Algorithmic Warfare Cross-Functional Team của Bộ Quốc phòng Mỹ vào năm 2017
- Mục tiêu ban đầu là tự động hóa phân tích hình ảnh drone, nhằm giảm khối lượng công việc quá tải cho các nhà phân tích con người
- Google ban đầu nhận hợp đồng nhưng đã rút lui vì phản đối nội bộ, sau đó Palantir Technologies dẫn dắt phát triển từ năm 2019
- Maven đã phát triển thành hạ tầng nhắm mục tiêu kết nối từ phát hiện mục tiêu đến lệnh tấn công bằng cách tích hợp dữ liệu vệ tinh, tín hiệu và cảm biến
- Palantir đã tái cấu trúc Maven thành “Smart System”, tích hợp hợp nhất dữ liệu thời gian thực và chức năng hỗ trợ ra quyết định tự động
- Giao diện của Maven được tổ chức dưới dạng bảng quy trình công việc kiểu Kanban, nơi các mục tiêu được xử lý khi di chuyển qua từng giai đoạn
- Chỉ với 3 lần nhấp chuột, có thể chuyển dữ liệu phát hiện thành mục tiêu chính thức, và hệ thống sẽ đề xuất phương tiện tấn công cùng tổ hợp vũ khí
Nén “kill chain” và cuộc đua tốc độ
- Maven là hình thức nén hiện đại nhất của quy trình quân sự được gọi là “kill chain”
- Kill chain là khái niệm hệ thống hóa quy trình từ phát hiện đến tiêu diệt, và quân đội Mỹ đã phát triển công nghệ để rút ngắn nó trong nhiều thập kỷ
- Maven là hệ thống đẩy tốc độ ra quyết định lên mức cực hạn, với mục tiêu vào năm 2024 là quyết định 1.000 mục tiêu mỗi giờ
- Tức là 1 quyết định mỗi 3,6 giây, hay tính theo cá nhân là 1 quyết định mỗi 72 giây
- Trong Chiến tranh Iraq năm 2003, công việc nhắm mục tiêu từng do 2.000 người thực hiện đã được thay thế bằng 20 người
- Việc tăng tốc đã loại bỏ khoảng trống dành cho phán đoán, khiến các quy trình xác minh, phản biện và đánh giá lại biến mất
- Kết quả là nguy cơ phán đoán sai tăng lên và thương vong dân sự mở rộng
Sự lặp lại trong lịch sử: niềm tin công nghệ và sự biến mất của phán đoán
- Vấn đề của Maven không phải hiện tượng mới, mà là sự lặp lại của mô hình lịch sử trong đó tự động hóa kỹ thuật thay thế phán đoán
- Operation Igloo White trong Chiến tranh Việt Nam những năm 1960 là hệ thống nhắm mục tiêu dựa trên cảm biến đã hoạt động sai, tạo ra hàng loạt thành tích giả
- CIA báo cáo rằng “số xe tải bị phá hủy” vượt quá số thực tế tồn tại, cho thấy tính khép kín của một hệ thống không thể tự kiểm chứng
- Học thuyết ném bom chính xác trong Thế chiến II cũng ám ảnh bởi hiệu suất đến mức đánh mất ý nghĩa của mục tiêu, và bị gọi là “technological fanaticism”
- Sổ tay nhắm mục tiêu năm 1998 của Không quân Mỹ nhấn mạnh “tư duy lý tính dựa trên sự kiện và kết luận”, nhưng
- trong tác chiến thực tế, “gói mục tiêu (TIP)” dựa trên PowerPoint lại được xác nhận bằng cách trích dẫn vòng tròn mà không qua kiểm chứng
- trong Chiến tranh Kosovo năm 1999, vụ oanh tạc nhầm Đại sứ quán Trung Quốc được ghi nhận là trường hợp tiêu biểu của kiểu sai sót quy trình này
Loại bỏ phán đoán và “ràng buộc kép quan liêu”
- Tổ chức vừa cần tuân theo quy tắc, vừa cần người có năng lực phán đoán để diễn giải ngoại lệ, nhưng
- nếu thừa nhận phán đoán thì uy quyền của quy tắc sẽ bị lung lay, nên họ tìm cách lượng hóa và quy trình hóa phán đoán
- Nhà sử học Theodore Porter gọi điều này là “Trust in Numbers”
- CEO Palantir Alex Karp trong cuốn The Technological Republic viết rằng
- “phần mềm là người cầm lái, còn phần cứng là phương tiện thực thi các khuyến nghị của AI”
- ông đưa ra như một lý tưởng mô hình “hành động tập thể tự chủ (bee swarm)” loại bỏ phán đoán trung gian của con người
- nhưng điều này dẫn tới sự quy trình hóa hoàn toàn không còn không gian diễn giải, tức một “nền quan liêu mong manh”
- Các cuộc họp, báo cáo và quy trình rà soát vốn không phải là sự kém hiệu quả, mà là điểm duy nhất nơi phán đoán có thể can thiệp, nhưng
- Maven đã thay thế chúng bằng bảng Kanban quy trình công việc của phần mềm, qua đó loại bỏ dư địa cho phán đoán
Nguyên nhân cấu trúc của vụ ném bom trường học ở Minab
- Trong gói mục tiêu, tòa nhà đó được phân loại là cơ sở quân sự, trong khi
- trên thực tế nó được đăng ký là trường học trên Google Maps và trong cơ sở dữ liệu thương mại của Iran
- nhưng ở tốc độ ra quyết định 1.000 mục tiêu/giờ, không ai tìm kiếm hay xác minh điều đó
- Không có phê chuẩn của Quốc hội, 6.000 mục tiêu đã bị tấn công trong 2 tuần, và một trong số đó là trường tiểu học
- sau vụ việc, thảo luận lại tập trung vào “lỗi của Claude”, qua đó
- che khuất những trách nhiệm chính trị và pháp lý cốt lõi như tính hợp pháp của cuộc chiến, việc có được Quốc hội phê chuẩn hay không, và khả năng cấu thành tội ác chiến tranh
- Khung diễn giải “đó là vấn đề AI” đã vận hành như một lối thoát để che giấu quyết định và trách nhiệm của con người
- Ai đó đã nén kill chain, coi suy xét là “độ trễ (latency)”, và
- thiết kế một hệ thống gọi việc quyết định mục tiêu ở tốc độ 1.000 mục tiêu/giờ là ‘chất lượng cao’
- Tất cả những quyết định này đều do con người đưa ra, và AI không thể gánh thay trách nhiệm đó
1 bình luận
Ý kiến trên Hacker News
Maven là một công cụ được tạo ra để dùng ngay giữa chiến tranh
Khi hai bên đang giao chiến, tiết kiệm được vài phút đồng nghĩa với cứu được mạng người
Nhưng vụ tấn công này không diễn ra trong lúc giao chiến mà là một cuộc tấn công bất ngờ. Trong tình huống không có ai phản kích, tiết kiệm thời gian không có nghĩa là cứu được mạng người
Lẽ ra việc nhận diện mục tiêu phải được thực hiện cẩn trọng hơn và con người phải kiểm tra nhiều lần. Ngôi trường rõ ràng là một trường học, thậm chí còn có cả website
Việc chỉ mất ba cú nhấp chuột để chuyển sang mục tiêu tiếp theo rõ ràng là lỗi do con người. Đã có đủ thời gian để ngăn sai lầm này
Dù là quá tin vào công cụ hay xem nhẹ sinh mạng dân thường, kết cục vẫn là cái chết của những bé gái nhỏ
Tôi hy vọng những người đã đưa ra quyết định này chắc chắn phải chịu trách nhiệm
Mỹ đã khởi động chiến tranh với mục đích gây bất ổn một quốc gia, và trong quá trình đó đã phớt lờ thương vong dân sự
Chẳng khác nào tôi tự châm lửa đốt nhà rồi sau đó biện minh rằng “tôi không biết đó là trường mẫu giáo”
Ngay cả trong thời kỳ “chiến tranh chống khủng bố” trước đây cũng đã có rất nhiều trường hợp ném bom trúng nơi tổ chức đám cưới rồi nói rằng “đó là nhầm lẫn”
Nhưng những thông tin trực tuyến kiểu này không phải là căn cứ đáng tin cậy để chọn mục tiêu
Đáng lẽ phải nhận diện bằng thông tin trực tiếp như quan sát vệ tinh. Trường học có các mô hình hoạt động nhất định và hẳn sẽ trông khác với cơ sở quân sự
Có lẽ toàn bộ căn cứ đã bị chỉ định như một đơn vị duy nhất, khiến tòa nhà trường học bị nhầm là một phần của căn cứ
Sau khi mệnh lệnh được ban ra có thể đã xuất hiện áp lực thời gian. Dù sao đi nữa, đây vẫn là một thảm kịch
Nếu chỉ có một vụ oanh tạc nhầm trong hàng nghìn phi vụ thì tỷ lệ lỗi là tương đối thấp, nhưng đây vẫn là một thất bại rõ ràng
Tuy vậy, lập luận rằng “không được xem xét đủ kỹ” thì thiếu căn cứ. Trên thực tế, các nguồn tin nội bộ nói rằng mục tiêu này lẽ ra phải bị loại khỏi danh sách cần tiêu diệt
Chính bản chất của cuộc tấn công bất ngờ này khiến trách nhiệm hoàn toàn thuộc về những người lập kế hoạch, phê duyệt và thực thi
Câu hỏi “vì sao bọn trẻ lại ở trường” là sản phẩm của sự thiếu hiểu biết. Iran có hệ thống cuối tuần khác và không thể dự đoán trước một cuộc tấn công bất ngờ
Càng dễ sử dụng lethal force thì nạn nhân vô tội càng tăng lên
Ngoài ra còn có trường hợp của Israel dùng metadata WhatsApp để theo dõi vị trí đàn ông trưởng thành rồi tiến hành tấn công
Cách làm này chẳng khác gì 20 năm trước, và một ngày nào đó những quả bom như thế cũng có thể rơi xuống nhà chúng ta
Vài tuần trước cũng đã xảy ra chuyện tương tự
Khi Mỹ và Israel tấn công một cơ sở cảnh sát của Iran, họ đã ném bom một công viên ở Tehran có chữ “Police” trong tên (Police Park)
Thực tế đó chỉ là một công viên bình thường
Video liên quan, nguồn bổ sung
Nếu bảo AI “hãy liệt kê 100 cơ sở cảnh sát ở Tehran” thì rất có thể sẽ ra kết quả như thế. Có nhiều dấu hiệu cho thấy AI đã được dùng để chọn mục tiêu
Những chuyện như thế cứ lặp lại vì Mỹ là một quốc gia phá sản về mặt đạo đức và luân lý
Vụ ném bom hầm trú ẩn Amiriyah cũng là một ví dụ
Bài báo là nơi lần đầu xuất hiện thông tin rằng “Claude của Anthropic đã chỉ định trường học làm mục tiêu”
Cho đến nay, phần lớn các tin tức đều cho rằng nguyên nhân là quy trình lỗi thời và sai sót thông tin hơn là việc dùng AI
Claude có thể chạy trên Amazon Bedrock; trong trường hợp đó, nó không phải API do Anthropic trực tiếp vận hành mà là mô hình chạy trong trung tâm dữ liệu của khách hàng
Một nhà cung cấp như Palantir có thể chọn dùng bất kỳ mô hình nào, và có khả năng họ đã dùng Claude thông qua Bedrock
Trong các hợp đồng như vậy, Anthropic không có quyền truy cập telemetry, nên không thể chứng minh chính xác cách nó đã được dùng
Rốt cuộc, câu nói “Claude đã được sử dụng” về mặt kỹ thuật có thể đúng mà cũng có thể không, nên là một red herring
Cũng đáng nhắc tới là tác giả bài báo đã đề cập chủ đề này trước đó trong bài viết trên Substack của mình
Có thật là đã từng có người tin đây là lỗi của AI sao?
Trong quân đội hiện đại, LLM thường được dùng như một công cụ để né tránh trách nhiệm
Nếu đã có mục tiêu rõ ràng thì hẳn phải có một danh sách được lập tài liệu sẵn
Nhưng giờ đây cách tiếp cận lại giống như “thả càng nhiều bom càng tốt, rồi máy tính sẽ tự lo ổn thôi”
Thực tế là giết chóc đã được ưu tiên hơn mục tiêu chiến lược
Nội dung bài viết khá thú vị
Câu “quân đội Mỹ đã cố gắng thu hẹp khoảng cách giữa quan sát và phá hủy” nghe có phần thiên lệch, nhưng lại cho thấy rất rõ sương mù chiến tranh (fog of war) đã trở nên dày đặc đến mức nào
Vài đoạn đầu thậm chí còn mang lại cảm giác mới mẻ
Điều gây ấn tượng là “AI-washing giờ đây không chỉ được dùng cho sa thải mà còn cho cả chiến tranh”
Trước đây là thần, rồi đến tự nhiên, và giờ là AI
Con người đang mang một vấn đề căn bản là trốn tránh trách nhiệm với hành động của chính mình
Toàn bộ thời đại công nghiệp hóa và máy tính có lẽ đều có thể được xem như nỗ lực xóa bỏ trách nhiệm đó vĩnh viễn
Rốt cuộc, trong bất kỳ trường hợp nào, tội ác chiến tranh của Mỹ cũng không thể được biện minh
Thực tế là họ thậm chí còn không thể xin lỗi cho đàng hoàng có thể rồi sẽ trở thành một bước ngoặt của lịch sử mà sau này chúng ta nhìn lại