- Angela Lipps (50 tuổi) ở Tennessee bị bắt vì bị công nghệ nhận diện khuôn mặt bằng AI xác định là nghi phạm trong một vụ gian lận ngân hàng ở North Dakota, nơi bà chưa từng đặt chân tới, và bị giam giữ hơn 5 tháng
- Hệ thống Clearview AI đã nhận diện nhầm một người giống bà là Lipps, và cảnh sát Fargo đã dựa vào đó để xin lệnh bắt
- Sau đó, hồ sơ ngân hàng chứng minh Lipps đang ở Tennessee vào thời điểm xảy ra vụ việc được xác nhận, cáo buộc bị bác bỏ vì vô tội và bà được trả tự do
- Cảnh sát Fargo thừa nhận lỗi trong việc truyền đạt thông tin AI và không nộp video giám sát, đồng thời cho biết sẽ siết chặt quy trình sử dụng dữ liệu AI
- Vụ việc này được xem là trường hợp cho thấy rõ vấn đề về độ tin cậy của công nghệ điều tra bằng AI và sự cần thiết của quy trình kiểm chứng bởi con người
Vụ bắt oan một phụ nữ Tennessee do lỗi nhận diện khuôn mặt bằng AI
- Angela Lipps (50 tuổi), cư dân bang Tennessee, bị bắt vì công nghệ nhận diện khuôn mặt bằng AI xác định bà là nghi phạm trong một vụ gian lận ngân hàng ở bang North Dakota, nơi bà chưa từng đến, và bị giam giữ hơn 5 tháng
- Cảnh sát Fargo thừa nhận đã có “một vài sai sót” trong quá trình xử lý vụ việc, nhưng không đưa ra lời xin lỗi chính thức
- Vụ bắt diễn ra vào ngày 14/7 tại nhà riêng của Lipps ở Tennessee, trong khi lệnh bắt do Fargo ban hành đã tồn tại từ vài tuần trước đó
-
Diễn biến vụ việc
- Trong quá trình điều tra vụ gian lận ngân hàng xảy ra tại khu vực Fargo, cảnh sát đã dùng “công nghệ nhận diện khuôn mặt của cơ quan phối hợp” để xác định nghi phạm
- Cảnh sát West Fargo đã sử dụng hệ thống Clearview AI, và hệ thống này đã đưa vào báo cáo một người được nhận diện là giống Lipps
- Cảnh sát Fargo dựa trên thông tin đó để coi Lipps là nghi phạm và nộp báo cáo cho Văn phòng công tố Cass County
- Sau đó, cảnh sát Fargo thông báo việc West Fargo sử dụng hệ thống AI không được báo cáo lên cấp trên và hiện đã bị cấm sử dụng
-
Quá trình giam giữ và trả tự do
- Ngày 1/7, một thẩm phán North Dakota ban hành lệnh bắt có hiệu lực dẫn độ trên toàn quốc
- Lipps bị bắt ngày 14/7 và bị giam hơn 3 tháng trong nhà tù ở Tennessee trước khi bị dẫn độ tới North Dakota
- Sau khi bị dẫn độ, luật sư của bà đã thu thập được hồ sơ ngân hàng chứng minh Lipps đang ở Tennessee vào thời điểm xảy ra vụ án
- Ngày 23/12, cảnh sát Fargo, công tố bang và thẩm phán thống nhất bác bỏ cáo buộc vì vô tội, và Lipps được trả tự do vào ngày 24/12
- Đội ngũ luật sư chỉ trích rằng “dù đã có bằng chứng miễn trừ trách nhiệm rõ ràng, việc giam giữ kéo dài vẫn bị duy trì một cách không cần thiết”
-
Kết quả điều tra và phản ứng của cảnh sát Fargo
- Cảnh sát chỉ ra các sai sót chính là nhầm lẫn trong quá trình truyền đạt thông tin từ hệ thống AI và không nộp video giám sát
- Cảnh sát Fargo cho biết từ nay sẽ không sử dụng dữ liệu AI từ West Fargo, mà sẽ hợp tác với các trung tâm thông tin cấp bang và liên bang
- Quy trình cũng được siết chặt để mọi kết quả nhận diện khuôn mặt đều phải được báo cáo hàng tháng cho giám đốc cục điều tra
- Sự thiếu sót trong hệ thống thông báo người bị bắt giữa Cass County và cơ quan công tố bang cũng được chỉ ra là vấn đề, và hiện đang được xem xét phương án cải thiện
- Cảnh sát cho biết đang xem xét liệu có kỷ luật các điều tra viên liên quan hay không, đồng thời nói rằng “không ai muốn một vụ bắt giữ không cần thiết xảy ra”
-
Nạn nhân và phản ứng pháp lý
- Lipps là bà ngoại có ba người con và năm người cháu, và khẳng định bà chưa từng đến North Dakota
- Trong thời gian bị giam, bà viết trên trang GoFundMe rằng mình đã trải qua “nỗi sợ hãi, kiệt sức và nhục nhã”
- Đội ngũ luật sư chỉ trích rằng “nhận diện khuôn mặt bằng AI đã bị dùng như con đường tắt thay cho điều tra cơ bản”, đồng thời đang xem xét khả năng khởi kiện dân quyền
-
Chỉ trích đối với công nghệ AI trong điều tra
- Các lực lượng cảnh sát trên khắp nước Mỹ đang nhanh chóng đưa công nghệ AI vào sử dụng, nhưng có ý kiến cho rằng vẫn thiếu bằng chứng về hiệu quả thực tế
- Giáo sư Ian Adams của Đại học South Carolina phân tích rằng “các sai sót liên quan đến AI phần lớn là vấn đề kết hợp giữa công nghệ và con người”
- Ông nhấn mạnh rằng “các điều tra viên không nên mù quáng tin vào kết quả thuật toán mà nhất định phải trải qua quy trình kiểm chứng của con người”
- Trước đây cũng từng xảy ra các vụ AI nhận diện sai lặp lại, như một hệ thống an ninh AI nhầm một gói snack rỗng là súng và khiến một học sinh bị bắt
-
Tình trạng hiện tại của vụ việc
- Cảnh sát Fargo cho biết vụ án “vẫn đang tiếp diễn và có thể khôi phục truy tố tùy theo kết quả điều tra bổ sung”
- Đội ngũ luật sư hoan nghênh cam kết cải thiện trong tương lai của cảnh sát, nhưng vẫn đánh giá rằng “việc thiếu các thủ tục điều tra cơ bản vẫn là vấn đề”
1 bình luận
Ý kiến trên Hacker News
Bất kể có phải AI hay không, điều duy nhất tôi muốn hỏi là — ai đã thực sự điều tra?
Không ai kiểm tra IP của cô ấy, nhân chứng, hay liệu cờ AI có đúng không. Họ chỉ nhìn dữ liệu rồi nói kiểu “bắt được rồi”
Điều còn kinh khủng hơn là đoạn cô ấy nói “tôi sẽ không bao giờ quay lại North Dakota nữa”. Bài học không phải là ‘đừng đến bang đó’, mà là phải đặt vấn đề với toàn bộ hệ thống
Trước đây cũng đã có những trường hợp như vụ Apple bắt nhầm người hay vụ một người đàn ông bị lôi đi trước mặt gia đình. Nếu chúng ta không phản kháng, ai cũng sẽ sống trong một thế giới nơi ‘bị coi là có tội rồi mới phải chứng minh mình vô tội’
Tôi cũng từng gọi 911 để báo sự việc nhưng rồi lại bị quy là người báo tin giả. Video bodycam đã bác bỏ điều đó rất rõ ràng, nhưng những người liên quan chỉ quan tâm đến việc ‘truy tố’. May mà bồi thẩm đoàn đã đưa ra phán quyết đúng
Ngay cả khi nói “phải kiểm chứng kết quả”, vẫn có người, kể cả trên HN, khăng khăng rằng “không cần làm vậy”
Những hệ thống như vậy chỉ nên được dùng để cung cấp đầu mối. Nhưng giờ chúng lại đang được dùng như trong phim truyền hình kiểu ‘AI nói ra sự thật’
Mọi người chỉ muốn rút ra bài học đơn giản là “đừng bao giờ đến North Dakota nữa”. Nhưng vấn đề thật sự là tỷ lệ dương tính giả và giới hạn mang tính cấu trúc của hệ thống pháp luật
Đây rõ ràng là phát biểu nhằm chuẩn bị cho một vụ kiện đòi bồi thường. Có lẽ cô ấy chỉ muốn quay lại cuộc sống bình thường mà thôi. Nói “hãy đứng lên chống lại hệ thống” thì thực tế là quá khó
Có khi tránh rắc rối bằng phần mềm của Musk hay Altman còn tốt hơn
Nhà cung cấp được dùng là Clearview AI. Theo chính sách chính thức, trừ một vài bang nơi luật pháp bắt buộc, không thể yêu cầu xóa dữ liệu
Vì vậy tôi bỗng thấy quan tâm đến S1422 Biometric Privacy Act của New York
Chỉ riêng tháng này tôi đã thấy nhiều vụ bắt nhầm vì nhận diện khuôn mặt. Đến mức giờ nó xảy ra thường xuyên rồi
Trong dân số 350 triệu người của Mỹ có rất nhiều người giống nhau, nên khoảnh khắc AI bị hỏi “ai trông giống người trong video này”, một cơ chế bắt người chỉ vì ‘trông giống’ sẽ xuất hiện
‘Trông giống’ có thể đạt mức nghi ngờ hợp lý, nhưng không đủ làm căn cứ bắt giữ (Probable Cause). Nó phải được kết hợp với bằng chứng khác
Vấn đề không nằm ở bản thân AI, mà ở cách tư duy coi người giống nhau là cùng một người
Điều gây sốc nhất là, thẩm phán đã phê chuẩn lệnh bắt chỉ dựa trên kết quả khớp của Clearview
Thẩm phán và quy trình cấp lệnh vốn là cơ chế để ngăn cảnh sát lạm quyền, nhưng ngay cả thứ đó cũng không hoạt động
Thảo luận trước đó ở đây
Vụ này là một bài báo thổi phồng AI
Hệ thống được dùng là FaceSketchID đã tồn tại từ năm 2014, tách biệt với AI hiện đại. Hệ thống chỉ đưa ra ứng viên, còn điều tra và truy tố là phần việc của con người
Câu hỏi thật sự là tại sao cô ấy lại bị giam suốt 4 tháng. Thông thường nguyên tắc là dẫn độ trong vòng 30 ngày, hay là vì cô ấy đang được tha tù có điều kiện nên mới như vậy?
Tôi ấn tượng với câu trích trong bài báo: “Đây không phải là vấn đề của riêng công nghệ, mà là vấn đề của công nghệ và con người”
Tôi không ngờ tiêu chuẩn để ban hành lệnh bắt lại thấp đến vậy. Đặc biệt là đến mức lôi người từ bang khác về
Ngay cả một hệ thống chính xác 99.999% cũng sẽ tạo ra 3.000 ca dương tính giả nếu kiểm tra 300 triệu người. Phần lớn trong số đó là người vô tội
Vì thế giám sát tự động trên quy mô lớn là nguy hiểm
Điều thực sự đáng sợ không phải là lỗi của AI, mà là không ai xác minh kết quả đó
Người ta điều tra cả các tố giác nặc danh, nhưng lại tin nguyên kết quả khớp của AI. Rốt cuộc họ đã tạo ra một công cụ để bỏ qua khâu điều tra