1 điểm bởi GN⁺ 23 ngày trước | 1 bình luận | Chia sẻ qua WhatsApp
  • Angela Lipps (50 tuổi) ở Tennessee bị bắt vì bị công nghệ nhận diện khuôn mặt bằng AI xác định là nghi phạm trong một vụ gian lận ngân hàng ở North Dakota, nơi bà chưa từng đặt chân tới, và bị giam giữ hơn 5 tháng
  • Hệ thống Clearview AI đã nhận diện nhầm một người giống bà là Lipps, và cảnh sát Fargo đã dựa vào đó để xin lệnh bắt
  • Sau đó, hồ sơ ngân hàng chứng minh Lipps đang ở Tennessee vào thời điểm xảy ra vụ việc được xác nhận, cáo buộc bị bác bỏ vì vô tội và bà được trả tự do
  • Cảnh sát Fargo thừa nhận lỗi trong việc truyền đạt thông tin AI và không nộp video giám sát, đồng thời cho biết sẽ siết chặt quy trình sử dụng dữ liệu AI
  • Vụ việc này được xem là trường hợp cho thấy rõ vấn đề về độ tin cậy của công nghệ điều tra bằng AI và sự cần thiết của quy trình kiểm chứng bởi con người

Vụ bắt oan một phụ nữ Tennessee do lỗi nhận diện khuôn mặt bằng AI

  • Angela Lipps (50 tuổi), cư dân bang Tennessee, bị bắt vì công nghệ nhận diện khuôn mặt bằng AI xác định bà là nghi phạm trong một vụ gian lận ngân hàng ở bang North Dakota, nơi bà chưa từng đến, và bị giam giữ hơn 5 tháng
    • Cảnh sát Fargo thừa nhận đã có “một vài sai sót” trong quá trình xử lý vụ việc, nhưng không đưa ra lời xin lỗi chính thức
    • Vụ bắt diễn ra vào ngày 14/7 tại nhà riêng của Lipps ở Tennessee, trong khi lệnh bắt do Fargo ban hành đã tồn tại từ vài tuần trước đó
  • Diễn biến vụ việc

    • Trong quá trình điều tra vụ gian lận ngân hàng xảy ra tại khu vực Fargo, cảnh sát đã dùng “công nghệ nhận diện khuôn mặt của cơ quan phối hợp” để xác định nghi phạm
    • Cảnh sát West Fargo đã sử dụng hệ thống Clearview AI, và hệ thống này đã đưa vào báo cáo một người được nhận diện là giống Lipps
    • Cảnh sát Fargo dựa trên thông tin đó để coi Lipps là nghi phạm và nộp báo cáo cho Văn phòng công tố Cass County
    • Sau đó, cảnh sát Fargo thông báo việc West Fargo sử dụng hệ thống AI không được báo cáo lên cấp trên và hiện đã bị cấm sử dụng
  • Quá trình giam giữ và trả tự do

    • Ngày 1/7, một thẩm phán North Dakota ban hành lệnh bắt có hiệu lực dẫn độ trên toàn quốc
    • Lipps bị bắt ngày 14/7 và bị giam hơn 3 tháng trong nhà tù ở Tennessee trước khi bị dẫn độ tới North Dakota
    • Sau khi bị dẫn độ, luật sư của bà đã thu thập được hồ sơ ngân hàng chứng minh Lipps đang ở Tennessee vào thời điểm xảy ra vụ án
    • Ngày 23/12, cảnh sát Fargo, công tố bang và thẩm phán thống nhất bác bỏ cáo buộc vì vô tội, và Lipps được trả tự do vào ngày 24/12
    • Đội ngũ luật sư chỉ trích rằng “dù đã có bằng chứng miễn trừ trách nhiệm rõ ràng, việc giam giữ kéo dài vẫn bị duy trì một cách không cần thiết”
  • Kết quả điều tra và phản ứng của cảnh sát Fargo

    • Cảnh sát chỉ ra các sai sót chính là nhầm lẫn trong quá trình truyền đạt thông tin từ hệ thống AIkhông nộp video giám sát
    • Cảnh sát Fargo cho biết từ nay sẽ không sử dụng dữ liệu AI từ West Fargo, mà sẽ hợp tác với các trung tâm thông tin cấp bang và liên bang
    • Quy trình cũng được siết chặt để mọi kết quả nhận diện khuôn mặt đều phải được báo cáo hàng tháng cho giám đốc cục điều tra
    • Sự thiếu sót trong hệ thống thông báo người bị bắt giữa Cass County và cơ quan công tố bang cũng được chỉ ra là vấn đề, và hiện đang được xem xét phương án cải thiện
    • Cảnh sát cho biết đang xem xét liệu có kỷ luật các điều tra viên liên quan hay không, đồng thời nói rằng “không ai muốn một vụ bắt giữ không cần thiết xảy ra”
  • Nạn nhân và phản ứng pháp lý

    • Lipps là bà ngoại có ba người con và năm người cháu, và khẳng định bà chưa từng đến North Dakota
    • Trong thời gian bị giam, bà viết trên trang GoFundMe rằng mình đã trải qua “nỗi sợ hãi, kiệt sức và nhục nhã”
    • Đội ngũ luật sư chỉ trích rằng “nhận diện khuôn mặt bằng AI đã bị dùng như con đường tắt thay cho điều tra cơ bản”, đồng thời đang xem xét khả năng khởi kiện dân quyền
  • Chỉ trích đối với công nghệ AI trong điều tra

    • Các lực lượng cảnh sát trên khắp nước Mỹ đang nhanh chóng đưa công nghệ AI vào sử dụng, nhưng có ý kiến cho rằng vẫn thiếu bằng chứng về hiệu quả thực tế
    • Giáo sư Ian Adams của Đại học South Carolina phân tích rằng “các sai sót liên quan đến AI phần lớn là vấn đề kết hợp giữa công nghệ và con người
    • Ông nhấn mạnh rằng “các điều tra viên không nên mù quáng tin vào kết quả thuật toán mà nhất định phải trải qua quy trình kiểm chứng của con người
    • Trước đây cũng từng xảy ra các vụ AI nhận diện sai lặp lại, như một hệ thống an ninh AI nhầm một gói snack rỗng là súng và khiến một học sinh bị bắt
  • Tình trạng hiện tại của vụ việc

    • Cảnh sát Fargo cho biết vụ án “vẫn đang tiếp diễn và có thể khôi phục truy tố tùy theo kết quả điều tra bổ sung”
    • Đội ngũ luật sư hoan nghênh cam kết cải thiện trong tương lai của cảnh sát, nhưng vẫn đánh giá rằng “việc thiếu các thủ tục điều tra cơ bản vẫn là vấn đề”

1 bình luận

 
Ý kiến trên Hacker News
  • Bất kể có phải AI hay không, điều duy nhất tôi muốn hỏi là — ai đã thực sự điều tra?
    Không ai kiểm tra IP của cô ấy, nhân chứng, hay liệu cờ AI có đúng không. Họ chỉ nhìn dữ liệu rồi nói kiểu “bắt được rồi”
    Điều còn kinh khủng hơn là đoạn cô ấy nói “tôi sẽ không bao giờ quay lại North Dakota nữa”. Bài học không phải là ‘đừng đến bang đó’, mà là phải đặt vấn đề với toàn bộ hệ thống
    Trước đây cũng đã có những trường hợp như vụ Apple bắt nhầm người hay vụ một người đàn ông bị lôi đi trước mặt gia đình. Nếu chúng ta không phản kháng, ai cũng sẽ sống trong một thế giới nơi ‘bị coi là có tội rồi mới phải chứng minh mình vô tội’

    • Vấn đề của hệ thống pháp luật là không có động lực để tìm ra sự thật
      Tôi cũng từng gọi 911 để báo sự việc nhưng rồi lại bị quy là người báo tin giả. Video bodycam đã bác bỏ điều đó rất rõ ràng, nhưng những người liên quan chỉ quan tâm đến việc ‘truy tố’. May mà bồi thẩm đoàn đã đưa ra phán quyết đúng
    • Tất nhiên là cần điều tra. Nhưng vấn đề lớn hơn là người ta tin vào ảo tưởng rằng AI không thể sai
      Ngay cả khi nói “phải kiểm chứng kết quả”, vẫn có người, kể cả trên HN, khăng khăng rằng “không cần làm vậy”
    • Chúng ta đã học được bài học này từ DNA và dấu vân tay. Giam người chỉ vì ‘máy tính nói là khớp’ là điều nguy hiểm
      Những hệ thống như vậy chỉ nên được dùng để cung cấp đầu mối. Nhưng giờ chúng lại đang được dùng như trong phim truyền hình kiểu ‘AI nói ra sự thật’
      Mọi người chỉ muốn rút ra bài học đơn giản là “đừng bao giờ đến North Dakota nữa”. Nhưng vấn đề thật sự là tỷ lệ dương tính giả và giới hạn mang tính cấu trúc của hệ thống pháp luật
    • Bạn đã bỏ sót một điểm. Các luật sư nói rằng “chấn thương tâm lý, mất tự do và tổn hại danh dự không dễ hồi phục”
      Đây rõ ràng là phát biểu nhằm chuẩn bị cho một vụ kiện đòi bồi thường. Có lẽ cô ấy chỉ muốn quay lại cuộc sống bình thường mà thôi. Nói “hãy đứng lên chống lại hệ thống” thì thực tế là quá khó
    • Tôi không phải chuyên gia pháp lý, nhưng ở Mỹ, việc thẩm vấn khi đang bị giam giữ sẽ chịu sự chi phối của quyền Miranda
      Có khi tránh rắc rối bằng phần mềm của Musk hay Altman còn tốt hơn
  • Nhà cung cấp được dùng là Clearview AI. Theo chính sách chính thức, trừ một vài bang nơi luật pháp bắt buộc, không thể yêu cầu xóa dữ liệu
    Vì vậy tôi bỗng thấy quan tâm đến S1422 Biometric Privacy Act của New York

    • Với cư dân Illinois, theo chính sách thì việc thu thập và lưu giữ dữ liệu sinh trắc học là bắt buộc. Tuy vậy, cơ quan thực thi pháp luật nhiều khả năng sẽ được miễn trừ thông qua các ngoại lệ như lệnh hành chính
    • Liên quan đến việc này cũng có trường hợp đơn tố cáo hình sự về nhận diện khuôn mặt của noyb
    • Muốn yêu cầu xóa thì phải nộp ảnh của chính mình, nhưng tôi không muốn tin một công ty có liên hệ với Peter Thiel
    • Cuối cùng, hiện giờ không còn cách nào ngoài việc liên tục yêu cầu xóa. Mà kể cả có bị xóa thì sau này dữ liệu vẫn có thể lại bị đưa vào cơ sở dữ liệu
  • Chỉ riêng tháng này tôi đã thấy nhiều vụ bắt nhầm vì nhận diện khuôn mặt. Đến mức giờ nó xảy ra thường xuyên rồi
    Trong dân số 350 triệu người của Mỹ có rất nhiều người giống nhau, nên khoảnh khắc AI bị hỏi “ai trông giống người trong video này”, một cơ chế bắt người chỉ vì ‘trông giống’ sẽ xuất hiện
    ‘Trông giống’ có thể đạt mức nghi ngờ hợp lý, nhưng không đủ làm căn cứ bắt giữ (Probable Cause). Nó phải được kết hợp với bằng chứng khác
    Vấn đề không nằm ở bản thân AI, mà ở cách tư duy coi người giống nhau là cùng một người

  • Điều gây sốc nhất là, thẩm phán đã phê chuẩn lệnh bắt chỉ dựa trên kết quả khớp của Clearview
    Thẩm phán và quy trình cấp lệnh vốn là cơ chế để ngăn cảnh sát lạm quyền, nhưng ngay cả thứ đó cũng không hoạt động

  • Thảo luận trước đó ở đây

  • Vụ này là một bài báo thổi phồng AI
    Hệ thống được dùng là FaceSketchID đã tồn tại từ năm 2014, tách biệt với AI hiện đại. Hệ thống chỉ đưa ra ứng viên, còn điều tra và truy tố là phần việc của con người
    Câu hỏi thật sự là tại sao cô ấy lại bị giam suốt 4 tháng. Thông thường nguyên tắc là dẫn độ trong vòng 30 ngày, hay là vì cô ấy đang được tha tù có điều kiện nên mới như vậy?

    • Ở Mỹ, ngay cả khi người có quyền lực vi phạm thủ tục thì hầu như cũng không có hình phạt thực chất. Cùng lắm sau đó chỉ là lấy tiền thuế để bồi thường
    • Nếu tranh chấp thủ tục dẫn độ thì thời gian giam giữ có thể kéo dài từ 30 ngày lên tối đa 90 ngày. Hơn nữa, vấn đề nhận nhầm danh tính cũng không thể được tranh luận trong phiên điều trần dẫn độ
    • Có lẽ cô ấy đã bị giam riêng vì vi phạm điều kiện tha tù
    • Điều tra phải do con người thực hiện, nhưng vấn đề là những sai lầm đầy tự tin của AI làm tê liệt phán đoán của con người. Con người rất dễ bị đánh lừa bởi sự chắc chắn
  • Tôi ấn tượng với câu trích trong bài báo: “Đây không phải là vấn đề của riêng công nghệ, mà là vấn đề của công nghệ và con người

    • Dạo này cách diễn đạt kiểu “It’s not just X, it’s X and Y” nghe giống mẫu câu do AI viết. Nếu AI đã viết bài báo đó, thì câu đó cũng có thể là một trích dẫn bị ảo giác
  • Tôi không ngờ tiêu chuẩn để ban hành lệnh bắt lại thấp đến vậy. Đặc biệt là đến mức lôi người từ bang khác về

    • Đây là một ví dụ điển hình của ngụy biện tỷ lệ gốc (Base Rate Fallacy)
      Ngay cả một hệ thống chính xác 99.999% cũng sẽ tạo ra 3.000 ca dương tính giả nếu kiểm tra 300 triệu người. Phần lớn trong số đó là người vô tội
      Vì thế giám sát tự động trên quy mô lớn là nguy hiểm
  • Điều thực sự đáng sợ không phải là lỗi của AI, mà là không ai xác minh kết quả đó
    Người ta điều tra cả các tố giác nặc danh, nhưng lại tin nguyên kết quả khớp của AI. Rốt cuộc họ đã tạo ra một công cụ để bỏ qua khâu điều tra