1 điểm bởi GN⁺ 2026-03-05 | 1 bình luận | Chia sẻ qua WhatsApp
  • Một thẩm phán tòa cấp dưới ở bang Andhra Pradesh, Ấn Độ bị phát hiện đã trích dẫn bản án giả do AI tạo ra trong một vụ tranh chấp bất động sản
  • Tòa án Tối cao coi đây là vấn đề “đáng lo ngại ở cấp độ thể chế” và xem đây không chỉ là sai sót trong phán đoán mà là “hành vi sai phạm trong công vụ (misconduct)”
  • Vị thẩm phán này khai rằng đây là lần đầu tiên ông dùng công cụ AI và đã tin các trích dẫn đó là thật, nhưng Tòa án Tối cao đã đình chỉ hiệu lực phán quyết của tòa cấp dưới
  • Tòa án Cấp cao Ấn Độ khi đó công nhận thiện chí (good faith) của thẩm phán và giữ nguyên phán quyết, nhưng Tòa án Tối cao coi trọng vấn đề thủ tục trong việc sử dụng AI
  • Vụ việc này cho thấy tác động của AI đối với quy trình tư pháp, và không chỉ ở Ấn Độ mà tại Mỹ và Anh cũng đã ghi nhận các trường hợp tương tự

Tổng quan vụ việc

  • Tòa án Tối cao Ấn Độ đang điều tra vụ một thẩm phán tòa dân sự cấp dưới tại Vijayawada, bang Andhra Pradesh, đã ra phán quyết trong một vụ tranh chấp bất động sản bằng cách trích dẫn án lệ giả do AI tạo ra
    • Sau khi bên bị đơn kháng cáo, vụ việc được chuyển lên Tòa án Tối cao
    • Tòa án Tối cao xác định đây là “vấn đề ảnh hưởng trực tiếp đến độ tin cậy và tính toàn vẹn của quy trình xét xử
  • Vụ việc xảy ra vào tháng 8/2025, và thẩm phán đã trích dẫn 4 án lệ trước đó nhưng tất cả đều được xác nhận là tài liệu giả do AI tạo ra

Đánh giá của tòa cấp dưới và tòa cấp cao

  • Bị đơn đã kháng cáo lên tòa cấp cao, chỉ ra rằng các án lệ được trích dẫn là giả
    • Tòa cấp cao thừa nhận thẩm phán đã mắc “sai lầm thiện chí” và giữ nguyên bản án
    • Tòa nêu rõ rằng “ngay cả khi các trích dẫn đó không tồn tại, nếu việc áp dụng pháp lý là đúng thì không có lý do để hủy phán quyết”
  • Tòa cấp cao yêu cầu thẩm phán nộp báo cáo, và thẩm phán khai rằng đây là lần đầu tiên ông sử dụng công cụ AI và đã tin tưởng tài liệu được tạo tự động
    • Ông giải thích rằng “không có ý định trích dẫn sai hoặc bóp méo nội dung, và sai sót là hệ quả của việc phụ thuộc vào nguồn tự động”
  • Tòa cấp cao cũng bổ sung quan điểm rằng “cần sử dụng trí tuệ thực thay vì trí tuệ nhân tạo

Phản ứng của Tòa án Tối cao

  • Tòa án Tối cao ngay lập tức đình chỉ (stay) phán quyết của tòa cấp dưới và xác định việc sử dụng AI không phải lỗi đơn thuần mà là “hành vi sai phạm trong công vụ”
    • Tòa nhấn mạnh: “Vấn đề trong vụ này không nằm ở nội dung phán quyết mà ở chính quy trình xét xử và quá trình đưa ra nhận định
  • Tòa án Tối cao đã thông báo cho Bộ trưởng Tư pháp, cố vấn pháp lý và Đoàn luật sư Ấn Độ (Bar Council of India), đồng thời quyết định tiếp tục xem xét vụ việc

Xung đột giữa AI và quy trình tư pháp

  • Gần đây, Tòa án Tối cao Ấn Độ cũng bày tỏ lo ngại về các trường hợp luật sư sử dụng công cụ AI để soạn đơn kiến nghị
    • Theo hãng tin pháp lý LiveLaw, Tòa án Tối cao cho biết “những hành vi như vậy hoàn toàn không thể được biện minh”
  • Không chỉ ở Ấn Độ, các trường hợp sai sót trong phán quyết do sử dụng AI cũng đã được ghi nhận tại Mỹ và Anh
    • Tháng 10/2025, hai thẩm phán liên bang Mỹ bị phát hiện đã soạn sai bản án do dùng AI
    • Tháng 6/2025, Tòa án Cấp cao Anh đã phát đi cảnh báo cấm sử dụng án lệ do AI tạo ra đối với các luật sư

Ứng phó của ngành tư pháp Ấn Độ với AI

  • Tòa án Tối cao Ấn Độ đã công bố sách trắng (white paper) về việc sử dụng AI trong ngành tư pháp vào năm 2025
    • Sách trắng bao gồm hướng dẫn sử dụng AI và các thông lệ tốt nhất
  • Tòa án Tối cao nhấn mạnh tầm quan trọng của giám sát của con người (human oversight)duy trì các cơ chế an toàn ở cấp độ thể chế
  • Vụ việc này cho thấy hệ thống tư pháp Ấn Độ đang trong quá trình tìm kiếm sự cân bằng giữa việc áp dụng AI và kiểm soát AI

1 bình luận

 
GN⁺ 2026-03-05
Ý kiến trên Hacker News
  • Có vẻ như nhận định rằng AI sẽ thay thế con người là hơi phóng đại
    Rốt cuộc vẫn cần một người chịu trách nhiệm, và khi có sự cố thì ai đó vẫn phải bị sa thải hoặc vào tù
    AI có thể nâng cao năng suất, nhưng một hệ thống hoàn toàn không có con người rất dễ dẫn tới thảm họa hoặc kiện tụng
    Vì vậy các công ty đang không thấy được ROI như kỳ vọng
    Trên thực tế, phần lớn các trường hợp sa thải với lý do “nhờ AI mà năng suất tăng” chỉ đơn giản là cái cớ để che giấu kết quả yếu kém

    • Với những nghề đòi hỏi chứng chỉ pháp lý như luật sư hay bác sĩ thì điều này còn rõ ràng hơn
      Nếu dùng AI chỉ như một công cụ thì trách nhiệm thuộc về người dùng; còn nếu coi AI như “công việc của người khác” thì đó là ủy quyền cho người không đủ tư cách, và cuối cùng vẫn là lỗi của người dùng
    • Hồi nhỏ tôi thường nghe câu “máy tính bị sập”, nhưng thực ra đó là do con người lập trình sai
      Thế nhưng tôi hầu như chưa từng thấy ai phải chịu trách nhiệm vì chuyện đó
    • Việc dùng AI cũng cần có khái niệm vệ sinh
      Văn bản do LLM tạo ra nên được đánh dấu bằng một khối Unicode riêng để làm rõ đó là nội dung do AI sinh ra
      Việc che giấu hoặc chỉnh sửa điều đó chẳng khác nào bác sĩ phẫu thuật mà không rửa tay
    • Thực ra các thẩm phán cũng thường không phải chịu trách nhiệm cho những phán quyết sai
      Người ta nói về “kiểm soát và cân bằng”, nhưng ngành tư pháp lại là ngoại lệ
    • Lý do các công ty không thấy ROI từ AI có thể là vì nhân viên dùng AI bằng tài khoản cá nhân, rồi giữ phần tăng hiệu suất đó cho riêng mình
      Báo cáo của MIT cũng nói rằng phần lớn nhân viên dùng AI bằng tài khoản cá nhân chứ không phải tài khoản công ty
  • Cái cớ “sai sót phát sinh do phụ thuộc vào nguồn tự động” là không thể chấp nhận
    Dù là ngành nghề nào, khi tự động hóa bằng LLM thì trách nhiệm vẫn thuộc về chuyên gia
    Đổ lỗi cho công cụ chỉ vì không hiểu công cụ thì về mặt pháp lý cũng không hợp lý

    • Dùng LLM chỉ là phiên bản mới nhất của kiểu thuê ngoài giá rẻ
      Giống thời kỳ kỹ sư có chứng chỉ chỉ ký tên cho công việc thuê ngoài, người ta cứ cố làm rẻ hơn và nhanh hơn đến mức các cơ chế an toàn biến mất
      LLM không phải nguyên nhân mà chỉ phơi bày thực tế sa sút đó
      Tôi cũng thích AI, nhưng cần sử dụng có trách nhiệm
    • Tính cố ý rất quan trọng
      Sai sót và cố ý phải được xử lý khác nhau về mặt pháp lý
    • Chỉ đổ lỗi cho con người thì không giải quyết được gì
      Nếu chuyện này cứ lặp lại thì phải điều chỉnh chính công cụ
      Dù có nói người dùng lần nào cũng làm sai, nếu cùng một vấn đề cứ tái diễn ở cấp hệ thống thì cuối cùng đó là lỗi thiết kế công cụ
    • Vấn đề ảo giác (hallucination) của LLM đã quá nổi tiếng rồi
      Không biết điều đó chỉ có thể là lười biếng hoặc kém năng lực
  • Tôi tự hỏi đến bao giờ các luật sư mới nhận ra rằng phải tự mình kiểm chứng những gì LLM nói

    • Phần lớn mọi người rốt cuộc sẽ không kiểm chứng
      Giống xe tự lái, mô hình “chỉ can thiệp khi cần” chắc chắn sẽ thất bại vì giới hạn chú ý của con người
      Cách tiếp cận kiểu “con người phải kiểm tra kỹ hơn” thực tế không vận hành được
    • Mọi người vô thức tin LLM vì giọng điệu nói năng đầy tự tin của nó
      Đó mới là điều nguy hiểm nhất
    • Thực ra LLM giống như một tấm gương phản chiếu xã hội đã xuống cấp đến mức nào
    • Những vụ như thế này xuất hiện trên tin tức có lẽ chỉ là một phần nhỏ; trên thực tế, rất có thể ai cũng đang mắc những sai lầm tương tự
    • Tuần này tôi thử lần theo các trích dẫn trong bài báo, thì 25% là bịa hoàn toàn, còn một nửa của phần còn lại cũng sai
      Đây không chỉ là vấn đề của luật sư
  • Câu đại ý rằng Tòa án Tối cao khuyến cáo hãy “dùng trí tuệ thật thay vì trí tuệ nhân tạo” thật ấn tượng

  • Cuối cùng có lẽ sẽ ngày càng nhiều bài báo đầy trích dẫn giả
    Nếu AI học từ những tài liệu như vậy, sẽ có nguy cơ Internet chứa thông tin ảo giác nhiều hơn thông tin thật

  • Ở Mỹ và Anh cũng gặp vấn đề tương tự
    Luật sư yếu về công nghệ nên khi tự sửa tài liệu do chatbot tạo ra thì lỗi là điều khó tránh khỏi
    Các trường hợp liên quan cũng được đề cập trong báo cáo của Doughty Street

  • Bản thân hệ thống pháp lý tạo ra quá nhiều câu chữ lặp lại không cần thiết (boilerplate)
    Ngay cả luật sư cũng không đọc hết mà chỉ lướt phần cần thiết
    Việc dùng AI một cách vô trách nhiệm là vấn đề, nhưng đây cũng là cơ hội để đơn giản hóa cấu trúc tài liệu pháp lý
    Luật không phải mã nguồn, nhưng cấu trúc quá phức tạp thì rõ ràng vẫn có chỗ để cải thiện

    • Ngôn ngữ pháp lý cần cách diễn đạt chính xác để loại bỏ sự mơ hồ
      Nếu đơn giản hóa quá mức thì khoảng trống diễn giải lại tăng lên, dẫn đến nhiều tranh chấp hơn
      Legalese rốt cuộc là cơ chế để giảm bớt nghi ngờ
    • Tài liệu pháp lý giống như mã nguồn bị chồng thêm lớp này đến lớp khác
      Đó là một cấu trúc chỉ tích thêm phần trang trí mà không có sự đơn giản hóa tận gốc
  • Vấn đề này sẽ lớn dần trong mọi ngành
    Tôi đang nghiên cứu đối sách trong lĩnh vực fintech, và cách tiếp cận của Resemble AI là thực tế nhất
    Trọng tâm không chỉ là văn bản mà còn là phát hiện sao chép giọng nói AI và watermarking
    Thực tế cứ phải chạy theo để đối phó như thế không hề dễ dàng

  • Cái cớ “sai sót do dựa vào nguồn tự động” cũng giống như nói
    “Khẩu súng là súng tự động nên việc có người chết không phải lỗi của tôi”

  • Dự đoán token tiếp theoảo giác không phải là lỗi vặt đơn thuần
    Việc bỏ mặc những vấn đề này trong các lĩnh vực mà độ tin cậy và tính toàn vẹn là quan trọng là cực kỳ nguy hiểm