- Một thẩm phán tòa cấp dưới ở bang Andhra Pradesh, Ấn Độ bị phát hiện đã trích dẫn bản án giả do AI tạo ra trong một vụ tranh chấp bất động sản
- Tòa án Tối cao coi đây là vấn đề “đáng lo ngại ở cấp độ thể chế” và xem đây không chỉ là sai sót trong phán đoán mà là “hành vi sai phạm trong công vụ (misconduct)”
- Vị thẩm phán này khai rằng đây là lần đầu tiên ông dùng công cụ AI và đã tin các trích dẫn đó là thật, nhưng Tòa án Tối cao đã đình chỉ hiệu lực phán quyết của tòa cấp dưới
- Tòa án Cấp cao Ấn Độ khi đó công nhận thiện chí (good faith) của thẩm phán và giữ nguyên phán quyết, nhưng Tòa án Tối cao coi trọng vấn đề thủ tục trong việc sử dụng AI
- Vụ việc này cho thấy tác động của AI đối với quy trình tư pháp, và không chỉ ở Ấn Độ mà tại Mỹ và Anh cũng đã ghi nhận các trường hợp tương tự
Tổng quan vụ việc
- Tòa án Tối cao Ấn Độ đang điều tra vụ một thẩm phán tòa dân sự cấp dưới tại Vijayawada, bang Andhra Pradesh, đã ra phán quyết trong một vụ tranh chấp bất động sản bằng cách trích dẫn án lệ giả do AI tạo ra
- Sau khi bên bị đơn kháng cáo, vụ việc được chuyển lên Tòa án Tối cao
- Tòa án Tối cao xác định đây là “vấn đề ảnh hưởng trực tiếp đến độ tin cậy và tính toàn vẹn của quy trình xét xử”
- Vụ việc xảy ra vào tháng 8/2025, và thẩm phán đã trích dẫn 4 án lệ trước đó nhưng tất cả đều được xác nhận là tài liệu giả do AI tạo ra
Đánh giá của tòa cấp dưới và tòa cấp cao
- Bị đơn đã kháng cáo lên tòa cấp cao, chỉ ra rằng các án lệ được trích dẫn là giả
- Tòa cấp cao thừa nhận thẩm phán đã mắc “sai lầm thiện chí” và giữ nguyên bản án
- Tòa nêu rõ rằng “ngay cả khi các trích dẫn đó không tồn tại, nếu việc áp dụng pháp lý là đúng thì không có lý do để hủy phán quyết”
- Tòa cấp cao yêu cầu thẩm phán nộp báo cáo, và thẩm phán khai rằng đây là lần đầu tiên ông sử dụng công cụ AI và đã tin tưởng tài liệu được tạo tự động
- Ông giải thích rằng “không có ý định trích dẫn sai hoặc bóp méo nội dung, và sai sót là hệ quả của việc phụ thuộc vào nguồn tự động”
- Tòa cấp cao cũng bổ sung quan điểm rằng “cần sử dụng trí tuệ thực thay vì trí tuệ nhân tạo”
Phản ứng của Tòa án Tối cao
- Tòa án Tối cao ngay lập tức đình chỉ (stay) phán quyết của tòa cấp dưới và xác định việc sử dụng AI không phải lỗi đơn thuần mà là “hành vi sai phạm trong công vụ”
- Tòa nhấn mạnh: “Vấn đề trong vụ này không nằm ở nội dung phán quyết mà ở chính quy trình xét xử và quá trình đưa ra nhận định”
- Tòa án Tối cao đã thông báo cho Bộ trưởng Tư pháp, cố vấn pháp lý và Đoàn luật sư Ấn Độ (Bar Council of India), đồng thời quyết định tiếp tục xem xét vụ việc
Xung đột giữa AI và quy trình tư pháp
- Gần đây, Tòa án Tối cao Ấn Độ cũng bày tỏ lo ngại về các trường hợp luật sư sử dụng công cụ AI để soạn đơn kiến nghị
- Theo hãng tin pháp lý LiveLaw, Tòa án Tối cao cho biết “những hành vi như vậy hoàn toàn không thể được biện minh”
- Không chỉ ở Ấn Độ, các trường hợp sai sót trong phán quyết do sử dụng AI cũng đã được ghi nhận tại Mỹ và Anh
- Tháng 10/2025, hai thẩm phán liên bang Mỹ bị phát hiện đã soạn sai bản án do dùng AI
- Tháng 6/2025, Tòa án Cấp cao Anh đã phát đi cảnh báo cấm sử dụng án lệ do AI tạo ra đối với các luật sư
Ứng phó của ngành tư pháp Ấn Độ với AI
- Tòa án Tối cao Ấn Độ đã công bố sách trắng (white paper) về việc sử dụng AI trong ngành tư pháp vào năm 2025
- Sách trắng bao gồm hướng dẫn sử dụng AI và các thông lệ tốt nhất
- Tòa án Tối cao nhấn mạnh tầm quan trọng của giám sát của con người (human oversight) và duy trì các cơ chế an toàn ở cấp độ thể chế
- Vụ việc này cho thấy hệ thống tư pháp Ấn Độ đang trong quá trình tìm kiếm sự cân bằng giữa việc áp dụng AI và kiểm soát AI
1 bình luận
Ý kiến trên Hacker News
Có vẻ như nhận định rằng AI sẽ thay thế con người là hơi phóng đại
Rốt cuộc vẫn cần một người chịu trách nhiệm, và khi có sự cố thì ai đó vẫn phải bị sa thải hoặc vào tù
AI có thể nâng cao năng suất, nhưng một hệ thống hoàn toàn không có con người rất dễ dẫn tới thảm họa hoặc kiện tụng
Vì vậy các công ty đang không thấy được ROI như kỳ vọng
Trên thực tế, phần lớn các trường hợp sa thải với lý do “nhờ AI mà năng suất tăng” chỉ đơn giản là cái cớ để che giấu kết quả yếu kém
Nếu dùng AI chỉ như một công cụ thì trách nhiệm thuộc về người dùng; còn nếu coi AI như “công việc của người khác” thì đó là ủy quyền cho người không đủ tư cách, và cuối cùng vẫn là lỗi của người dùng
Thế nhưng tôi hầu như chưa từng thấy ai phải chịu trách nhiệm vì chuyện đó
Văn bản do LLM tạo ra nên được đánh dấu bằng một khối Unicode riêng để làm rõ đó là nội dung do AI sinh ra
Việc che giấu hoặc chỉnh sửa điều đó chẳng khác nào bác sĩ phẫu thuật mà không rửa tay
Người ta nói về “kiểm soát và cân bằng”, nhưng ngành tư pháp lại là ngoại lệ
Báo cáo của MIT cũng nói rằng phần lớn nhân viên dùng AI bằng tài khoản cá nhân chứ không phải tài khoản công ty
Cái cớ “sai sót phát sinh do phụ thuộc vào nguồn tự động” là không thể chấp nhận
Dù là ngành nghề nào, khi tự động hóa bằng LLM thì trách nhiệm vẫn thuộc về chuyên gia
Đổ lỗi cho công cụ chỉ vì không hiểu công cụ thì về mặt pháp lý cũng không hợp lý
Giống thời kỳ kỹ sư có chứng chỉ chỉ ký tên cho công việc thuê ngoài, người ta cứ cố làm rẻ hơn và nhanh hơn đến mức các cơ chế an toàn biến mất
LLM không phải nguyên nhân mà chỉ phơi bày thực tế sa sút đó
Tôi cũng thích AI, nhưng cần sử dụng có trách nhiệm
Sai sót và cố ý phải được xử lý khác nhau về mặt pháp lý
Nếu chuyện này cứ lặp lại thì phải điều chỉnh chính công cụ
Dù có nói người dùng lần nào cũng làm sai, nếu cùng một vấn đề cứ tái diễn ở cấp hệ thống thì cuối cùng đó là lỗi thiết kế công cụ
Không biết điều đó chỉ có thể là lười biếng hoặc kém năng lực
Tôi tự hỏi đến bao giờ các luật sư mới nhận ra rằng phải tự mình kiểm chứng những gì LLM nói
Giống xe tự lái, mô hình “chỉ can thiệp khi cần” chắc chắn sẽ thất bại vì giới hạn chú ý của con người
Cách tiếp cận kiểu “con người phải kiểm tra kỹ hơn” thực tế không vận hành được
Đó mới là điều nguy hiểm nhất
Đây không chỉ là vấn đề của luật sư
Câu đại ý rằng Tòa án Tối cao khuyến cáo hãy “dùng trí tuệ thật thay vì trí tuệ nhân tạo” thật ấn tượng
Cuối cùng có lẽ sẽ ngày càng nhiều bài báo đầy trích dẫn giả
Nếu AI học từ những tài liệu như vậy, sẽ có nguy cơ Internet chứa thông tin ảo giác nhiều hơn thông tin thật
Ở Mỹ và Anh cũng gặp vấn đề tương tự
Luật sư yếu về công nghệ nên khi tự sửa tài liệu do chatbot tạo ra thì lỗi là điều khó tránh khỏi
Các trường hợp liên quan cũng được đề cập trong báo cáo của Doughty Street
Bản thân hệ thống pháp lý tạo ra quá nhiều câu chữ lặp lại không cần thiết (boilerplate)
Ngay cả luật sư cũng không đọc hết mà chỉ lướt phần cần thiết
Việc dùng AI một cách vô trách nhiệm là vấn đề, nhưng đây cũng là cơ hội để đơn giản hóa cấu trúc tài liệu pháp lý
Luật không phải mã nguồn, nhưng cấu trúc quá phức tạp thì rõ ràng vẫn có chỗ để cải thiện
Nếu đơn giản hóa quá mức thì khoảng trống diễn giải lại tăng lên, dẫn đến nhiều tranh chấp hơn
Legalese rốt cuộc là cơ chế để giảm bớt nghi ngờ
Đó là một cấu trúc chỉ tích thêm phần trang trí mà không có sự đơn giản hóa tận gốc
Vấn đề này sẽ lớn dần trong mọi ngành
Tôi đang nghiên cứu đối sách trong lĩnh vực fintech, và cách tiếp cận của Resemble AI là thực tế nhất
Trọng tâm không chỉ là văn bản mà còn là phát hiện sao chép giọng nói AI và watermarking
Thực tế cứ phải chạy theo để đối phó như thế không hề dễ dàng
Cái cớ “sai sót do dựa vào nguồn tự động” cũng giống như nói
“Khẩu súng là súng tự động nên việc có người chết không phải lỗi của tôi”
Dự đoán token tiếp theo và ảo giác không phải là lỗi vặt đơn thuần
Việc bỏ mặc những vấn đề này trong các lĩnh vực mà độ tin cậy và tính toàn vẹn là quan trọng là cực kỳ nguy hiểm