2 điểm bởi GN⁺ 12 giờ trước | 1 bình luận | Chia sẻ qua WhatsApp
  • Dữ liệu nội bộ bị rò rỉ cho thấy Tesla biết về hàng nghìn báo cáo tai nạn nghiêm trọng và lỗi liên quan đến tính năng tự lái nhưng vẫn tiếp tục thử nghiệm trên đường công cộng
  • Đã xác nhận có hơn 2.400 khiếu nại tăng tốc ngoài ý muốnhơn 1.000 vụ tai nạn liên quan đến Autopilot, với nhiều mục được đánh dấu là chưa được giải quyết
  • Một số xe cho thấy hiện tượng tăng tốc đột ngột và phanh gấp không rõ lý do, còn việc nhận diện sai môi trường xung quanh có thể dẫn tới va chạm chí mạng khi chạy tốc độ cao
  • Trong vụ kiện về tai nạn chết người, dữ liệu xe đã bị xóa được khôi phục, và xác nhận rằng vào thời điểm tai nạn xe đã phát hiện chướng ngại vật nhưng không thực hiện thao tác né tránh, chỉ phát cảnh báo âm thanh ngay trước va chạm
  • Bồi thẩm đoàn Mỹ đã yêu cầu Tesla bồi thường hơn 243 triệu USD, đồng thời các cuộc điều tra của Bộ Tư pháp và cơ quan an toàn giao thông đường bộ tiếp tục làm dấy lên tranh cãi về trách nhiệm khi thử nghiệm xe tự lái trên đường công cộng

Tổng quan

  • Dựa trên dữ liệu nội bộ bị rò rỉ, ngày càng rõ khả năng Tesla đã che giấu hàng nghìn báo cáo về tai nạn nghiêm trọng và lỗi liên quan đến tính năng tự lái trong khi vẫn tiếp tục thử nghiệm trên đường công cộng
    • Theo tài liệu rò rỉ, Tesla đã biết về những lỗi nghiêm trọng mang tính chí mạng của hệ thống từ nhiều năm trước
    • Trong phán quyết đầu tiên của bồi thẩm đoàn, Tesla bị tuyên phải bồi thường hơn 243 triệu USD cho các nạn nhân của vụ tai nạn chết người
  • Trái với kỳ vọng mà xe tự lái từng hứa hẹn, với một số người dùng nó đã trở thành ác mộng, làm dấy lên chỉ trích rằng hệ thống lái xe dựa trên AI đã bị vội vàng tung ra thị trường khi chưa được kiểm chứng đầy đủ
    • Bài báo nhắc tới kết quả điều tra cho rằng Elon Musk và Tesla đã sử dụng đường sá như một bãi thử nghiệm
  • Thiệt hại từ các vụ tai nạn nghiêm trọng không chỉ dừng ở tài xế và hành khách mà còn khiến những người tham gia giao thông khác bị phơi bày trước lỗi hệ thống dù không hề tự nguyện

Nội dung cốt lõi của dữ liệu rò rỉ

  • Vụ rò rỉ tài liệu nội bộ quy mô lớn cho thấy hàng nghìn khiếu nại của khách hàng và nhiều hồ sơ tai nạn
    • Hơn 2.400 khiếu nại liên quan đến tăng tốc ngoài ý muốn
    • Hơn 1.000 vụ tai nạn liên quan đến Autopilot
  • Trong nhiều trường hợp, mục xử lý sự cố được đánh dấu là "chưa được giải quyết"
  • Toàn bộ tài liệu cho thấy Tesla đã nhận thức được quy mô của các lỗi hệ thống

"Ảo giác" chết người trên đường

  • Một số xe Tesla được nhắc đến với các trường hợp tăng tốc đột ngộtphanh gấp không rõ nguyên nhân
    • Bài viết gọi các lỗi vận hành AI này là "ảo giác"
    • Được ví với hiện tượng ChatGPT đưa ra câu trả lời hoàn toàn sai
  • Hệ thống tự lái có thể diễn giải sai môi trường xung quanh, và khi chạy ở tốc độ cao những lỗi như vậy có thể dẫn đến hậu quả chết người
  • Lỗi của Autopilot không chỉ gây nguy hiểm cho người dùng Tesla mà còn ảnh hưởng đến mọi người trên đường
    • Nhiều người chưa từng đồng ý trở thành đối tượng thử nghiệm của Tesla nhưng trên thực tế vẫn bị đặt vào vùng rủi ro do các lỗi đó

Hành động pháp lý của các nạn nhân

  • Naibel Benavides đã thiệt mạng trong một vụ tai nạn liên quan đến chiếc Tesla ở chế độ Autopilot
    • Khi đó cô là người đi bộ
  • Dillon Angulo sống sót trong cùng vụ tai nạn nhưng bị thương nặng và vẫn đang chịu di chứng
    • Có phát biểu rằng: "Tôi không biết Autopilot tồn tại, và sau khi biết thì tôi cảm thấy như mình là chuột bạch thí nghiệm"
  • Gia đình nạn nhân đã khởi kiện Tesla
    • Cho rằng Tesla đã che giấu thông tin quan trọng
    • Tesla từ trước đến nay vẫn liên tục khẳng định trách nhiệm thuộc về tài xế

Dữ liệu tai nạn bị cho là đã hư hỏng

  • Trong quá trình điều tra tai nạn, cần thu thập dữ liệu hộp đen của xe nhưng Tesla tuyên bố dữ liệu đó đã bị hư hỏng
  • Nhóm luật sư phía nạn nhân đã huy động chuyên gia và thành công trong việc khôi phục dữ liệu đã bị xóa
    • Theo thông tin được khôi phục, Tesla đã biết về lỗi từ ngay tối hôm xảy ra tai nạn
  • Vào thời điểm tai nạn, xe đã phát hiện chướng ngại vật nhưng không thực hiện thao tác né tránh
    • Chỉ phát cảnh báo âm thanh ngay trước va chạm

Phán quyết mang tính lịch sử

  • Bồi thẩm đoàn Mỹ đã tuyên Tesla phải bồi thường thiệt hại hơn 243 triệu USD
  • Phán quyết này được xem là phán quyết nghiêm trọng đầu tiên liên quan đến Autopilot
    • Bồi thẩm đoàn nhận định cả Tesla và tài xế đều có trách nhiệm
  • Luật sư phía nạn nhân đánh giá đây là một ngày mang tính lịch sử của tư pháp
    • Phán quyết được nhắc đến như lời khẳng định rằng không thể dùng đường công cộng như phòng thí nghiệm của nhà sản xuất
  • Tesla đã tìm cách hủy phán quyết nhưng đến cuối tháng 2, thẩm phán liên bang vẫn giữ nguyên chế tài
    • Công ty vẫn có thể kháng cáo

Mở rộng điều tra tại Mỹ

  • Tesla đang là đối tượng của nhiều cuộc điều tra tại Mỹ
    • Bộ Tư pháp đang điều tra khả năng lừa dối người tiêu dùng
    • Cơ quan an toàn giao thông đường bộ cũng đang tiến hành điều tra riêng
  • Những người tố giác nội bộ đã khai với cơ quan chức năng rằng công ty ưu tiên tốc độ hơn an toàn
  • Lời khai cũng cho biết phiên bản thử nghiệm của tính năng tự lái đã được tung ra thị trường quá vội vàng, và nhiều nhân viên từng cảnh báo ban lãnh đạo về rủi ro của Autopilot
  • Các chuyên gia cho rằng phán quyết đầu tiên này có thể dẫn tới thêm nhiều vụ kiện khác
    • Được nhắc đến như một phán quyết mở đường cho các phiên tòa mới chống lại Tesla

1 bình luận

 
Ý kiến trên Hacker News
  • Việc Tesla tắt Autopilot vài giây trước va chạm để nó không bị ghi nhận là đang hoạt động vào thời điểm tai nạn thực sự trông rất gây sốc. Tôi đọc chi tiết liên quan trong bài viết của Futurism

    • Vì thế nên tôi cũng không còn muốn dễ dàng thử dùng các hệ thống hỗ trợ lái xe kiểu này. Không biết lúc nào mình sẽ đột ngột phải nhận lại quyền quyết định, nên tôi cảm thấy thà tự kiểm soát từ đầu đến cuối còn hơn
    • Nếu nhìn công bằng thì bài báo có nói chức năng tự lái đã ngừng kiểm soát xe chưa đầy 1 giây trước va chạm đầu tiên. Theo tôi, việc hệ thống lập tức từ bỏ quyền điều khiển khi gặp tình huống nó không giải quyết được là điều tự nhiên. Tuy vậy, nếu có bằng chứng cho thấy Tesla đã tích cực dùng điều đó làm căn cứ để né trách nhiệm tai nạn thì tôi sẵn sàng đổi ý. Cá nhân tôi thấy lấy mốc khoảng 5 giây sẽ hợp lý hơn
    • Dù có vẻ có phần mâu thuẫn với kết quả điều tra của NHTSA, Tesla trên trang an toàn FSD của mình giải thích rằng nếu FSD được kích hoạt trong vòng 5 giây trước va chạm thì tai nạn đó sẽ được tính là có FSD can thiệp trong thống kê tỷ lệ tai nạn. Trên lý thuyết, đây có vẻ là ngưỡng đủ rộng để bao phủ thời gian tri giác-phản ứng thông thường 1~1,5 giây, nhưng trên thực tế bản thân quá trình disengagement khi hệ thống trả quyền điều khiển lại cho tài xế có thể làm thay đổi thời gian phản ứng. Nếu tài xế đã quen để xe lo phanh và đánh lái, thì đó không còn là phản ứng đơn thuần với kích thích nữa, mà còn phải kéo sự chú ý trở lại và chuyển hẳn sang điều khiển thủ công rồi mới phản ứng, nên sẽ mất nhiều thời gian hơn. Thêm nữa, cũng đáng nghi liệu việc đạp phanh hay xoay vô-lăng có thực sự là tín hiệu của sự khôi phục kiểm soát có ý thức hay không. Cũng có thể đó chỉ là phản xạ
    • Đây là điều đã được biết từ khá lâu, và tôi hiểu đó là thiết kế an toàn nhằm tránh để máy tính tiếp tục điều khiển trong trạng thái có khả năng hư hỏng sau va chạm, chứ không phải để tránh bị ghi nhận là đang kích hoạt. Nếu xe bị lật hoặc hư hỏng nặng thì AP hay FSD có thể chưa được huấn luyện cho tình huống như vậy, và nếu bánh xe vẫn tiếp tục quay trong trạng thái đó thì còn nguy hiểm hơn cho người trong xe hoặc nhân viên cứu hộ. Theo tôi biết thì AEB vẫn có thể tiếp tục hỗ trợ phanh, nhưng auto-steer và cruise control bị vô hiệu hóa sẽ an toàn hơn. Nếu tôi nhớ không nhầm thì ngưỡng ngắt là khoảng 1 giây
  • Tôi thấy Tesla có thành tích rất tệ về mặt tuân thủ quy định và công bố thông tin liên quan đến tai nạn xe tự lái

    • Nhưng bản thân bài báo có vẻ thiếu các số liệu cụ thể quá nhiều so với luận điểm chính. Bỏ qua từng trường hợp bi kịch riêng lẻ, cách trình bày tổng thể quá mơ hồ nên lại làm luận điểm kém thuyết phục hơn
  • Bài này cũng có bản tiếng Đức. Có thể tham khảo bài tiếng Đức của SRF

    • SRF là đài phát thanh và truyền hình quốc gia của Thụy Sĩ, nên tôi đoán họ có khả năng cung cấp nội dung tương tự bằng hơn 4 ngôn ngữ
  • Bài này nói về Autopilot đời cũ, không phải FSD, và cũng chẳng thấy có gì mới được phơi bày. Có vẻ nó dựa trên cùng tập dữ liệu bị rò rỉ đã công khai từ năm 2023. Tiêu đề cũng có vẻ không chính xác, và tôi không tìm thấy bằng chứng trực tiếp nào trong bài cho thấy Tesla đã che giấu tai nạn chết người

    • Lại thêm một tiêu đề giật gân giả hoặc phóng đại liên quan đến Elon hay các công ty do Elon sở hữu, nên cũng chẳng có gì đáng ngạc nhiên
  • Tôi muốn bổ sung một chút bối cảnh về video và bài báo. Bộ phim tài liệu này do RTS, một cơ quan truyền thông công của Thụy Sĩ, sản xuất, và khác đôi chút với mặt bằng chung truyền thông công châu Âu ở chỗ họ có nguồn tài chính khá ổn định và chất lượng cũng cao. Tính độc lập biên tập và trung lập nhìn chung cũng ổn, còn về chính trị thì tôi cảm thấy hơi nghiêng trái một chút. Việc video bằng tiếng Pháp là vì truyền thông Thụy Sĩ được chia theo khu vực ngôn ngữ, và việc có bản dịch tiếng Đức cũng là nhờ cấu trúc đó. Nếu muốn đề xuất phụ đề tiếng Anh thì tôi nghĩ có thể liên hệ trực tiếp với RTS

    • Nhưng cách giải thích đó nghe như thể truyền thông công châu Âu nói chung thường không đáng tin. Tôi tò mò vì sao bạn lại nghĩ vậy. Nghĩ tới các nước châu Âu có đài công chất lượng cao, danh sách dài đến mức tôi thấy kiểu khái quát đó còn lạ hơn
  • Tôi thắc mắc liệu các vụ tai nạn này rốt cuộc đều là những trường hợp có sự bất cẩn của tài xế hay không

    • Tôi nghĩ là đúng. Nhưng điểm mấu chốt là bản chất của FSD có thể khiến tài xế mất tập trung
  • Tôi cũng không thích Tesla lắm và cho rằng hãng bị thổi phồng, quảng bá quá mức, nhưng thành thật mà nói bài này đọc như một bài báo cẩu thả. Tiêu đề là “Cách Tesla che giấu tai nạn để thử nghiệm Autopilot”, nhưng trong phần thân bài lại không giải thích họ đã che giấu điều gì, che giấu như thế nào, hay che giấu với ai. Nó còn trộn lẫn vụ rò rỉ dữ liệu Tesla năm 2022 với một vụ kiện riêng vào năm 2026 mà không đưa ra mối liên hệ giữa hai việc. Tôi nghĩ Tesla đúng là có một mô hình lặp đi lặp lại về những lời hứa mang tính đánh lừa và công bố thông tin kém, nhưng bài này không chứng minh được luận điểm đó một cách đàng hoàng

    • Tôi cũng có cảm giác tương tự. Đặc biệt với các vấn đề liên quan đến Musk thì kiểu này càng xuất hiện thường xuyên hơn. Dù có rất nhiều điều để chỉ trích, tôi nghĩ nếu báo chí điều tra muốn lấy lại sự tôn trọng thì đưa ra ít luận điểm hơn nhưng cụ thể và có bằng chứng sẽ có ích cho cả công chúng lẫn niềm tin vào báo chí hơn là tung ra hàng loạt nghi vấn mơ hồ. Cách mơ hồ có thể dễ tác động dư luận hơn, nhưng đó là một cơ chế nguy hiểm vì không đòi hỏi sự nhất quán với sự thật
    • Sau khi đọc bình luận này tôi đã tự vào đọc bài báo, và tôi cũng thấy nó chẳng có bao nhiêu nội dung. Nhưng tôi thật sự không hiểu vì sao ý kiến này lại bị downvote. Nói thêm là tôi cũng không phải fan Tesla, và tôi thấy cái xe tải đó thật sự tệ
  • Nếu muốn xem toàn bộ video, có thể xem video phóng sự đầy đủ của RTS

  • Nếu bạn thấy tiếng Đức dễ đọc hơn thì có thể xem bài báo tiếng Đức cùng nội dung