1 điểm bởi GN⁺ 11 ngày trước | 1 bình luận | Chia sẻ qua WhatsApp
  • OpenAI ủng hộ dự luật Thượng viện bang Illinois SB 3444, trong đó giới hạn trách nhiệm pháp lý của các phòng thí nghiệm AI theo một số điều kiện nhất định, ngay cả khi mô hình AI gây ra thương vong lớn về người hoặc thiệt hại tài sản nghiêm trọng
    • Dự luật định nghĩa 'thiệt hại nghiêm trọng (critical harm)' là trường hợp mô hình AI khiến hơn 100 người tử vong hoặc bị thương nặng, hoặc gây thiệt hại tài sản vượt quá 1 tỷ USD
    • Nếu phòng thí nghiệm AI gây ra thiệt hại như vậy mà không có chủ ý hoặc không do bất cẩn nghiêm trọng, đồng thời đã công bố báo cáo về an toàn, an ninh và minh bạch trên website, thì có thể được miễn trách nhiệm
    • Dự luật định nghĩa 'mô hình frontier (frontier model)' là AI có chi phí huấn luyện từ 100 triệu USD trở lên; các phòng thí nghiệm AI lớn như OpenAI, Google, xAI, Anthropic, Meta có thể thuộc diện này
    • Định nghĩa này được hiểu là một nỗ lực xây dựng khung quản lý tập trung vào các hệ thống AI hiệu năng cao
  • Người phát ngôn của OpenAI, Jamie Radice, cho biết trong tuyên bố qua email rằng: “Cách tiếp cận này giúp giảm rủi ro thiệt hại nghiêm trọng từ các hệ thống AI tiên tiến, đồng thời giúp công nghệ đến được với doanh nghiệp và cá nhân.”
    • Bà cũng nhắc đến việc điều này giúp xây dựng các tiêu chuẩn rõ ràng và nhất quán ở cấp quốc gia thay vì các quy định khác nhau theo từng bang
    • 'Thiệt hại nghiêm trọng' theo định nghĩa của dự luật còn bao gồm các trường hợp AI tạo ra vũ khí hóa học, sinh học, phóng xạ hoặc hạt nhân, hoặc tự thực hiện những hành vi mà nếu con người làm thì sẽ bị coi là tội phạm
    • Ngay cả khi các hành vi này gây ra thiệt hại trên diện rộng, phòng thí nghiệm AI vẫn có thể được miễn trách nhiệm pháp lý nếu không có chủ ý và đã nộp báo cáo
  • Xung đột giữa quy định liên bang và dự luật cấp bang

    • Caitlin Niedermeyer thuộc nhóm Global Affairs của OpenAI nhấn mạnh sự cần thiết của một khung quản lý AI ở cấp liên bang trong lời khai ủng hộ SB 3444
      • Bà cho rằng các quy định khác nhau giữa các bang có thể tạo ra ma sát kém hiệu quả, và cần tăng cường sự hài hòa với hệ thống liên bang
      • Quan điểm này tương đồng với lập trường chung của Thung lũng Silicon, phù hợp với logic coi trọng việc duy trì năng lực cạnh tranh AI của Mỹ
      • Niedermeyer phát biểu: “Việc triển khai an toàn các mô hình frontier và duy trì vị thế dẫn đầu đổi mới của Mỹ phải là North Star của hoạt động quản lý.”
  • Khả năng thông qua và các chỉ trích đối với dự luật

    • Giám đốc chính sách của Secure AI Project, Scott Wisor, đánh giá khả năng dự luật được thông qua là thấp nếu xét đến xu hướng quản lý công nghệ của bang Illinois
      • Trong khảo sát dư luận với cư dân Illinois, 90% phản đối việc miễn trách nhiệm cho các công ty AI
      • Các nhà lập pháp bang thậm chí còn đang đưa ra các dự luật tăng cường trách nhiệm đối với nhà phát triển AI
      • Illinois đã là bang đầu tiên ban hành luật hạn chế sử dụng AI trong dịch vụ sức khỏe tâm thần, và trước đó từng thông qua Đạo luật Bảo vệ Thông tin Sinh trắc học (BIPA) vào năm 2008
  • Vấn đề chưa được giải quyết về trách nhiệm đối với thiệt hại do AI gây ra

    • Dù SB 3444 tập trung vào thiệt hại quy mô lớn, các tranh luận về thiệt hại ở cấp độ cá nhân vẫn đang tiếp diễn
      • Một số gia đình đã khởi kiện OpenAI, cho rằng con họ tự tử sau những tương tác bất thường với ChatGPT
    • Hoạt động lập pháp AI ở cấp liên bang vẫn chưa có tiến triển tại Quốc hội
      • Chính quyền Trump đã công bố các sắc lệnh hành pháp và framework, nhưng thảo luận lập pháp thực chất vẫn đang bế tắc
      • Trong bối cảnh thiếu hướng dẫn liên bang, các bang như California và New York đã tự thông qua các dự luật bắt buộc báo cáo về an toàn và minh bạch
    • Khi làn sóng bùng nổ AI đã kéo dài nhiều năm, trách nhiệm pháp lý nếu mô hình AI gây ra các sự kiện thảm họa vẫn là một vấn đề chưa được giải quyết

1 bình luận

 
Ý kiến trên Hacker News
  • Tôi đã thử dùng GPT 5.4 và Opus 4.6 để tạo ra cách làm chất độc thần kinh từ đồ dùng thường ngày
    Ban đầu mô hình bị chặn ở khâu tìm nguồn phốt pho (P), nhưng cuối cùng vẫn hướng dẫn cả các mục rao bán “phốt pho trang trí” trên eBay lẫn những từ khóa mật mã dùng ngoài chợ đen thật sự
    Tôi còn được chỉ dẫn về quy tắc an toàn, danh sách vật liệu, cách che giấu, và cả quy trình hóa học thông qua tìm kiếm học thuật
    Tất nhiên đây là kết quả bất thường có được nhờ tấn công làm cạn ngữ cảnh (context exhaustion attack), và sau đó tôi đã báo cho OpenAI và Anthropic nhưng không nhận được phản hồi
    Khi thử lại gần đây thì phiên làm việc bị kết thúc, có vẻ như đã được vá
    Tôi tin chắc chuyện này đủ khiến người trong bộ phận chống khủng bố mất ngủ

    • Những thông tin kiểu này vốn đã có thể tìm thấy dễ dàng trên Internet từ 20~30 năm trước
      Hồi đó còn có rất nhiều diễn đàn nói về “những thứ chính phủ muốn che giấu”
      Nhưng điều đáng sợ hơn bây giờ là ma sát để đi đến hành động đã giảm xuống
    • Câu “đặc vụ chống khủng bố mất ngủ” nghe có vẻ hơi cường điệu, nhưng hôm nay tôi cứ nhận lấy năng lượng tích cực đó vậy
    • Tôi tò mò không biết bạn có nền tảng sinh hóa hay không
      Tôi đã thử dùng ChatGPT và Claude trong lĩnh vực chuyên môn của mình, và chúng thường tạo ra nội dung trông có vẻ hợp lý với người ngoài ngành nhưng lại sai hoàn toàn
      Tôi cũng muốn biết liệu đã có ai thực sự làm thí nghiệm theo chỉ dẫn hóa học của LLM hay chưa
    • Những thông tin kiểu này ngay cả trước thời AI cũng đã có thể tiếp cận đầy đủ chỉ bằng Google Search
    • Tôi không đồng ý với câu “mô hình không nên hoạt động như thế”
      Thực ra nếu không ghi đè system prompt thì vốn dĩ nó phải hoạt động như vậy
  • Trích nguyên văn từ Dự luật Thượng viện Illinois 3444
    ‘Thiệt hại nghiêm trọng (critical harm)’ nghĩa là trường hợp mô hình AI gây ra cái chết cho hơn 100 người hoặc thiệt hại tài sản trên 1 tỷ USD
    Nhà phát triển sẽ được miễn trách nhiệm, trừ khi có sơ suất cố ý, nếu đã công bố trước giao thức an toàn và báo cáo minh bạch
    Nhưng tôi nghĩ chỉ đơn giản đăng lên một file PDF thì vẫn chưa đủ

    • Điểm thú vị là luật này chỉ áp dụng cho ‘mô hình frontier’
      Tức là nếu mô hình nhỏ hơn gây tai nạn thì sẽ không được bảo vệ
      Vậy giết 99 người thì không sao à? Một kiểu logic kỳ quặc theo hướng “chơi lớn hoặc về nhà”
    • Điểm cốt lõi nằm ở điều 15
      Không phải chỉ công bố tài liệu là đủ, mà còn phải thực sự tuân thủ các giao thức đó thì mới được bảo vệ
      Cơ quan quản lý phải đặt ra “tiêu chuẩn hợp lý”, và doanh nghiệp chỉ nên được miễn trách nhiệm khi đáp ứng các tiêu chuẩn đó
      Miễn trách nhiệm vô điều kiện lẫn trách nhiệm vô điều kiện đều quá cực đoan
      Cuối cùng vấn đề của đạo luật này là tiêu chuẩn được đặt quá thấp
    • Việc doanh nghiệp đẩy trách nhiệm ra công chúng là chuyện thường thấy
      Price–Anderson Act ban hành năm 1957 là ví dụ tiêu biểu, giới hạn trách nhiệm của ngành điện hạt nhân
      Ngay cả khi thiệt hại vượt 1 nghìn tỷ USD như tai nạn Fukushima, chính phủ vẫn gánh phần lớn
      Tranh luận về miễn trách nhiệm cho ngành AI cũng nằm trong cùng bối cảnh đó
      Nhân tiện, khi thấy Gemini trả lời sai năm hết hiệu lực của đạo luật này, tôi lại cảm nhận rõ sự cần thiết của việc kiểm chứng sự thật với AI
    • Đây là phiên bản AI của lập luận “súng không giết người
      Dù là một phép so sánh đơn giản hóa, rõ ràng đây vẫn là một dự luật để né tránh trách nhiệm
    • Luật này cũng chạm tới tranh cãi liên quan đến phát triển vũ khí tự động
      Nó trông giống như một nỗ lực nhằm né trách nhiệm khi tấn công nhầm mục tiêu
      Đến mức việc “Skynet” không được nhắc tới còn thấy lạ
      Việc cần miễn trách nhiệm có nghĩa là họ đã biết nó nguy hiểm
  • Nó làm tôi nhớ tới trường hợp ở bang Iowa
    Thượng viện bang đã hai lần thông qua dự luật ngăn kiện các công ty thuốc trừ sâu/thuốc diệt cỏ nếu họ chỉ cần tuân theo nhãn EPA
    Iowa cũng là bang có tỷ lệ ung thư tăng nhanh nhất ở Mỹ

    • Nếu là sản phẩm được chính phủ phê duyệt, thì sau này khi bị phát hiện có hại doanh nghiệp vẫn phải chịu trách nhiệm chứ?
      Có vẻ đây sẽ là một tranh cãi lớn sắp tới, giống như các vụ kiện liên quan đến PFAS (liên kết bài báo)
    • Rốt cuộc đây có vẻ là vấn đề xung đột giữa lợi ích ngành công nghiệp địa phương và sức khỏe cộng đồng
  • Chúng ta đã tạo ra những hệ thống mà mình không hiểu, và bước tiếp theo lại là miễn trách nhiệm, thật mỉa mai

    • Đúng vậy, mục tiêu là né tránh trách nhiệm
      Nhưng điều thực sự đáng sợ là kiểu phản ứng này xuất phát từ một lối suy nghĩ quá hẹp hòi
  • Tôi nghĩ vấn đề trách nhiệm khá đơn giản
    Con người đưa ra quyết định thì luôn phải chịu trách nhiệm
    Không thể vin vào cớ “AI bảo tôi làm vậy”
    Dù vậy, nếu người thực thi không có thẩm quyền thì đó lại là một dạng trách nhiệm khác
    Rốt cuộc AI chỉ là một vật tế thần mới

    • Nhưng “ai là người chịu trách nhiệm” thì không phải lúc nào cũng rõ ràng
  • Cuối cùng họ đã tính toán rằng vận động hành lang chính phủ rẻ hơn và nhanh hơn việc cải thiện an toàn sản phẩm
    Điều đáng ngạc nhiên hơn là có quá nhiều nhà phát triển muốn giao chìa khóa của thế giới cho những công ty như vậy

    • Thực ra kiểu làm này đã là chiến lược tiêu chuẩn của doanh nghiệp từ sau giữa thế kỷ 20, và nó hoạt động rất hiệu quả
    • Nhưng làm sao có thể biến một sản phẩm phi xác định (nondeterministic) thành ‘an toàn’ được?
  • Illinois còn có một dự luật khác buộc xác minh độ tuổi ở cấp hệ điều hành (HB 5511)
    Lý do những dự luật tệ như vậy được thông qua là vì chúng ta không lên tiếng
    Nếu là cư dân bang này, bạn nên gửi email cho nghị sĩ ngay bây giờ

  • Cá cược xem “bài này bao giờ rơi khỏi trang nhất?”

    • Tiêu đề đã được đổi thành “OpenAI backs Illinois bill that would limit when AI labs can be held liable”
      Trong dự luật thực tế (liên kết) có ghi rõ ‘hơn 100 người chết hoặc thiệt hại 1 tỷ USD’
      Tôi nghĩ tiêu đề ban đầu thực ra còn chính xác hơn
    • Cập nhật: nó rơi khỏi trang nhất sau khoảng 1~4 giờ
    • Nhưng đây là hiệu ứng marketing, nên tôi nghĩ nó sẽ không bị xóa
      Chúng ta đang tiêu thụ chính thứ đó
    • Nếu cá thì tôi đoán phải 3 tháng — mà nếu không xuống thì coi như thắng cược suốt đời
  • OpenAI ban đầu khởi đầu là một tổ chức phi lợi nhuận nhằm giảm rủi ro của LLM, nhưng giờ lại đi theo hướng hoàn toàn ngược lại

    • Đó là câu chuyện trước khi họ phát hiện ra tiềm năng của tiền bạc
    • Các công ty có chữ “Open” trong tên thì thường đóng
    • Rốt cuộc ai cũng có cái giá của mình
    • Giờ họ cũng đã quên mất lý tưởng ban đầu
    • Biết đâu ngay từ đầu đó đã là một lời nói dối
  • Hướng đi này của OpenAI và Sam Altman không có gì đáng ngạc nhiên
    Việc doanh nghiệp đẩy chi phí ra bên ngoài là chuyện rất thường
    Nhưng chúng ta có thể làm gì để ngăn kiểu hành xử đó?
    Đây đơn giản là kết quả của lòng tham đánh bại đạo đức sao?

    • Ở cấp độ toàn xã hội thì rất khó ngăn chặn
      Có những trường hợp ngoại lệ như phong trào phản đối SOPA/PIPA, nhưng đa phần động lực của doanh nghiệp lớn hơn nhiều so với lợi ích cá nhân
      Cuối cùng đây cũng là cùng một cơ chế làm nền dân chủ suy yếu
    • Thay đổi chính khái niệm pháp nhân có thể là lời giải
      Về bản chất, pháp nhân là một cấu trúc để né tránh trách nhiệm, nên cần hạn chế các pháp nhân nhiều tầng hoặc công ty mục đích đặc biệt (SPV)
      Và không nên bỏ phiếu cho các chính trị gia hay thẩm phán tôn sùng Friedman Doctrine
      Xã hội hiện nay đang nghiêng về phía những người sở hữu tư bản
    • Nếu luật như thế này được thông qua thì có khả năng vi hiến rất cao
      Nó chẳng khác gì một đạo luật kiểu “ai có tài sản ròng trên 1 tỷ USD thì có thể đánh người mà được miễn trách nhiệm”
      Cuối cùng trừ khi tòa án cũng mục ruỗng, nó sẽ bị vô hiệu hóa
    • Điều cá nhân có thể làm là khá hạn chế
      Làm sao chuyển nó thành hành động xã hội là bài toán của chính nền văn minh
    • Nhiều người sẽ phớt lờ điều này, nhưng tôi vẫn muốn nói: hãy bỏ phiếu cho Đảng Dân chủ
      Chính Đảng Dân chủ đã lập ra Cục Bảo vệ Tài chính Người tiêu dùng (CFPB), còn Đảng Cộng hòa thì làm suy yếu nó
      Cần ủng hộ lực lượng chính trị ngăn chặn độc quyền và thao túng
      Đặc biệt khi một thế hệ trẻ cấp tiến đang xuất hiện, việc chọn đúng ứng viên ở bầu cử sơ bộ là rất quan trọng
      Suy cho cùng, chỉ cần 25% cử tri thay đổi thì thế giới có thể khác đi