- OpenAI ủng hộ dự luật Thượng viện bang Illinois SB 3444, trong đó giới hạn trách nhiệm pháp lý của các phòng thí nghiệm AI theo một số điều kiện nhất định, ngay cả khi mô hình AI gây ra thương vong lớn về người hoặc thiệt hại tài sản nghiêm trọng
- Dự luật định nghĩa 'thiệt hại nghiêm trọng (critical harm)' là trường hợp mô hình AI khiến hơn 100 người tử vong hoặc bị thương nặng, hoặc gây thiệt hại tài sản vượt quá 1 tỷ USD
- Nếu phòng thí nghiệm AI gây ra thiệt hại như vậy mà không có chủ ý hoặc không do bất cẩn nghiêm trọng, đồng thời đã công bố báo cáo về an toàn, an ninh và minh bạch trên website, thì có thể được miễn trách nhiệm
- Dự luật định nghĩa 'mô hình frontier (frontier model)' là AI có chi phí huấn luyện từ 100 triệu USD trở lên; các phòng thí nghiệm AI lớn như OpenAI, Google, xAI, Anthropic, Meta có thể thuộc diện này
- Định nghĩa này được hiểu là một nỗ lực xây dựng khung quản lý tập trung vào các hệ thống AI hiệu năng cao
- Người phát ngôn của OpenAI, Jamie Radice, cho biết trong tuyên bố qua email rằng: “Cách tiếp cận này giúp giảm rủi ro thiệt hại nghiêm trọng từ các hệ thống AI tiên tiến, đồng thời giúp công nghệ đến được với doanh nghiệp và cá nhân.”
- Bà cũng nhắc đến việc điều này giúp xây dựng các tiêu chuẩn rõ ràng và nhất quán ở cấp quốc gia thay vì các quy định khác nhau theo từng bang
- 'Thiệt hại nghiêm trọng' theo định nghĩa của dự luật còn bao gồm các trường hợp AI tạo ra vũ khí hóa học, sinh học, phóng xạ hoặc hạt nhân, hoặc tự thực hiện những hành vi mà nếu con người làm thì sẽ bị coi là tội phạm
- Ngay cả khi các hành vi này gây ra thiệt hại trên diện rộng, phòng thí nghiệm AI vẫn có thể được miễn trách nhiệm pháp lý nếu không có chủ ý và đã nộp báo cáo
-
Xung đột giữa quy định liên bang và dự luật cấp bang
- Caitlin Niedermeyer thuộc nhóm Global Affairs của OpenAI nhấn mạnh sự cần thiết của một khung quản lý AI ở cấp liên bang trong lời khai ủng hộ SB 3444
- Bà cho rằng các quy định khác nhau giữa các bang có thể tạo ra ma sát kém hiệu quả, và cần tăng cường sự hài hòa với hệ thống liên bang
- Quan điểm này tương đồng với lập trường chung của Thung lũng Silicon, phù hợp với logic coi trọng việc duy trì năng lực cạnh tranh AI của Mỹ
- Niedermeyer phát biểu: “Việc triển khai an toàn các mô hình frontier và duy trì vị thế dẫn đầu đổi mới của Mỹ phải là North Star của hoạt động quản lý.”
-
Khả năng thông qua và các chỉ trích đối với dự luật
- Giám đốc chính sách của Secure AI Project, Scott Wisor, đánh giá khả năng dự luật được thông qua là thấp nếu xét đến xu hướng quản lý công nghệ của bang Illinois
- Trong khảo sát dư luận với cư dân Illinois, 90% phản đối việc miễn trách nhiệm cho các công ty AI
- Các nhà lập pháp bang thậm chí còn đang đưa ra các dự luật tăng cường trách nhiệm đối với nhà phát triển AI
- Illinois đã là bang đầu tiên ban hành luật hạn chế sử dụng AI trong dịch vụ sức khỏe tâm thần, và trước đó từng thông qua Đạo luật Bảo vệ Thông tin Sinh trắc học (BIPA) vào năm 2008
-
Vấn đề chưa được giải quyết về trách nhiệm đối với thiệt hại do AI gây ra
- Dù SB 3444 tập trung vào thiệt hại quy mô lớn, các tranh luận về thiệt hại ở cấp độ cá nhân vẫn đang tiếp diễn
- Một số gia đình đã khởi kiện OpenAI, cho rằng con họ tự tử sau những tương tác bất thường với ChatGPT
- Hoạt động lập pháp AI ở cấp liên bang vẫn chưa có tiến triển tại Quốc hội
- Chính quyền Trump đã công bố các sắc lệnh hành pháp và framework, nhưng thảo luận lập pháp thực chất vẫn đang bế tắc
- Trong bối cảnh thiếu hướng dẫn liên bang, các bang như California và New York đã tự thông qua các dự luật bắt buộc báo cáo về an toàn và minh bạch
- Khi làn sóng bùng nổ AI đã kéo dài nhiều năm, trách nhiệm pháp lý nếu mô hình AI gây ra các sự kiện thảm họa vẫn là một vấn đề chưa được giải quyết
1 bình luận
Ý kiến trên Hacker News
Tôi đã thử dùng GPT 5.4 và Opus 4.6 để tạo ra cách làm chất độc thần kinh từ đồ dùng thường ngày
Ban đầu mô hình bị chặn ở khâu tìm nguồn phốt pho (P), nhưng cuối cùng vẫn hướng dẫn cả các mục rao bán “phốt pho trang trí” trên eBay lẫn những từ khóa mật mã dùng ngoài chợ đen thật sự
Tôi còn được chỉ dẫn về quy tắc an toàn, danh sách vật liệu, cách che giấu, và cả quy trình hóa học thông qua tìm kiếm học thuật
Tất nhiên đây là kết quả bất thường có được nhờ tấn công làm cạn ngữ cảnh (context exhaustion attack), và sau đó tôi đã báo cho OpenAI và Anthropic nhưng không nhận được phản hồi
Khi thử lại gần đây thì phiên làm việc bị kết thúc, có vẻ như đã được vá
Tôi tin chắc chuyện này đủ khiến người trong bộ phận chống khủng bố mất ngủ
Hồi đó còn có rất nhiều diễn đàn nói về “những thứ chính phủ muốn che giấu”
Nhưng điều đáng sợ hơn bây giờ là ma sát để đi đến hành động đã giảm xuống
Tôi đã thử dùng ChatGPT và Claude trong lĩnh vực chuyên môn của mình, và chúng thường tạo ra nội dung trông có vẻ hợp lý với người ngoài ngành nhưng lại sai hoàn toàn
Tôi cũng muốn biết liệu đã có ai thực sự làm thí nghiệm theo chỉ dẫn hóa học của LLM hay chưa
Thực ra nếu không ghi đè system prompt thì vốn dĩ nó phải hoạt động như vậy
Trích nguyên văn từ Dự luật Thượng viện Illinois 3444
‘Thiệt hại nghiêm trọng (critical harm)’ nghĩa là trường hợp mô hình AI gây ra cái chết cho hơn 100 người hoặc thiệt hại tài sản trên 1 tỷ USD
Nhà phát triển sẽ được miễn trách nhiệm, trừ khi có sơ suất cố ý, nếu đã công bố trước giao thức an toàn và báo cáo minh bạch
Nhưng tôi nghĩ chỉ đơn giản đăng lên một file PDF thì vẫn chưa đủ
Tức là nếu mô hình nhỏ hơn gây tai nạn thì sẽ không được bảo vệ
Vậy giết 99 người thì không sao à? Một kiểu logic kỳ quặc theo hướng “chơi lớn hoặc về nhà”
Không phải chỉ công bố tài liệu là đủ, mà còn phải thực sự tuân thủ các giao thức đó thì mới được bảo vệ
Cơ quan quản lý phải đặt ra “tiêu chuẩn hợp lý”, và doanh nghiệp chỉ nên được miễn trách nhiệm khi đáp ứng các tiêu chuẩn đó
Miễn trách nhiệm vô điều kiện lẫn trách nhiệm vô điều kiện đều quá cực đoan
Cuối cùng vấn đề của đạo luật này là tiêu chuẩn được đặt quá thấp
Price–Anderson Act ban hành năm 1957 là ví dụ tiêu biểu, giới hạn trách nhiệm của ngành điện hạt nhân
Ngay cả khi thiệt hại vượt 1 nghìn tỷ USD như tai nạn Fukushima, chính phủ vẫn gánh phần lớn
Tranh luận về miễn trách nhiệm cho ngành AI cũng nằm trong cùng bối cảnh đó
Nhân tiện, khi thấy Gemini trả lời sai năm hết hiệu lực của đạo luật này, tôi lại cảm nhận rõ sự cần thiết của việc kiểm chứng sự thật với AI
Dù là một phép so sánh đơn giản hóa, rõ ràng đây vẫn là một dự luật để né tránh trách nhiệm
Nó trông giống như một nỗ lực nhằm né trách nhiệm khi tấn công nhầm mục tiêu
Đến mức việc “Skynet” không được nhắc tới còn thấy lạ
Việc cần miễn trách nhiệm có nghĩa là họ đã biết nó nguy hiểm
Nó làm tôi nhớ tới trường hợp ở bang Iowa
Thượng viện bang đã hai lần thông qua dự luật ngăn kiện các công ty thuốc trừ sâu/thuốc diệt cỏ nếu họ chỉ cần tuân theo nhãn EPA
Iowa cũng là bang có tỷ lệ ung thư tăng nhanh nhất ở Mỹ
Có vẻ đây sẽ là một tranh cãi lớn sắp tới, giống như các vụ kiện liên quan đến PFAS (liên kết bài báo)
Chúng ta đã tạo ra những hệ thống mà mình không hiểu, và bước tiếp theo lại là miễn trách nhiệm, thật mỉa mai
Nhưng điều thực sự đáng sợ là kiểu phản ứng này xuất phát từ một lối suy nghĩ quá hẹp hòi
Tôi nghĩ vấn đề trách nhiệm khá đơn giản
Con người đưa ra quyết định thì luôn phải chịu trách nhiệm
Không thể vin vào cớ “AI bảo tôi làm vậy”
Dù vậy, nếu người thực thi không có thẩm quyền thì đó lại là một dạng trách nhiệm khác
Rốt cuộc AI chỉ là một vật tế thần mới
Cuối cùng họ đã tính toán rằng vận động hành lang chính phủ rẻ hơn và nhanh hơn việc cải thiện an toàn sản phẩm
Điều đáng ngạc nhiên hơn là có quá nhiều nhà phát triển muốn giao chìa khóa của thế giới cho những công ty như vậy
Illinois còn có một dự luật khác buộc xác minh độ tuổi ở cấp hệ điều hành (HB 5511)
Lý do những dự luật tệ như vậy được thông qua là vì chúng ta không lên tiếng
Nếu là cư dân bang này, bạn nên gửi email cho nghị sĩ ngay bây giờ
Cá cược xem “bài này bao giờ rơi khỏi trang nhất?”
Trong dự luật thực tế (liên kết) có ghi rõ ‘hơn 100 người chết hoặc thiệt hại 1 tỷ USD’
Tôi nghĩ tiêu đề ban đầu thực ra còn chính xác hơn
Chúng ta đang tiêu thụ chính thứ đó
OpenAI ban đầu khởi đầu là một tổ chức phi lợi nhuận nhằm giảm rủi ro của LLM, nhưng giờ lại đi theo hướng hoàn toàn ngược lại
Hướng đi này của OpenAI và Sam Altman không có gì đáng ngạc nhiên
Việc doanh nghiệp đẩy chi phí ra bên ngoài là chuyện rất thường
Nhưng chúng ta có thể làm gì để ngăn kiểu hành xử đó?
Đây đơn giản là kết quả của lòng tham đánh bại đạo đức sao?
Có những trường hợp ngoại lệ như phong trào phản đối SOPA/PIPA, nhưng đa phần động lực của doanh nghiệp lớn hơn nhiều so với lợi ích cá nhân
Cuối cùng đây cũng là cùng một cơ chế làm nền dân chủ suy yếu
Về bản chất, pháp nhân là một cấu trúc để né tránh trách nhiệm, nên cần hạn chế các pháp nhân nhiều tầng hoặc công ty mục đích đặc biệt (SPV)
Và không nên bỏ phiếu cho các chính trị gia hay thẩm phán tôn sùng Friedman Doctrine
Xã hội hiện nay đang nghiêng về phía những người sở hữu tư bản
Nó chẳng khác gì một đạo luật kiểu “ai có tài sản ròng trên 1 tỷ USD thì có thể đánh người mà được miễn trách nhiệm”
Cuối cùng trừ khi tòa án cũng mục ruỗng, nó sẽ bị vô hiệu hóa
Làm sao chuyển nó thành hành động xã hội là bài toán của chính nền văn minh
Chính Đảng Dân chủ đã lập ra Cục Bảo vệ Tài chính Người tiêu dùng (CFPB), còn Đảng Cộng hòa thì làm suy yếu nó
Cần ủng hộ lực lượng chính trị ngăn chặn độc quyền và thao túng
Đặc biệt khi một thế hệ trẻ cấp tiến đang xuất hiện, việc chọn đúng ứng viên ở bầu cử sơ bộ là rất quan trọng
Suy cho cùng, chỉ cần 25% cử tri thay đổi thì thế giới có thể khác đi