1 điểm bởi GN⁺ 2025-09-30 | 1 bình luận | Chia sẻ qua WhatsApp
  • Thống đốc California đã ký một dự luật nhằm tăng cường minh bạch AI
  • Đạo luật này đưa ra các tiêu chuẩn minh bạch trong quá trình phát triển và sử dụng hệ thống AI
  • Các doanh nghiệp phát sinh nghĩa vụ phải công bố thông tin về quy trình ra quyết định của AI và tác động của nó
  • Mục tiêu chính là bảo vệ người tiêu dùng và tăng cường trách nhiệm đối với việc lạm dụng AI
  • Việc thực thi đạo luật tạo nền tảng để thúc đẩy quy định đối với ngành AI và phát triển có đạo đức

Tổng quan về dự luật minh bạch AI của California

  • Thống đốc California đã chính thức ký một dự luật mới nhằm tăng cường minh bạch AI
  • Dự luật này yêu cầu doanh nghiệp và tổ chức phải công bố thông tin liên quan đến quy trình ra quyết định khi phát triển hoặc sử dụng hệ thống AI
  • Nội dung chính nêu rõ trách nhiệm giải trình về AI đã sử dụng dữ liệu và tiêu chí nào để đưa ra kết luận, cũng như tác động tiềm tàng của hệ thống đó là gì
  • Luật thiết lập các cơ chế bảo đảm minh bạch để người tiêu dùng khi sử dụng dịch vụ hoặc sản phẩm dựa trên AI có thể biết rằng mình đã bị ảnh hưởng bởi các quyết định của thuật toán
  • Cuối cùng, dự luật này hướng tới nâng cao trách nhiệm của ngành AI, đồng thời ngăn chặn việc lạm dụng AI và khôi phục niềm tin của người tiêu dùng
  • Thông qua việc thực thi đạo luật, California được kỳ vọng sẽ trở thành bang dẫn đầu tại Mỹ về đạo đức và quy định AI

1 bình luận

 
GN⁺ 2025-09-30
Ý kiến trên Hacker News
  • Nếu đây là vấn đề trong thế giới thực, tôi muốn biết liệu dự luật này có thể ngăn việc tài sản trí tuệ (IP) của tôi bị LLM sử dụng mà không được cho phép hay không
    • Mục đích lớn nhất của dự luật này là cung cấp một khung nền tảng để có thể thảo luận dựa trên dữ liệu thực tế. Vì vậy nó yêu cầu các công ty công nghệ công bố kế hoạch an toàn, báo cáo minh bạch và lịch sử sự cố. Đây cũng là lý do mức phạt được đặt thấp ở mức 10.000 USD. Quy định AI toàn diện thì ở thời điểm hiện tại vẫn còn quá sớm, và California cũng không phải là chủ thể quản lý luật bản quyền của Mỹ
    • Chính quyền đã chỉ đạo xây dựng một khung phát triển cụm tính toán công cộng. Có khả năng rất lớn là dự luật này sẽ mang lại lợi ích lớn cho một số nhà thầu chính phủ, và xét về mặt lịch sử, tôi nghĩ tiền cũng có thể chảy vào tay một số người cụ thể dưới dạng hợp đồng chỉ định. Xem bài liên quan: xã luận của Sacramento Bee
    • Có điều khoản bảo vệ người tố giác. Điều này có thể khiến các hành vi bất hợp pháp bị phơi bày
    • Ngay cả bây giờ cũng có thể được bảo vệ theo cách tương tự như vi phạm IP do con người gây ra
    • Cuối cùng thì dự luật này giải quyết một vấn đề rất thực tế là mang thêm tiền cho các viên chức chính phủ
  • Tôi đã tìm được một trang web có thể xem điều khoản thực tế của dự luật và phần chú thích: https://sb53.info/
    • Nhìn vào định nghĩa về “mô hình trí tuệ nhân tạo”, nó được mô tả là hệ thống dựa trên máy với nhiều mức độ tự chủ khác nhau, có thể suy ra đầu ra từ đầu vào và gây ảnh hưởng lên môi trường vật lý hoặc ảo. Nói cách khác, ngay cả máy cắt cỏ đơn giản cũng có thể bị tính vào, vì nó có quan hệ giữa đầu vào (tay ga, công tắc ngắt) và đầu ra (lưỡi quay). Định nghĩa về “rủi ro nghiêm trọng” là rủi ro có thể gây tử vong/thương tích nghiêm trọng cho từ 50 người trở lên hoặc thiệt hại trên 1 tỷ USD, nhưng số người bị thương do máy cắt cỏ mỗi năm còn nhiều hơn thế
  • Đọc nguyên văn dự luật thì thấy giống như đang ưu ái cho ngành “an toàn AI”. Việc chứng nhận tuân thủ sẽ được trả thù lao cao
    • Ở Big4 có những đối tác kiểu boomer đang cố giữ không cho tách mảng tư vấn ra, và dự luật AI lần này sẽ là nguồn doanh thu mới cho họ. Tôi đặc biệt nghĩ deloitte sẽ hưởng lợi lớn lần này
    • Người viết bình luận trên đang làm việc tại một công ty phát triển AI lớn. Lập trường phản đối quy định AI có liên hệ rất chặt với mức lương của chính họ. Cũng có xu hướng biến “an toàn AI” thành trò chế giễu. Nhiều ngành ở Thung lũng Silicon thiếu nhận thức về văn hóa an toàn. Việc quy định kém hiệu quả là một vấn đề, nhưng cũng cần cân nhắc những vấn đề phát sinh khi hoàn toàn không có quy định. Những chuyện mờ ám nội bộ, chi hoa hồng ngầm và thông đồng trong ngành cũng nhất định phải bị chỉ ra
  • Dự luật ghi rõ rằng với hành vi vi phạm cố ý gây ra “tử vong, thương tích nghiêm trọng, rủi ro nghiêm trọng”, mức phạt là 1 triệu USD cho lần đầu, và tối đa 10 triệu USD cho các lần sau. Với vi phạm không cố ý (như sai sót), dù tạo ra các rủi ro đó cũng không bị phạt. Mức phạt chỉ có trần chứ không có sàn. Tức là 0 USD cũng vẫn phù hợp với điều khoản “tối đa không quá 10 triệu USD”
  • Gây thiệt hại 1 tỷ USD mà cũng chỉ bị phạt 10 triệu USD thôi sao? “Thiệt hại nghiêm trọng” cũng vậy. Tôi không xem đây là quy định. Dù OpenAI có trả cho kỹ sư 1 triệu USD mỗi năm, thì mức phạt 10.000 USD hay 1 triệu, 10 triệu USD hoàn toàn không có tác dụng răn đe
  • Chỉ nhìn vào tranh luận thì dự luật này vừa vô nghĩa, vừa đồng thời trở thành lý do để geoblock California. Nó làm quá nhiều nhưng đồng thời cũng quá ít. Chi phí vừa cao lại vừa thấp. Nó là ví dụ của tham nhũng, đồng thời cũng là bước đầu của quy định AI. Các công ty AI có thể rời California, hoặc cũng có thể đổ vào nhiều hơn vì tiêu chuẩn quy định thấp. Nếu có liên kết nào tới thảo luận thực sự sâu hơn thì tôi muốn biết
    • Mọi kết cục đều có thể xảy ra, và tôi nghĩ điều đó sẽ tùy vào cách chính quyền và tòa án diễn giải cũng như thực thi trên thực tế. Câu chữ của luật quá mơ hồ, nên nó có thể trở thành cây búa, hoặc cũng có thể chẳng có ảnh hưởng gì
  • Tôi nghĩ đây là việc lẽ ra phải được kiểm soát trước bằng luật liên bang. Nhưng định nghĩa trong dự luật này quá cẩu thả. Đặc biệt, định nghĩa về “mô hình trí tuệ nhân tạo” trên thực tế bao trùm gần như mọi loại máy móc và thuật toán. Cái định nghĩa đó giống như được viết ra sau khi xem Twilight Zone và lo rằng biết đâu sẽ xuất hiện một android có gắn đồng hồ cúc cu
  • Tôi từng tò mò California sẽ định nghĩa AI như thế nào, và hiện tại nó gần giống một thuật ngữ marketing. Ở đây nó được ghi là một hệ thống phi sinh học nhận đầu vào và tạo ra đầu ra
    • Hai phản ứng với bình luận này khá thú vị: “Không có công nghệ thực tế nào khớp với định nghĩa này”, “Vậy tức là cái máy pha cà phê của tôi à?”
    • Ý kiến của tôi khác với trên. Công nghệ phù hợp với định nghĩa này thực sự không tồn tại. AI không thể “suy luận” ra điều gì từ đầu vào. Tương tự, điều đó cũng chưa từng được chứng minh ở con người
    • Vậy thì máy pha cà phê của tôi cũng thuộc diện đó đúng không
  • Nói ngắn gọn thì đây là “kiểm duyệt với nhiều thủ tục hơn”. Những gì dự luật yêu cầu là công ty phải tài liệu hóa việc giảm thiểu rủi ro và các giao thức an toàn, còn chính quyền sẽ định nghĩa điều gì là nguy hiểm và khu vực tư nhân sẽ phải xây dựng hệ thống lọc theo đó. Đây là kiểm duyệt trước, đi ngược Tu chính án thứ nhất của Mỹ. Tòa án Tối cao liên bang đã nói rất rõ rằng chỉ việc kích động trực tiếp hành vi bạo lực (án lệ Brandenburg) và một số trường hợp ngoại lệ như nội dung lạm dụng trẻ em, đe dọa thực chất mới được phép. Chỉ vì công nghệ là mới mà nhà nước không nên có quyền tạo ra danh mục mới cho phát ngôn nguy hiểm. Nếu AI cung cấp thông tin ở cấp độ chuyên gia về thiết kế vũ khí hay hỗ trợ tội phạm, thì phải báo cáo cho chính phủ và cũng phải đưa ra biện pháp giảm thiểu. Hôm nay là “rủi ro nghiêm trọng”, ngày mai có thể mở rộng thành “thông tin sai lệch”, “phát ngôn thù ghét”, v.v. Một khi nhà nước bắt đầu cưỡng chế hạn chế nội dung nhân danh an toàn thì nó sẽ mất tính chính danh về mặt logic
    • Theo 18 USC § 842 hiện đã là tội phạm nếu cung cấp thông tin có thể dùng vào việc chế tạo chất nổ và các mục đích phạm tội tương tự. Có sự cân bằng giữa tự do ngôn luận và xác suất gây hại thực tế. AI không phải là chủ thể của quyền tự do ngôn luận nên nhà nước có thể điều tiết nó. Việc yêu cầu doanh nghiệp lọc đầu ra AI bị gọi là kiểm duyệt trước, và điều đó dựa trên lập luận rằng doanh nghiệp không thể kiểm soát “lời nói” của AI. Lập luận này không đứng vững. Một công cụ tạo câu bằng tổ hợp ngẫu nhiên cũng không được bảo vệ chỉ vì nó đang chạy trên dịch vụ lưu trữ trực tuyến của tôi. Áp dụng logic tự do ngôn luận vào kiểm duyệt AI là không phù hợp
    • LLM không có quyền. LLM là công cụ, và nhà nước có thể quản lý công cụ. Thậm chí nếu cùng ý định như vậy thì một người cũng có thể tự đăng hướng dẫn chế tạo vũ khí lên blog công ty
    • “Hôm nay là rủi ro nghiêm trọng, ngày mai là thông tin sai lệch, phát ngôn thù ghét...” chính chỗ đó mới là vấn đề. Tôi lo về rủi ro thường ngày còn hơn rủi ro nghiêm trọng. Dù LLM có đưa thông tin có hại thì cuối cùng cũng chỉ là bản tóm tắt những nội dung đã được công khai trên mạng. Xã hội Mỹ đầy rẫy phát ngôn thù ghét, nhưng đó cũng không phải vấn đề mới. Ngược lại, vấn đề là “thông tin sai lệch”. LLM quy mô lớn đọc Internet rồi khoác thêm vẻ có thẩm quyền, nên sức mạnh của Google hay MS được gắn vào những thông tin chưa được kiểm chứng. Cách tiếp cận tốt hơn là để LLM hướng dẫn theo kiểu “Y đã đưa ra tuyên bố X”. Vấn đề “an toàn” phần lớn chỉ là chặn nội dung người lớn, mà tôi nghĩ trong thời đại Pornhub thì điều đó không còn nhiều ý nghĩa. Vấn đề thực sự cần thảo luận là AI được dùng để lừa khách hàng hoặc cung cấp dịch vụ tùy biến cho mục đích thương mại nhằm né tránh họ. Điều này nên được xử lý ở góc độ quyền người tiêu dùng. Một vấn đề khác là khi AI hoạt động như sếp của tôi (ví dụ: Uber)
    • Nhìn lại quá trình phát triển của mạng xã hội trong 15 năm qua, tôi rút ra bài học rằng việc đánh giá rủi ro và phản ứng nhanh đã đến quá muộn. Mạng xã hội đã tích lũy ảnh hưởng chính trị đến mức gần như không thể bị quản lý thực chất nữa. Tôi hy vọng chúng ta không lặp lại sai lầm tương tự với AI tạo sinh