- Cơ quan lập pháp bang New York đã đề xuất một dự luật yêu cầu gắn cảnh báo lên nội dung tin tức do AI tạo ra và bắt buộc phải có con người rà soát
- Tên dự luật là ‘NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)’, nhằm hướng tới tính minh bạch của ngành tin tức và bảo vệ báo chí
- Các điều khoản chính bao gồm công khai việc sử dụng AI, rà soát của biên tập viên, thiết lập cơ chế bảo vệ thông tin mật
- Dự luật chỉ ra vấn đề khả năng sai lệch hoặc đạo văn của nội dung do AI tạo ra, đồng thời cũng bao gồm các điều khoản bảo vệ lao động như cấm sa thải hoặc cắt giảm lương đối với lao động báo chí
- Các công đoàn truyền thông lớn như WGA-East, SAG-AFTRA, DGA, NewsGuild of New York ủng hộ dự luật, và nó đang được chú ý như một động thái ứng phó với sự xói mòn niềm tin và mối đe dọa việc làm do việc đưa AI vào sử dụng
Tổng quan về NY FAIR News Act
- NY FAIR News Act, do Thượng nghị sĩ bang New York Patricia Fahy và Hạ nghị sĩ Nily Rozic đồng bảo trợ, yêu cầu các tổ chức tin tức phải ghi nhãn rõ ràng đối với nội dung được tạo bằng AI
- Với “nội dung được soạn thảo một cách đáng kể bằng trí tuệ nhân tạo tạo sinh”, phải gắn cảnh báo (disclaimer)
- Áp dụng cho mọi dạng nội dung tin tức, không chỉ bài viết mà còn cả âm thanh, hình ảnh, tư liệu trực quan
- Mọi nội dung do AI tạo ra đều phải trải qua khâu rà soát trước của nhân sự con người có quyền kiểm soát biên tập
- Ngay trong nội bộ tòa soạn, việc có sử dụng AI hay không và sử dụng theo cách nào cũng phải được công khai cho các thành viên như phóng viên
Nội dung quản lý chính của dự luật
- Bao gồm nhiều quy định tập trung vào tăng cường minh bạch AI
- Bắt buộc thiết lập cơ chế bảo vệ thông tin mật mà AI có thể truy cập được (đặc biệt là thông tin liên quan đến nguồn tin)
- Bao gồm điều khoản ngoại lệ bảo vệ bản quyền: loại trừ những trường hợp mà quyền tác giả của con người được công nhận theo luật bản quyền
- Chỉ ra một cách rõ ràng vấn đề độ tin cậy của sản phẩm do AI tạo ra
- Các nhà lập pháp nêu lý do rằng nội dung AI “có thể sai lệch hoặc gây hiểu lầm” và có “khả năng trích dẫn trái phép hoặc đạo văn”
Phản ứng của giới báo chí và công đoàn
- Dự luật nhận được sự ủng hộ rộng rãi từ các công đoàn lớn trong ngành truyền thông
- Có sự tham gia của WGA-East, SAG-AFTRA, DGA, NewsGuild of New York
- Người phát ngôn của NewsGuild, Jennifer Sheehan, xác nhận công đoàn đang thảo luận về tác động của việc đưa AI vào sử dụng và vấn đề bảo vệ việc làm
- Tháng 12/2025, NewsGuild đã khởi động chiến dịch ‘News Not Slop’, kêu gọi thiết lập các biện pháp bảo vệ đối với việc sử dụng AI trong tòa soạn
- Tại Thành phố New York, công đoàn của Business Insider đã tổ chức một cuộc biểu tình phản đối các bài báo được đăng với byline AI
Các điều khoản bảo vệ báo chí và quyền lao động
- Dự luật bao gồm điều khoản cấm sa thải, cắt giảm công việc, cắt giảm lương và phúc lợi do việc áp dụng AI
- Đây là nỗ lực luật hóa các điều khoản đã được đưa vào hợp đồng công đoàn ở từng tòa soạn trong những năm gần đây
- Thượng nghị sĩ Fahy cho biết “AI có thể đe dọa báo chí và niềm tin công chúng”, đồng thời nhắc đến việc 76% người Mỹ bày tỏ lo ngại về khả năng AI đánh cắp hoặc tái tạo nội dung tin tức
Bối cảnh và ý nghĩa
- New York là trung tâm của ngành truyền thông Mỹ, và đây là động thái nhằm đồng thời tăng cường độ tin cậy của báo chí và bảo vệ người lao động
- Dự luật lần này được đánh giá là nỗ lực lập pháp cấp bang đầu tiên bao quát minh bạch AI, bản quyền và quyền lao động
1 bình luận
Ý kiến trên Hacker News
Thật ngạc nhiên là dạo này tin về lập pháp liên quan đến AI hầu như không được bàn tới
Chỉ riêng bang New York đã có nhiều dự luật như RAISE (giao thức an toàn AI frontier, giám sát, báo cáo sự cố), S8420A (bắt buộc công khai nhân vật do AI tạo trong quảng cáo), GBL Article 47 (phát hiện khủng hoảng và cảnh báo đối với chatbot AI), S7676B (bảo vệ quyền chân dung AI của diễn viên), NYC LL144 (giám sát thiên lệch của công cụ tuyển dụng AI), và SAFE for Kids Act hạn chế feed thuật toán cho trẻ vị thành niên (đang chờ thông qua)
Ngay cả khi ứng dụng chỉ phục vụ người dùng ở New York, ít nhất cũng có thể chịu tác động của ba luật
Hệ thống pháp lý theo từng bang ở Mỹ giống như bãi mìn còn phức tạp hơn cả quy định của EU
Nhưng tôi lại cho rằng chúng sẽ được thực thi theo kiểu các nhà phát triển trung thực bị phạt quá mức
Không chỉ để bảo vệ trẻ vị thành niên, mà còn giúp khôi phục niềm tin bằng cách cho người dùng tự lựa chọn
Vì hệ thống không tất định thì không thể kiểm toán đầy đủ
Thay vào đó, có lẽ thực tế hơn nếu công đoàn hoặc nghiệp đoàn báo chí tự nguyện ghi rõ có sử dụng AI hay không
Thực tế là vẫn bị trói trong hệ thống pháp luật xoay quanh các tập đoàn lớn nhưng lại tin rằng mình vượt trội
Tôi nghĩ cần có nhãn “bài gốc tự đưa tin”
Phần lớn tin tức là thông tin được tái chế nên AI có thể thay thế, nhưng vai trò của phóng viên trực tiếp tác nghiệp thì không thể thay thế
Mọi bài viết đều nên ghi rõ nguồn, và nếu AI tạo ra liên kết sai thì đó là một tín hiệu cảnh báo lớn
Điều mỉa mai là truyền thông lớn lại vẫn được tin tưởng dù nguồn rất hời hợt
Đây là ảnh hưởng từ dự án Civil thời kỳ đầu
Tuy nhiên cần ngoại lệ để bảo vệ nguồn tin ẩn danh của nhà báo
Tin tức do AI tạo ra nhất định phải được biên tập viên con người rà soát
Tổ chức phải chịu trách nhiệm về đầu ra của AI, và không thể chỉ dừng ở một cảnh báo miễn trừ trách nhiệm
Cần tránh biến nó thành một màn trình diễn tuân thủ hình thức như chứng nhận an ninh
Nếu tin sai do AI gây thiệt hại thì cơ quan báo chí phải chịu trách nhiệm
Trước hết phải truy trách nhiệm từ cấp trên xuống
Lý tưởng nhất là việc giả mạo sản phẩm do AI tạo thành sản phẩm do con người sáng tạo phải là bất hợp pháp
Khi cảnh báo bị lạm dụng, mọi người sẽ phớt lờ tín hiệu
Chỉ nên giới hạn ở bài báo thì độ tin cậy của cảnh báo mới được giữ
Vì camera điện thoại thông minh hay Photoshop cũng dùng AI
AI có thể can thiệp ở từng bước
Tôi lo rằng kiểu luật này rốt cuộc sẽ dẫn tới kết quả giống Prop 65, tức là mọi nội dung đều phải gắn cảnh báo “đã dùng AI”
Cụm mơ hồ như “phần lớn có AI tham gia” sẽ trở thành sân chơi của luật sư
Xem wiki Prop 65
Ngay cả biên tập hay hiệu đính cũng có thể bị xem là ‘đóng góp sáng tạo đáng kể’
Theo bài của Washington Post, 78% nhà sản xuất đã điều chỉnh lại thành phần
Tôi đã khởi động một nhóm làm việc chuẩn hóa công bố nội dung AI tại W3C
Đang xây dựng một tiêu chuẩn để website có thể tự nguyện công bố mức độ AI can thiệp
Xem trang W3C và kho GitHub
New York đang muốn 3D printer phát hiện khi in ra bộ phận súng
Nhưng kiểu quy định này rốt cuộc chỉ trở thành cơ chế mà người dùng có thiện chí mới tuân thủ
Không có cách nào phát hiện hoàn hảo liệu một sản phẩm có do AI tạo ra hay không, và giáo dục cùng nâng cao nhận thức là giải pháp thực tế hơn
Rốt cuộc có lẽ mọi website sẽ phải gắn câu như “trang này có thể chứa nội dung AI theo tiêu chuẩn bang New York”
Nếu các cơ quan báo chí gắn cảnh báo lên mọi nội dung thì giá trị của cảnh báo sẽ biến mất
Nếu cơ quan quản lý cấm điều này, báo chí thậm chí có thể quay sang dùng AI cho mọi nội dung
Tôi muốn gọi đó là hiệu ứng Sesame
Tôi không tin những cơ quan truyền thông dán một cảnh báo chung cho mọi bài viết
Toàn bộ cuộc thảo luận này rốt cuộc là vấn đề của văn hóa mù quáng tin vào kết quả AI
Cảnh báo chỉ là giải pháp tạm thời, điều cần thiết là trách nhiệm trong chính cấu trúc ra quyết định
Chúng tôi đang thử nghiệm một hệ thống dựa trên đồng thuận nơi nhiều tác nhân AI độc lập bỏ phiếu và kiểm chứng lẫn nhau
Có thể thử trên CLI mã nguồn mở consensus.tools
Trong thực tế ngập tràn nội dung chất lượng thấp, hệ thống đồng thuận quá tốn kém nên khó áp dụng
Vì vậy, ít nhất nghĩa vụ gắn cảnh báo vẫn là cần thiết