2 điểm bởi GN⁺ 2026-02-07 | 1 bình luận | Chia sẻ qua WhatsApp
  • Cơ quan lập pháp bang New York đã đề xuất một dự luật yêu cầu gắn cảnh báo lên nội dung tin tức do AI tạo ra và bắt buộc phải có con người rà soát
  • Tên dự luật là ‘NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)’, nhằm hướng tới tính minh bạch của ngành tin tức và bảo vệ báo chí
  • Các điều khoản chính bao gồm công khai việc sử dụng AI, rà soát của biên tập viên, thiết lập cơ chế bảo vệ thông tin mật
  • Dự luật chỉ ra vấn đề khả năng sai lệch hoặc đạo văn của nội dung do AI tạo ra, đồng thời cũng bao gồm các điều khoản bảo vệ lao động như cấm sa thải hoặc cắt giảm lương đối với lao động báo chí
  • Các công đoàn truyền thông lớn như WGA-East, SAG-AFTRA, DGA, NewsGuild of New York ủng hộ dự luật, và nó đang được chú ý như một động thái ứng phó với sự xói mòn niềm tin và mối đe dọa việc làm do việc đưa AI vào sử dụng

Tổng quan về NY FAIR News Act

  • NY FAIR News Act, do Thượng nghị sĩ bang New York Patricia Fahy và Hạ nghị sĩ Nily Rozic đồng bảo trợ, yêu cầu các tổ chức tin tức phải ghi nhãn rõ ràng đối với nội dung được tạo bằng AI
    • Với “nội dung được soạn thảo một cách đáng kể bằng trí tuệ nhân tạo tạo sinh”, phải gắn cảnh báo (disclaimer)
    • Áp dụng cho mọi dạng nội dung tin tức, không chỉ bài viết mà còn cả âm thanh, hình ảnh, tư liệu trực quan
  • Mọi nội dung do AI tạo ra đều phải trải qua khâu rà soát trước của nhân sự con người có quyền kiểm soát biên tập
  • Ngay trong nội bộ tòa soạn, việc có sử dụng AI hay không và sử dụng theo cách nào cũng phải được công khai cho các thành viên như phóng viên

Nội dung quản lý chính của dự luật

  • Bao gồm nhiều quy định tập trung vào tăng cường minh bạch AI
    • Bắt buộc thiết lập cơ chế bảo vệ thông tin mật mà AI có thể truy cập được (đặc biệt là thông tin liên quan đến nguồn tin)
    • Bao gồm điều khoản ngoại lệ bảo vệ bản quyền: loại trừ những trường hợp mà quyền tác giả của con người được công nhận theo luật bản quyền
  • Chỉ ra một cách rõ ràng vấn đề độ tin cậy của sản phẩm do AI tạo ra
    • Các nhà lập pháp nêu lý do rằng nội dung AI “có thể sai lệch hoặc gây hiểu lầm” và có “khả năng trích dẫn trái phép hoặc đạo văn

Phản ứng của giới báo chí và công đoàn

  • Dự luật nhận được sự ủng hộ rộng rãi từ các công đoàn lớn trong ngành truyền thông
    • Có sự tham gia của WGA-East, SAG-AFTRA, DGA, NewsGuild of New York
    • Người phát ngôn của NewsGuild, Jennifer Sheehan, xác nhận công đoàn đang thảo luận về tác động của việc đưa AI vào sử dụng và vấn đề bảo vệ việc làm
  • Tháng 12/2025, NewsGuild đã khởi động chiến dịch ‘News Not Slop’, kêu gọi thiết lập các biện pháp bảo vệ đối với việc sử dụng AI trong tòa soạn
    • Tại Thành phố New York, công đoàn của Business Insider đã tổ chức một cuộc biểu tình phản đối các bài báo được đăng với byline AI

Các điều khoản bảo vệ báo chí và quyền lao động

  • Dự luật bao gồm điều khoản cấm sa thải, cắt giảm công việc, cắt giảm lương và phúc lợi do việc áp dụng AI
    • Đây là nỗ lực luật hóa các điều khoản đã được đưa vào hợp đồng công đoàn ở từng tòa soạn trong những năm gần đây
  • Thượng nghị sĩ Fahy cho biết “AI có thể đe dọa báo chí và niềm tin công chúng”, đồng thời nhắc đến việc 76% người Mỹ bày tỏ lo ngại về khả năng AI đánh cắp hoặc tái tạo nội dung tin tức

Bối cảnh và ý nghĩa

  • New York là trung tâm của ngành truyền thông Mỹ, và đây là động thái nhằm đồng thời tăng cường độ tin cậy của báo chí và bảo vệ người lao động
  • Dự luật lần này được đánh giá là nỗ lực lập pháp cấp bang đầu tiên bao quát minh bạch AI, bản quyền và quyền lao động

1 bình luận

 
GN⁺ 2026-02-07
Ý kiến trên Hacker News
  • Thật ngạc nhiên là dạo này tin về lập pháp liên quan đến AI hầu như không được bàn tới
    Chỉ riêng bang New York đã có nhiều dự luật như RAISE (giao thức an toàn AI frontier, giám sát, báo cáo sự cố), S8420A (bắt buộc công khai nhân vật do AI tạo trong quảng cáo), GBL Article 47 (phát hiện khủng hoảng và cảnh báo đối với chatbot AI), S7676B (bảo vệ quyền chân dung AI của diễn viên), NYC LL144 (giám sát thiên lệch của công cụ tuyển dụng AI), và SAFE for Kids Act hạn chế feed thuật toán cho trẻ vị thành niên (đang chờ thông qua)
    Ngay cả khi ứng dụng chỉ phục vụ người dùng ở New York, ít nhất cũng có thể chịu tác động của ba luật
    Hệ thống pháp lý theo từng bang ở Mỹ giống như bãi mìn còn phức tạp hơn cả quy định của EU

    • Nhiều người nghĩ các luật này trên thực tế sẽ không được thực thi
      Nhưng tôi lại cho rằng chúng sẽ được thực thi theo kiểu các nhà phát triển trung thực bị phạt quá mức
    • Tôi mong các luật như SAFE for Kids Act được mở rộng để cung cấp nút tắt feed thuật toán cho mọi người dùng
      Không chỉ để bảo vệ trẻ vị thành niên, mà còn giúp khôi phục niềm tin bằng cách cho người dùng tự lựa chọn
    • Cuối cùng tôi nghĩ việc tuyển dụng bằng AI rất có thể sẽ bị cấm hoàn toàn
      Vì hệ thống không tất định thì không thể kiểm toán đầy đủ
    • Việc gắn cảnh báo lên ấn phẩm là thách thức pháp lý khó hơn vì liên quan đến tự do ngôn luận
      Thay vào đó, có lẽ thực tế hơn nếu công đoàn hoặc nghiệp đoàn báo chí tự nguyện ghi rõ có sử dụng AI hay không
    • Việc Mỹ cười nhạo quy định của EU là một dạng tự hợp lý hóa
      Thực tế là vẫn bị trói trong hệ thống pháp luật xoay quanh các tập đoàn lớn nhưng lại tin rằng mình vượt trội
  • Tôi nghĩ cần có nhãn “bài gốc tự đưa tin”
    Phần lớn tin tức là thông tin được tái chế nên AI có thể thay thế, nhưng vai trò của phóng viên trực tiếp tác nghiệp thì không thể thay thế
    Mọi bài viết đều nên ghi rõ nguồn, và nếu AI tạo ra liên kết sai thì đó là một tín hiệu cảnh báo lớn

    • Trang Forty.news của tôi nói về tin tức từ 40 năm trước mà vẫn thường bị hỏi là “nguồn đâu”
      Điều mỉa mai là truyền thông lớn lại vẫn được tin tưởng dù nguồn rất hời hợt
    • Colorado Sun gắn nhãn loại hình đưa tin cho từng bài
      Đây là ảnh hưởng từ dự án Civil thời kỳ đầu
    • Cũng như ta muốn biết xuất xứ thực phẩm, tính minh bạch về nguồn gốc của thông tin cũng quan trọng
      Tuy nhiên cần ngoại lệ để bảo vệ nguồn tin ẩn danh của nhà báo
    • Thực ra đã có các nhãn như “exclusive!”, nhưng đó không phải là chỉ rõ nguồn gốc theo đúng nghĩa
  • Tin tức do AI tạo ra nhất định phải được biên tập viên con người rà soát
    Tổ chức phải chịu trách nhiệm về đầu ra của AI, và không thể chỉ dừng ở một cảnh báo miễn trừ trách nhiệm
    Cần tránh biến nó thành một màn trình diễn tuân thủ hình thức như chứng nhận an ninh
    Nếu tin sai do AI gây thiệt hại thì cơ quan báo chí phải chịu trách nhiệm

    • Nhưng ngay cả tổng thống còn không phải chịu trách nhiệm khi lan truyền video bị AI thao túng
      Trước hết phải truy trách nhiệm từ cấp trên xuống
  • Lý tưởng nhất là việc giả mạo sản phẩm do AI tạo thành sản phẩm do con người sáng tạo phải là bất hợp pháp

    • Nhưng nếu cái gì cũng gắn cảnh báo thì sẽ có nguy cơ trở nên vô nghĩa như Prop 65
      Khi cảnh báo bị lạm dụng, mọi người sẽ phớt lờ tín hiệu
      Chỉ nên giới hạn ở bài báo thì độ tin cậy của cảnh báo mới được giữ
    • Định nghĩa “do AI tạo ra” vẫn mơ hồ
      Vì camera điện thoại thông minh hay Photoshop cũng dùng AI
    • Cũng khó phân biệt giữa công việc cẩu thả của con người và sản phẩm do AI tạo ra
    • Xuất bản không chỉ là viết mà còn có nhiều bước như nghiên cứu, biên tập, kiểm tra
      AI có thể can thiệp ở từng bước
    • Cuối cùng, ranh giới giữa AI hỗ trợ và AI tạo sinh mới là điểm tranh cãi cốt lõi
  • Tôi lo rằng kiểu luật này rốt cuộc sẽ dẫn tới kết quả giống Prop 65, tức là mọi nội dung đều phải gắn cảnh báo “đã dùng AI”
    Cụm mơ hồ như “phần lớn có AI tham gia” sẽ trở thành sân chơi của luật sư
    Xem wiki Prop 65

    • Dù vậy, như thế có thể cũng giúp lọc nội dung không dùng AI
    • Nhưng giống hầu hết cảnh báo bắt buộc khác, rất có thể nó sẽ trở nên hình thức và vô nghĩa
    • Ngược lại, “No AI!” có thể trở thành tùy chọn cao cấp dành cho giới giàu có
      Ngay cả biên tập hay hiệu đính cũng có thể bị xem là ‘đóng góp sáng tạo đáng kể’
    • Mặt khác, cũng có nghiên cứu cho thấy Prop 65 thực sự đã làm giảm việc sử dụng hóa chất của doanh nghiệp
      Theo bài của Washington Post, 78% nhà sản xuất đã điều chỉnh lại thành phần
  • Tôi đã khởi động một nhóm làm việc chuẩn hóa công bố nội dung AI tại W3C
    Đang xây dựng một tiêu chuẩn để website có thể tự nguyện công bố mức độ AI can thiệp
    Xem trang W3Ckho GitHub

    • Có người hỏi muốn tham gia thì phải làm thế nào
  • New York đang muốn 3D printer phát hiện khi in ra bộ phận súng
    Nhưng kiểu quy định này rốt cuộc chỉ trở thành cơ chế mà người dùng có thiện chí mới tuân thủ
    Không có cách nào phát hiện hoàn hảo liệu một sản phẩm có do AI tạo ra hay không, và giáo dục cùng nâng cao nhận thức là giải pháp thực tế hơn

  • Rốt cuộc có lẽ mọi website sẽ phải gắn câu như “trang này có thể chứa nội dung AI theo tiêu chuẩn bang New York”

    • Rồi có cả câu đùa là hay cứ làm thật như thế luôn đi
  • Nếu các cơ quan báo chí gắn cảnh báo lên mọi nội dung thì giá trị của cảnh báo sẽ biến mất
    Nếu cơ quan quản lý cấm điều này, báo chí thậm chí có thể quay sang dùng AI cho mọi nội dung
    Tôi muốn gọi đó là hiệu ứng Sesame

    • Tôi là nhà báo dữ liệu và có dùng AI ở một mức độ nhất định, nhưng luôn công khai trong phần phương pháp luận
      Tôi không tin những cơ quan truyền thông dán một cảnh báo chung cho mọi bài viết
    • Ngược lại, những nơi thực sự có người xác minh thủ công có thể kỳ vọng tăng lượng người đăng ký
    • Cũng có thể dùng chiến lược khác biệt hóa kiểu “mọi nội dung của chúng tôi đều được con người xác minh”
  • Toàn bộ cuộc thảo luận này rốt cuộc là vấn đề của văn hóa mù quáng tin vào kết quả AI
    Cảnh báo chỉ là giải pháp tạm thời, điều cần thiết là trách nhiệm trong chính cấu trúc ra quyết định
    Chúng tôi đang thử nghiệm một hệ thống dựa trên đồng thuận nơi nhiều tác nhân AI độc lập bỏ phiếu và kiểm chứng lẫn nhau
    Có thể thử trên CLI mã nguồn mở consensus.tools

    • Nhưng đa số người làm nội dung ưu tiên tốc độ và cắt giảm chi phí hơn là độ chính xác
      Trong thực tế ngập tràn nội dung chất lượng thấp, hệ thống đồng thuận quá tốn kém nên khó áp dụng
      Vì vậy, ít nhất nghĩa vụ gắn cảnh báo vẫn là cần thiết