- Meta Platforms đã chính thức thông báo sẽ không ký Bộ quy tắc thực hành về trí tuệ nhân tạo của Liên minh châu Âu (EU)
- Joel Kaplan, Giám đốc chính sách toàn cầu của Meta, nhấn mạnh rằng bộ quy tắc này là quy định quá mức, cản trở đổi mới và tăng trưởng
- Bộ quy tắc này nhằm cung cấp hướng dẫn về tính minh bạch và an toàn để tuân thủ AI Act (được ban hành năm 2024)
- Ủy ban châu Âu đã công bố bộ quy tắc thực hành cuối cùng cho mô hình AI đa dụng vào tuần trước, và mỗi công ty có thể tự quyết định việc ký tham gia hay không
- Ngoài Meta, các công ty như ASML, Airbus cũng tham gia thư yêu cầu hoãn triển khai, trong khi OpenAI bày tỏ ý định tham gia bộ quy tắc thực hành
Bối cảnh Meta từ chối bộ quy tắc thực hành AI của châu Âu
- Meta Platforms đã chính thức công bố quyết định không ký bộ quy tắc thực hành về trí tuệ nhân tạo của Liên minh châu Âu
- Giám đốc chính sách toàn cầu Joel Kaplan cho biết rằng “châu Âu đang đi sai hướng trong vấn đề AI”
- Kaplan cho rằng bộ quy tắc này gây ra sự bất định pháp lý cho các nhà phát triển mô hình và đang đưa vào các biện pháp quá mức vượt ra ngoài phạm vi của AI Act
- Bộ quy tắc thực hành này được xây dựng để cụ thể hóa các yêu cầu về minh bạch và an toàn của AI Act được ban hành năm ngoái, và dự kiến sẽ có hiệu lực từ tháng tới
Tổng quan về bộ quy tắc thực hành AI của Liên minh châu Âu
- Ủy ban châu Âu đã công bố bộ quy tắc thực hành cuối cùng dành cho các mô hình AI đa dụng
- Mỗi công ty có thể tự quyết định có ký bộ quy tắc hay không
- Mục tiêu của bộ quy tắc là cung cấp khung làm việc để tuân thủ AI Act, đồng thời bảo đảm tính minh bạch và an toàn của công nghệ AI
Phản ứng của ngành và các vấn đề chính
- Kaplan của Meta chỉ trích rằng “bộ quy tắc này bị quản lý quá mức, sẽ trở thành rào cản nghiêm trọng đối với việc phát triển mô hình AI và tăng trưởng kinh doanh tại châu Âu”
- Một số tập đoàn lớn như ASML, Airbus đã ký vào thư yêu cầu hoãn triển khai 2 năm, thể hiện lập trường chỉ trích
- Trong khi đó, OpenAI đã chính thức bày tỏ ý định tham gia bộ quy tắc thực hành của châu Âu
Thay đổi lãnh đạo chính sách toàn cầu của Meta
- Joel Kaplan được bổ nhiệm làm Giám đốc chính sách toàn cầu của Meta từ đầu năm 2025
- Trước đó, ông từng là Phó chủ tịch phụ trách chính sách tại Mỹ của Facebook và từng làm việc trong chính quyền George W. Bush
2 bình luận
Bản giải thích về bản dự thảo đầu tiên của EU AI Act từ Latham & Watkins được nhắc tới trong bình luận Hacker News bên dưới
European Commission Releases First Draft of General-Purpose AI Code of Practice
Nội dung chính của dự thảo EU AI Act
Minh bạch
Tuân thủ bản quyền
Text and Data Mining (TDM)
Minh bạch trong tuân thủ bản quyền
Phân loại rủi ro hệ thống
Khung quản lý rủi ro hệ thống
Ý kiến Hacker News
Không chỉ Meta, mà 40 công ty châu Âu cũng đã yêu cầu EU hoãn 2 năm vì việc thực thi Đạo luật AI còn thiếu rõ ràng; code of practice lần này là một bộ tiêu chuẩn tự nguyện và còn bao quát hơn cả luật thực tế; EU cũng ám chỉ rằng nếu tự nguyện tham gia bộ tiêu chuẩn này thì có thể bị điều tiết nhẹ hơn. Tuy nhiên, Meta cho rằng vì đằng nào cũng bị điều tiết ở mọi mặt nên việc tự nguyện đồng ý như vậy không mang lại lợi ích thực tế đáng kể. Điểm quan trọng trong luật là nhà cung cấp mô hình có thể phải chịu trách nhiệm cả khi đối tác sử dụng không phù hợp, đây là yêu cầu rất khắt khe với mã nguồn mở. Ví dụ, nhà cung cấp GPAI phải thiết lập các biện pháp hợp lý để ngăn vi phạm bản quyền, đồng thời được khuyến khích nêu rõ trong hợp đồng rằng đối tác cũng phải tuân thủ các biện pháp đó. Xem thêm phân tích của Latham & Watkins
Đọc đoạn trích dẫn đó có thể hiểu được bối cảnh vì sao EU đưa vào điều khoản ngoại lệ cho phép dùng tài liệu có bản quyền làm dữ liệu huấn luyện mà không cần cấp phép; dù việc thực thi có khó khăn, tôi vẫn thấy đây là một nỗ lực cân bằng khá tinh tế
Tôi thấy bộ tiêu chuẩn này là hợp lý; ngay cả với mô hình AI mã nguồn mở cũng có thể đưa vào điều khoản giấy phép yêu cầu “thực hiện các biện pháp phù hợp để không lặp đi lặp lại việc tạo ra đầu ra giống hệt hoặc tương tự với nội dung được bảo hộ bản quyền”. Đây là luật châu Âu chứ không phải luật Mỹ, và khái niệm “hợp lý (reasonable)” sẽ được thẩm phán diễn giải bằng cách cân nhắc lợi ích của cả hai bên, chứ không chỉ dựa vào cách hiểu mặt chữ
Thật bực bội khi một ngành còn non trẻ như thế này lại bị điều tiết quá sớm trong khi chẳng ai biết thị trường sẽ phát triển ra sao
Tôi không nghĩ bộ tiêu chuẩn này là quá đáng, xét ở chỗ nếu bạn tạo ra một mô hình có thể tái tạo nguyên xi vô số tác phẩm có bản quyền thì không nên cho phép phát hành nó; điều đó cũng sẽ không được chấp nhận với phần mềm thông thường, nên không thể chỉ vì là mô hình AI mà được ngoại lệ
Phần nói rằng nhà cung cấp mô hình phải chịu trách nhiệm cả cho việc đối tác lạm dụng không có trong nguyên văn luật[0], mà nằm trong chương bản quyền của Code of Practice. Tuy nhiên, Code này không áp thêm yêu cầu mới ngoài luật mà mang tính minh họa cách có thể tuân thủ luật “như thế nào”. Ví dụ, luật yêu cầu tôn trọng “machine-readable opt-out” nhưng không nêu cách cụ thể, còn code thì lấy robots.txt làm ví dụ. Nội dung liên quan bản quyền được ghi ở measure 1.4, gồm: a) áp dụng biện pháp kỹ thuật để mô hình không tái tạo nội dung vi phạm bản quyền, b) nêu rõ trong điều khoản sử dụng hoặc tài liệu rằng không cho phép sử dụng để vi phạm bản quyền; với mô hình mã nguồn mở thì chỉ cần thông báo điều đó trong tài liệu. Code of Practice này chỉ áp dụng khi tự nguyện ký tham gia; không phải ai đó lấy mô hình của tôi đi ký là tôi phát sinh trách nhiệm, cũng giống như việc công bố plugin Photoshop theo GPL không thể buộc phải công khai mã nguồn Photoshop. Trong luật có khá nhiều ngoại lệ cho mã nguồn mở. Có vẻ Meta phản đối vì EU AI Office không công nhận Meta AI là mã nguồn mở nên không được hưởng các ngoại lệ này. Xem nguyên văn tại liên kết luật và liên kết Code of Practice
Tôi thừa nhận chỉ riêng phản ứng của Meta cũng khiến tôi thiên về cảm giác rằng đạo luật AI lần này hẳn là điều chúng ta thực sự cần, dù thật ra tôi còn chưa rõ chính xác bên trong có gì
“AI Code of Practice” gồm tổng cộng 3 chương, có thể xem tại đây và lịch sử các bản nháp. Tôi vẫn chưa đọc toàn văn, chỉ quen với Đạo luật AI trước đó (artificialintelligenceact.eu); đoán chừng Meta chủ yếu phản đối chương 2, phần về bản quyền, đặc biệt là điểm xung đột với thực tiễn crawl dữ liệu bản quyền không xin phép. Đến giờ việc đó có thực sự thuộc “fair use” hay không vẫn còn chưa rõ
Tôi không nghĩ rằng chỉ vì một công ty “xấu” thì mọi lập luận của họ mặc nhiên đều sai
Với ai muốn xem tóm tắt hướng dẫn, có thể xem ở đây; quả thực đây là một bộ quy định nặng gánh, và nhìn vào thì có vẻ chủ yếu có lợi cho các chủ sở hữu bản quyền lớn, luật sư và quan chức
Những quy định như vậy cuối cùng có thể trở thành cái bẫy với doanh nghiệp châu Âu. Khi vượt qua một quy mô nhất định thì gánh nặng tuân thủ tăng vọt, khiến các công ty AI nhỏ hoặc mới ở châu Âu sợ phải vượt qua ngưỡng tăng trưởng đó. Trong khi đó, big tech Mỹ và Trung Quốc có thể đổi mới nhanh hơn nhiều, vừa nâng cấp trình độ AI vừa tích lũy vốn; đến khi vào thị trường EU, họ sẽ có sản phẩm hoàn thiện hơn và tiềm lực tài chính mạnh hơn, khiến cuộc cạnh tranh thực sự nghiêng về phía họ
Châu Âu chưa từng xây dựng được ngành AI đúng nghĩa, vậy mà lại muốn điều tiết cả ngành một cách quá chi li. Mức độ điều tiết gần như là điều tiết vì điều tiết. Tôi từng kỳ vọng báo cáo năng lực cạnh tranh EU của Draghi sẽ là bước ngoặt cho thay đổi, nhưng rất thất vọng khi EU trên thực tế chẳng đổi hướng chút nào. Điều đó làm tôi mất niềm tin vào chính sách của EU
Bạn nói đây là quy định “nặng gánh”, nhưng cụ thể điểm nào khiến bạn thấy nặng gánh đến vậy?
Các quy định của EU đôi khi từng có sức mạnh khiến cả thế giới phải làm theo, như chính sách cookie chẳng hạn. Nói chung, để thiểu số áp đặt được yêu cầu lên số đông thì chi phí tuân thủ phải thấp hơn chi phí chống lại. Nhưng AI thì khác: cuộc chơi quá lớn và sẽ không ai dừng lại. Trừ khi có chiến tranh hạt nhân, AI sẽ không thể bị ngăn lại
Rủi ro tiềm tàng của AI là cực kỳ lớn, từ vũ khí tự động cho đến AGI ác ý đều có thể hình dung được. Đức vẫn còn ám ảnh từ thời Đông-Tây Đức bị chia cắt với các súng máy tự động, còn Ukraine hiện cũng đang chịu cú sốc tâm lý nặng nề từ chiến tranh drone. Những rủi ro thực chất của AI là có thật, nên quy định và luật pháp là điều bắt buộc
Kết quả của luật cookie chỉ là mọi người bị hành hạ bởi popup bất tận; không có uBlock thì dùng web gần như là cực hình. Theo dõi người dùng đã chuyển sang phía server, còn quyền riêng tư thực tế thì không được cải thiện. Có quá nhiều tiền luân chuyển nên ngành công nghiệp rất dễ lách qua những quy định lỏng lẻo như vậy
Tôi khá ngạc nhiên khi có nhiều bình luận đồng tình với quy định châu Âu một cách gần như vô điều kiện; không biết có phải tôi là người duy nhất cho rằng về cơ bản quy định của châu Âu là quá mức và được thiết kế kém hay không
Từ trước đến nay châu Âu chưa từng đưa ra chính sách nào phá được thế độc quyền của big tech Mỹ; phần lớn người dùng EU vẫn phụ thuộc vào Google, Meta và Amazon. Có vẻ mục tiêu của EU không phải đối đầu trực diện với doanh nghiệp Mỹ, mà là giữ phép lịch sự và bảo vệ một phần lợi ích an ninh quốc gia. Đó là một lập trường quá ôn hòa nhưng về bản chất lại hợp lý
Nếu xét từ góc độ bảo vệ công dân, tôi không rõ việc quy định nghiêm ngặt hơn thì có gì là xấu
Việc khẳng định là “mù quáng” đồng nghĩa với việc bạn cho rằng mình đúng còn người khác chỉ vì không biết nên mới đưa ra quyết định đó. Chính bạn cũng nói là mình “về cơ bản giả định” như vậy, nên chẳng khác nào đang tự phê phán mình
Thực ra có vẻ đã có quá nhiều ý kiến từ bên ngoài can thiệp theo hướng muốn kiềm chế châu Âu
Chính việc “về cơ bản giả định” mới là vấn đề. Thay vì mặc định như vậy, hãy tự đọc các nội dung liên quan và hình thành quan điểm của riêng mình. Tôi nghĩ sẽ tốt hơn nếu mỗi người có quan điểm riêng, thay vì chỉ lặp lại ý kiến của các tập đoàn đa quốc gia xuyên biên giới
Tôi lo rằng EU rồi cũng sẽ gắn popup lên cả LLM giống như với mọi website
Internet vốn đã đầy popup và các kiểu UX đánh lạc hướng sự chú ý, nên thật lạ khi thứ duy nhất bị đem ra than phiền lại là popup cho người dùng cơ hội trực tiếp chọn từ chối bị theo dõi
Bắt buộc phải có popup không phải do EU mà do phía doanh nghiệp. Nếu các website giảm hoặc tránh hẳn việc thu thập dữ liệu thì đã chẳng cần popup; thay vào đó họ chấp nhận hy sinh trải nghiệm để đưa vào những popup vô nghĩa. Kết quả là tình trạng hỗn loạn như hiện nay. Ít nhất thì các website không thu thập gì cả (ví dụ: blog của Fabien Sanglard) hoàn toàn không có popup. Sai lầm của EU là đã không lường trước kiểu lạm dụng này, và kết quả thì đúng là rất tệ
Không cần popup vẫn hoàn toàn làm được, nhưng ai cũng chỉ mải bắt chước các công ty lớn. Bắt chước quan trọng hơn trải nghiệm người dùng
Tôi thực sự ghét mấy popup kiểu này; việc tình trạng đó vẫn bị bỏ mặc cho thấy những người phụ trách chậm chạp đến mức nào
Tôi đoán mục tiêu là kìm hãm sự tăng trưởng của Meta. Nhưng theo bài đăng trên LinkedIn, Meta lại nói họ lo ngại cho tăng trưởng của doanh nghiệp châu Âu: “Những quy định quá mức như vậy sẽ cản trở việc phát triển/triển khai các mô hình AI frontier tại châu Âu, đồng thời làm nản lòng cả các doanh nghiệp châu Âu muốn xây dựng hoạt động kinh doanh trên đó”
Khi Meta nói rằng họ “chia sẻ mối lo ngại với các công ty khác”, ý thực sự chỉ là họ đang dùng lập luận thuận tiện nhất cho PR vào thời điểm đó. Trên thực tế họ không hề quan tâm đến lợi ích công hay lợi ích của doanh nghiệp khác, mà chỉ muốn thu thập thêm dữ liệu và bán thêm quảng cáo
Nếu lướt qua Code of Practice thực tế thì chẳng có gì đặc biệt quá đáng hay có thể gọi là “lạm quyền quá mức”. Cuối cùng thì chỉ là các nhà cung cấp mô hình phải hành xử minh bạch, và điều này xung đột với cách làm lâu nay của Meta mà thôi
Trong bài đăng LinkedIn của Kaplan hoàn toàn không nói rõ điểm nào của chính sách là vấn đề; thậm chí tôi nghĩ cái gọi là “cản trở tăng trưởng” có khi chỉ là những thứ khá khiêm tốn như bắt buộc opt-in khi tung tính năng mới
Môi trường toàn cầu ngày càng bị phân cực, và tôi nghĩ Meta cũng góp phần làm khuếch đại sự bất mãn và xung đột đó. Một ngày nào đó tôi muốn đến châu Âu và tự do sử dụng các LLM mã nguồn mở
Tôi hy vọng cuộc thảo luận này sẽ không trôi theo kết luận rằng “có quy định thì AI sẽ ngừng phát triển”; chúng ta cũng cần đặt đủ giá trị vào việc bảo vệ bản quyền và nguồn gốc thông tin