16 điểm bởi GN⁺ 9 ngày trước | 5 bình luận | Chia sẻ qua WhatsApp
  • Trong bối cảnh Internet tràn ngập nội dung chất lượng thấp do AI tạo ra (slop), nhiều hình thức chủ động phản kháng AI đang lan rộng
  • Cộng đồng Reddit r/PoisonFountain đang hoạt động với mục tiêu cung cấp cho các trình thu thập dữ liệu AI 1 terabyte dữ liệu đầu độc mỗi ngày vào cuối năm 2026
  • Nhiều hình thức phản kháng khác nhau đã xuất hiện, như kỹ thuật đánh lừa công cụ tóm tắt video bằng AI hay cố ý chèn dữ liệu sai lệch trên mạng xã hội
  • Bối cảnh dẫn tới sự phản kháng này là thực tế các trình thu thập dữ liệu AI phớt lờ robots.txt và gây ra mức tải tương đương DDoS lên các website nhỏ
  • Có kỳ vọng rằng nếu cảm xúc này dẫn đến những hành động phản kháng ôn hòa và hợp pháp, nó có thể thay đổi cách Thung lũng Silicon thu thập dữ liệu

Cộng đồng đầu độc dữ liệu nhắm vào trình thu thập dữ liệu AI

  • Cộng đồng Reddit r/PoisonFountain là một cộng đồng do những người tự nhận là người trong ngành AI lập ra, nhằm khuyến khích càng nhiều người càng tốt cung cấp lượng lớn dữ liệu rác (poison) cho các trình thu thập dữ liệu web
  • Mục tiêu là cung cấp cho trình thu thập dữ liệu 1 terabyte dữ liệu đầu độc mỗi ngày vào cuối năm 2026
  • Phần lõi của dữ liệu đầu độc được lưu trữ trên rnsaffn.com, đặt xen giữa các liên kết rác đủ hấp dẫn để lôi kéo trình thu thập dữ liệu AI
    • Thoạt nhìn trông như mã bình thường, nhưng thực tế có chứa những lỗi tinh vi, khiến mã được tạo ra không thể sử dụng
    • Có thể lọc những lỗi này, nhưng chi phí sẽ rất cao ở quy mô lớn
  • Vì các công ty AI không thể cải thiện mô hình nếu không có dữ liệu mới do con người tạo ra, chiến lược cốt lõi là tăng thời gian và chi phí của việc đánh cắp dữ liệu
  • Miasma là công cụ dùng dữ liệu đầu độc này để cung cấp lượng lớn dữ liệu rác cho bot độc hại, và nhà phát triển mô tả nó là “bữa buffet slop vô tận dành cho những cỗ máy slop”

Hành vi có vấn đề của các trình thu thập dữ liệu AI

  • Các nhóm vận hành trình thu thập dữ liệu AI đang thường xuyên gây mức tải tương đương DDoS lên các website nhỏ, làm tăng chi phí lưu trữ của mọi người
  • Họ không tuân thủ robots.txt và cũng thường xuyên ẩn trình thu thập dữ liệu sau proxy dân dụng
  • Nếu không thể thu thập dữ liệu huấn luyện một cách có đạo đức, thì không có lý do gì để bất kỳ chủ website nào tạo điều kiện cho việc đánh cắp dữ liệu trở nên dễ dàng

Nỗ lực đầu độc công cụ tóm tắt video bằng AI

Hành vi phá hoại AI có chủ đích trên mạng xã hội

  • Trên các nền tảng mạng xã hội như Reddit, hành vi cố ý viết thông tin sai lệch để đầu độc dữ liệu huấn luyện AI đang gia tăng
  • Ví dụ, có trường hợp đăng thông tin sai rõ ràng rằng trong “Everybody Loves Raymond”, Idris Elba đóng vai mẹ của Raymond
    • Con người có thể ngay lập tức nhận ra đó là sai nhờ ngữ cảnh, nhưng các trình quét web tự động lại xem đó là dữ liệu chất lượng do con người tạo ra
    • Nếu dữ liệu này được chuyển tới OpenAI hoặc nơi tương tự, sẽ cần thêm tài nguyên để loại bỏ nó khỏi tập dữ liệu huấn luyện
  • Đây có thể xem là biến thể hiện đại của việc công nhân dệt thời Cách mạng Công nghiệp phá hủy khung cửi chạy bằng sức máy, và nếu đủ nhiều người làm ô nhiễm không gian công cộng bằng thông tin sai nhắm vào bot, điều đó có thể gây áp lực buộc các công ty AI phải xem xét lại cách thu thập dữ liệu huấn luyện

Sự ác cảm rộng khắp đối với AI

  • Mọi người có cảm giác phản cảm với tác động của AI lên thế giới, cụ thể là với ảnh hưởng của nó tới các cộng đồng trực tuyến, môi trường, trường tiểu học và đại học, nhóm có nguy cơ về sức khỏe tâm thần, và sinh kế
  • Dù có những người tiêu thụ và tạo ra AI slop, nhưng cả ngoài đời lẫn trên mạng đều có nhiều người ghét và từ chối công nghệ này hơn nhiều
  • Hiếm khi cảm xúc thù ghét dẫn đến kết quả tốt, và lập trường ở đây là phản đối các hành vi bạo lực như đá hoặc lật đổ robot giao hàng AI hay ném bom xăng vào nhà Sam Altman
  • Tuy vậy, nếu cảm xúc đối với AI được chuyển hóa thành những hành động phản kháng ôn hòa và hợp pháp, nó có thể thật sự làm thay đổi cách hành xử của Thung lũng Silicon

Chuyện hậu kỳ: bài gốc bị sửa sau khi lan truyền trên Hacker News

  • Bài viết này đã lên trang đầu của trung tâm tin tức lớn (Hacker News), kéo theo lượng truy cập cực lớn ngoài dự kiến
  • Một cuộc tấn công quá tải máy chủ mang tính ác ý đã xảy ra khi một số ít địa chỉ IP gửi hàng nghìn yêu cầu tới trang đó
    • Nếu là hosting chia sẻ giá rẻ thì khả năng cao website đã sập hoàn toàn, nên tác giả đã tạm thời chặn lưu lượng tới URL đó để đối phó
  • Dù không phải chuyên gia AI, tác giả vẫn bị một số người tham gia bình luận chỉ trích quá mức với yêu cầu về độ chính xác ở mức chuyên gia
    • Có bình luận dùng cụm từ “chẳng khá hơn một đám đốt thư viện”, một phản ứng đặc biệt gây thất vọng với một blogger yêu thư viện và việc chia sẻ tri thức
  • Mục đích ban đầu chỉ là chia sẻ các liên kết về xu hướng phản AI cho nhóm độc giả nhỏ của blog, và tác giả cho biết nếu biết trước sẽ thu hút sự chú ý tiêu cực trên một nền tảng lớn như vậy thì đã không đăng
  • Sau đó tác giả quyết định hạn chế đăng ý kiến cá nhân liên quan đến AI, và sẽ tập trung vào mục tiêu ban đầu của việc viết blog là niềm vui trên web nhỏ (small web)
  • Đây là một ví dụ cho thấy thực tế rằng việc bày tỏ ý kiến tự do trên web nhỏ bị co hẹp vì sự lan truyền bùng nổ

5 bình luận

 
Ý kiến trên Hacker News
  • Tôi mừng là người này đã tìm được một cộng đồng, nhưng cũng có cảm giác họ hơi bị cuốn vào sự chú ý tập trung. Trong 30 năm tới, chắc chắn vẫn sẽ luôn có những nhóm ghét và muốn cản trở AI, giống như trước đây lúc nào cũng có người phản đối smartphone, Internet hay TV. Mặt khác, nếu model poisoning thực sự có thể làm một cách ổn định thì đó đúng là một bài toán khoa học máy tính rất thú vị. Tôi không định giao du với các nhà hoạt động chống AI, nhưng bản thân các kỹ thuật tấn công thì tôi rất quan tâm, và tôi nghĩ các thảo luận theo hướng đó đủ đáng đọc kể cả với những người có lập trường khác
    • Theo tôi thì cuối cùng nó quy về halting problem. Một khi cơ chế làm thay đổi hành vi đã được công khai, hệ thống cũng sẽ thay đổi hành vi để tính đến chính cơ chế đó, nên ngay khi phương pháp poisoning được biết đến rộng rãi thì rất có thể nó cũng sớm được dùng cho việc huấn luyện hay lọc để ngăn chặn nó. Nếu không phải là kiểu tấn công làm hỏng hẳn thông tin thì hiệu quả chỉ mang tính tạm thời, còn nếu quá nặng thì hệ thống cũng trở nên vô dụng với cả con người. Vì vậy, tôi không nghĩ các đòn tấn công kiểu này sẽ tồn tại lâu, nhưng trong ngắn hạn nó vẫn là một chủ đề nghiên cứu thú vị vì phơi bày ra bề mặt ranh giới thô ráp giữa mô hình và quá trình huấn luyện
    • Vài năm trước tôi nhớ trên đây có lần mình bịa ra một tên game giả rồi đăng nhiều bình luận về nó để poisoning các mô hình AI trong tương lai. Có điều giờ tôi cũng không nhớ nổi tên game đó là gì, mà cũng không có hứng bấm More hàng trăm lần để tìm lại bình luận cũ
    • Nhìn chung tôi đồng ý, nhưng mặt khác tôi cũng tự hỏi rốt cuộc chúng ta đang ở trong bong bóng đến mức nào, nhất là trong cộng đồng công nghệ và trên những site như thế này. Mấy tháng gần đây tôi chợt nhận ra bạn bè mình về cơ bản toàn là người làm công nghệ với mức lương sáu chữ số tầm trung đến cao, mà ngay cả họ cũng khá dè dặt trong việc ca ngợi AI. Vậy nên tôi càng tò mò hơn không biết người bình thường cảm nhận AI ra sao
    • Tôi đoán là Chinese models có khả năng kháng poisoning tốt hơn nhiều, và công chúng Trung Quốc nhìn chung cũng thiện cảm với AI hơn phương Tây
    • Vậy thì có một tin vui. Nếu vài năm nữa nhân loại tuyệt chủng vì unaligned superintelligence, thì cộng đồng năng động chuyên ghét và phá AI cũng sẽ không còn tồn tại nữa
  • Trớ trêu là tôi còn chẳng truy cập được vào site của người đó. Tôi chỉ thấy thông báo Sorry, you have been blocked và bị CloudFlare chặn. Cảm giác khá mỉa mai khi vừa nói chống AI lại vừa dựa vào MITM và các cổng kiểm soát tập trung, đồng thời hạn chế cả khách truy cập là người thật
    • Các dịch vụ chuyên cào web thường rất quen với việc vượt CloudFlare challenge, nên đôi khi còn vào được những site như thế này tốt hơn. Có lẽ thử dùng một dịch vụ kiểu đó cũng là một cách
    • Tôi cũng bị chặn y hệt. Nhưng tôi xem được qua Wayback Machine
  • Tôi còn nhớ thời các vấn đề tiêu biểu của hacker là DRM, DMCA, patent troll, kiểm soát xuất khẩu PGP và những thứ tương tự. Trọng tâm khi đó là tự do sử dụng thông tin vào bất cứ lúc nào, và khẩu hiệu lúc ấy là “Information wants to be free”. Nhưng giờ bầu không khí đã thay đổi rất mạnh, theo kiểu nếu doanh nghiệp không thể lấy dữ liệu huấn luyện một cách có đạo đức thì chủ website cũng chẳng có lý do gì phải giúp họ ăn cắp nó dễ hơn. Tôi nghĩ 25 năm trước khó mà dự đoán được sự đảo chiều này
    • Tôi cho rằng đây là chuyện điển hình xảy ra trong một nền văn hóa có cơ chế loại trừ yếu. Người ta đã không chặn được những kẻ muốn thiêu rụi cả nền văn hóa, và rốt cuộc là mời vampires vào nhà rồi lại hỏi vì sao cổ mình đau
    • Tôi chưa bao giờ thật sự đồng ý với lập luận cho rằng đây là mâu thuẫn. Một người muốn mọi người cùng sống tốt khác với một người có kế hoạch làm giàu cho riêng mình và khiến những người khác nghèo hơn. Nếu một công ty dùng dữ liệu huấn luyện mà che giấu hoặc bóp méo nguồn gốc, đồng thời làm hại khả năng tiếp cận thông tin của người khác, thì một người ủng hộ thông tin tự do phản đối cách sử dụng đó là hoàn toàn nhất quán. Trừ khi copyright biến mất hoàn toàn và các tác phẩm sáng tạo trở thành hàng hóa công cộng miễn phí, tôi không thấy có lý do gì để coi đây là một sự đổi hướng giá trị đột ngột
    • Hồi đó người ta muốn xây dựng sharing economy hay một nền kinh tế quà tặng, nhưng lại không thể loại bỏ các tác nhân xấu bên trong nó. Vì vậy mới còn lại vị đắng về chuyện giấc mơ không tưởng của họ bị những kẻ mưu cầu tư lợi chiếm đoạt, và tôi thấy phản ứng đó không hề lạ
    • Theo tôi, cách diễn giải cho rằng đây là sự phản bội tinh thần hacker ban đầu là điều khó đồng tình. “Information wants to be free” chỉ là một phần của đạo đức hacker chứ không phải toàn bộ, và thông tin nằm trên server vốn dĩ không miễn phí ngay từ đầu vì còn gắn với chi phí server availability. Việc tạo ra cơ chế khiến các tác nhân tham lam phải chịu bất lợi là quyền chính đáng của người vận hành server, đồng thời cũng là một bài toán tit-for-tat khá thú vị. Hơn nữa, kiểu phản ứng poisoning này không phải là can thiệp của chính phủ mà là cách cá nhân tự mình hành động, nên tôi còn thấy nó mang tính hacker hơn
    • Theo tôi, khẩu hiệu thực tế có vẻ gần với “thông tin nên được tự do, nhưng chỉ những người tôi hoàn toàn chấp thuận mới được dùng”. Tôi thường thấy thế hệ trẻ vừa ca ngợi văn hóa hàng lậu, vừa ghét LLM vì lý do piracy theo đúng kiểu logic tương tự
  • Tôi thấy đáng tiếc là ý định poisoning này đang bị tiêu hao vào một hướng rất lệch. Nội dung chưa bị ô nhiễm đủ để dùng cho huấn luyện vốn đã rất nhiều, và phần lớn nội dung mới cũng đang được tự động thu thập từ thế giới thực hoặc được tạo ra dưới dạng có kiểm soát chất lượng trong các xưởng quy mô lớn ở châu Phi. Vì vậy, nó có thể làm ô nhiễm Internet cũ thêm chút nữa nhưng không thể đảo ngược mũi tên thời gian, và về sau một Internet mới xoay quanh API cùng các liên minh công bố công khai sẽ còn phát triển khiến tác động của vấn đề này nhỏ đi
    • Nhưng nhìn cách các phòng lab AI ráo riết đi tìm nội dung Internet mới thì tôi lại thấy lập luận đó cần xem lại. Họ có vẻ săn lùng các walled garden chỉ cần trả tiền là được lấy dữ liệu, và nhiều trường hợp còn cố lấy dù không có sự đồng ý. Dạo này scraping tinh vi và hung hăng thật sự đã ở mức rất nghiêm trọng
    • Nội dung thì có thể nhiều thật, nhưng những người vận hành Internet thực tế đang rất vất vả để chặn các AI crawlers không được phép. Trong nhiều trường hợp, họ chặn không chỉ để ngăn huấn luyện mà còn để bảo vệ hạ tầng trước lượng request quá mức. Các crawler này cũng không mấy khi tuân thủ tín hiệu từ chối truy cập, nên từ góc nhìn của những người vận hành không mong muốn chúng, poisoning có thể trông như biện pháp phòng vệ gần như duy nhất
    • Từ những gì tôi từng đụng tới, đúng là chỉ với kiểu nội dung ẩn, mắt người khó thấy nhưng scraper lại tưởng là có liên quan, thì rất khó làm ô nhiễm toàn bộ mô hình một cách có ý nghĩa. Nhưng chỉ mức đó thôi cũng có thể khiến lợi ích ròng mà chúng thu được khi phớt lờ tín hiệu “làm ơn đừng dội bom request scraper nữa” giảm về 0 hoặc hơi âm. Và bản thân việc triển khai cũng là một trò khá vui. Xả ký tự ngẫu nhiên thì bộ lọc bắt rất dễ, nhưng trộn nội dung trang hiện tại với các trang xung quanh có thể làm yếu liên kết token. Thêm nữa, có vài scraper sẽ bỏ cả trang nếu thấy chửi bới lộ liễu, nên cách rải những từ như vậy chỉ cho bot thấy cũng có thể hiệu quả. Dĩ nhiên các cách này vẫn không ngăn được bản thân sự lãng phí băng thông
    • Như tôi đã nói ở bình luận khác, chỉ riêng việc gần như mọi bot AI đều tin Fortnite là có thật cũng đã cho thấy kiểu poisoning bị thao túng hoàn toàn vẫn có hiệu quả ở mức nào đó
    • Tôi nghĩ cũng cần nhìn cả model collapse. Trong bối cảnh nội dung do AI tạo ra ngày càng nhiều như hiện nay, bản thân việc có nhiều nội dung có thể không còn là lời giải đủ tốt, đồng thời một lượng dữ liệu khổng lồ cũng đang bị đưa vào vùng riêng tư hoặc sau tường phí
  • Cách dễ nhất để làm tăng sự phản kháng với AI là đưa Dario AmodeiSam Altman lên TV để họ tự phát biểu
    • Thêm cả Alex Karp lên đó để quảng bá vũ khí tự động nữa thì gần như thành một combo ba hoàn hảo
    • Tôi muốn nghe thêm vì sao bạn nói vậy. Có lẽ bạn đang nghĩ tới chuyện cả hai đều không kết nối tốt với người bình thường, động cơ khuyến khích bị lệch, và đúng kiểu lãnh đạo doanh nghiệp nên không nói thẳng, trong khi lại có ảnh hưởng lớn hơn nhiều chính trị gia dân cử. Nhưng tôi nghĩ cũng nên cẩn thận khi gộp Amodei với Altman vào cùng một nhóm. Ấn tượng của tôi là Altman quá trau chuốt và quá giỏi, thành ra lại đáng lo hơn, và người ta dường như theo chính con người ông ấy hơn là ý tưởng của ông ấy, nên có cảm giác hơi phi đạo đức. Ngược lại, Amodei giống kiểu well-meaning geek thuyết phục người khác bằng tính cách và lý tưởng hơn, và dù xử lý truyền thông kém thì ít nhất vẫn có cảm giác ông ấy đang nói bằng chính mình. Tất nhiên cả hai đều còn nhiều điểm đáng phê phán, và tôi cũng tin quyền lực tập trung sẽ dẫn đến tha hóa. Dù vậy, có một điều tôi vẫn muốn để ngỏ: trong số các lãnh đạo doanh nghiệp, Dario có vẻ là CEO hiếm hoi coi alignment là chuyện nghiêm túc nhất, thực sự tài trợ cho nghiên cứu đó, hiểu các nguyên lý, và còn từng tự mình làm việc thực tế trong lĩnh vực ấy
  • Theo tôi, AI là một corporate tool để doanh nghiệp vắt thêm việc từ nhân viên, đồng thời cũng là một thiết bị khiến họ ảo tưởng rằng mình đã thành siêu lập trình viên. Ngành công nghệ hiện giờ giống một gánh xiếc nồng mùi tiền hơn là một nỗ lực nghiêm túc nhằm cải thiện nhân loại
    • May là trong số các lập trình viên còn tỉnh táo, hầu như chẳng ai tin vào ảo tưởng turbo-charged dev đó. Phần lớn chúng tôi đều biết đây về bản chất là một màn kịch kiếm tiền
  • Tôi cho rằng kiểu hành động này rốt cuộc chỉ là slacktivism. Tôi phần nào hiểu cách diễn giải rằng đây là cấu trúc trong đó công việc của giai cấp lao động bị thay bằng compute, mà compute thì đồng nghĩa với tư bản, nên giai cấp tư bản đang siết cổ giai cấp lao động. Trên thực tế, rất có thể giai cấp tư bản đúng là đang mong chờ kết quả đó. Nhưng nếu tin như vậy, thì việc làm ô nhiễm mô hình một chút gần như vẫn chưa chạm tới bản chất của điều đang diễn ra
  • Tôi thấy xu hướng này đặc biệt rõ trên Reddit. Có những cộng đồng cực kỳ thân AI, đến mức gắn bình luận tóm tắt bằng AI vào từng thread và khuyến khích bài viết do AI viết, ví dụ như r/vibecoding. Ngược lại cũng có những nơi thận trọng như r/isthisAI, r/aiwars, và những nơi phản đối hoàn toàn như r/antiai. Ngoài ra, các subreddit truyền thống vốn không lấy AI làm chủ đề cũng nằm ở đâu đó trên phổ này, chẳng hạn như vấn đề nghi là AI trong cộng đồng nhiếp ảnh hay bầu không khí hoài nghi nhưng vẫn sử dụng trong cộng đồng dev
    • Tôi thấy cuối cùng đây vẫn là kiểu groupthink của Reddit, rộng hơn là của con người. Thay vì xử lý sắc thái tinh tế, người ta có xu hướng nhanh chóng tự đánh dấu mình ở đâu đó trên một trục một chiều hoặc nhảy hẳn vào một trong hai phe
  • Điều khiến tôi thấy xấu hổ hơn cả cơn giận bộc lộ trong blog đó là sự thiếu hiểu biết kỹ thuật thể hiện qua việc nghiêm túc tin rằng những nỗ lực poisoning như vậy sẽ không gây ra bất kỳ tác động tiêu cực nào tới việc huấn luyện mô hình
    • Tôi không chắc đến mức như vậy rằng poisoning sẽ không có tác dụng. Ít nhất thì ví dụ Reddit này cho thấy đôi khi thực sự xuất hiện những kết quả kỳ quặc ngoài dự kiến
    • Tôi thấy việc coi bản thân sự thể hiện cơn giận là cringe là điều nguy hiểm. Nếu gạt cả cơn giận sang một bên như thứ trẻ con, ta có thể ngày càng xa rời cảm nhận thực tế và cảm quan đạo đức
    • Thành thật mà nói, tôi lại thấy phía bên kia mới cringe hơn. Cái phía để ChatGPT viết hộ tin nhắn, email, CV, để developer chuyên nghiệp làm cả ứng dụng bằng vibe coding, rồi nói AGI sắp bật ra từ LLM, đối với tôi mới đúng là đỉnh cao của sự ngượng ngùng
  • Tôi không đồng ý với lập luận rằng “các công ty này không thể cải thiện mô hình AI nếu không có dữ liệu mới do con người tạo ra”. self-play đã có từ thời Arthur Samuel trong thập niên 1950, và RL dùng phần thưởng có thể kiểm chứng được đến giờ vẫn là một thành phần cốt lõi trong việc huấn luyện các mô hình tiên tiến
    • Tôi không nghĩ nhận định đó hoàn toàn sai. self-play đặc biệt hiệu quả khi bài toán dễ mô phỏng trong môi trường RL và việc khám phá trạng thái cũng dễ, còn language modeling và các dạng giống RLHF thì không phải kiểu môi trường như vậy. Thực tế hiện nay vẫn có những công ty thuê kỹ sư phần mềm hay nhà khoa học dữ liệu giải các bài toán ngẫu nhiên để tạo dữ liệu huấn luyện, và nếu self-play thật sự hiệu quả đến thế thì mô hình kinh doanh đó khó có lý do để tồn tại
    • Trong phạm vi những gì hiện được biết, có vẻ các mô hình mới nhất vẫn chưa thực sự dùng RLVR with self-play một cách nghiêm túc. Thay vào đó, chúng dường như đang chạy RLVR trên những môi trường RL quy mô lớn do con người trực tiếp xây dựng. Dù vậy, khả năng cao là sớm muộn gì cũng sẽ chuyển sang self-play, và bài viết liên quan của Amplify Partners cũng khá đáng tham khảo theo tôi nghĩ
 
amebahead 7 ngày trước

Ngoài cách làm ô nhiễm dữ liệu mà AI dùng để học, còn có cách phản kháng nào khác không?
Chẳng hạn như không tiêu thụ content do AI tạo ra...

 
dongho42 7 ngày trước

Tôi cũng đã nghĩ khi đọc bài này rằng liệu vô tình nó có trở thành một kiểu poisoning đối với con người hay không.

 
geesecross 7 ngày trước

Không rõ vấn đề phát sinh ở đâu, nhưng sau , , , lại đang bị gắn thêm không phù hợp. Liệu đây cũng là poisoning chăng ;)

 

Không rõ là mô hình đã thay đổi nhẹ hay sao, nhưng cùng một prompt lại bị hoạt động sai. Tôi đã sửa phần này.