1 điểm bởi GN⁺ 2026-01-19 | 1 bình luận | Chia sẻ qua WhatsApp
  • Câu chuyện đào sâu vào hiện tượng nội dung do AI tạo ra đang chiếm một phần đáng kể trong các tương tác trên internet
  • Khởi nguồn từ cuộc tranh cãi trên HackerNews về việc một dự án mã nguồn mở có phải do AI tạo ra hay không, tác giả quan sát thấy cả phần bình luận cũng có những mẫu hình trông như do AI viết
  • Vào thời IRC và diễn đàn phpBB trước đây, sự giao lưu giữa con người thật là trọng tâm, nhưng hiện nay hình ảnh, bình luận và mã do AI tạo ra đã thường xuyên bị trộn lẫn vào đời sống hằng ngày
  • Trên LinkedIn và các nền tảng khác, tác giả cũng chứng kiến các trường hợp ảnh công ty bị chỉnh sửa bằng AI được đăng như bài viết của nhân viên thật
  • Tác giả bày tỏ lo ngại rằng tiến bộ công nghệ đang nghiêng về các cuộc trò chuyện giữa bot với bot và việc đóng gói lại nội dung thương mại, thay vì chia sẻ tri thức của con người

Cuộc tranh cãi trên HackerNews và nhận thức về vấn đề

  • Tác giả phát hiện một dự án mã nguồn mở do một người dùng công khai trên HackerNews
    • Trong phần bình luận, nhiều người dùng ẩn danh nghi ngờ rằng đoạn mã đó có phải được tạo bằng AI hay không
    • Nhiều ý kiến chỉ ra rằng timeline commit, văn phong chú thích trong mã, v.v. đều trông giống sản phẩm do AI tạo ra
  • Tác giả không phản đối việc dùng AI, nhưng nhấn mạnh rằng trong mã nguồn mở cần phải ghi rõ có sử dụng AI hay không
    • Vì đa số người tham gia internet đều ẩn danh nên rất khó xác minh chuyên môn hay tính xác thực
    • LLM hữu ích cho các tác vụ đơn giản, nhưng ở những vấn đề phức tạp hoặc edge case thì có thể gây rủi ro

Dấu vết AI lộ ra từ mẫu hình bình luận

  • Tác giả nhận ra cả trong bình luận của người làm dự án cũng có văn phong đặc trưng của AI
    • Ví dụ: dùng em-dash (—) quá mức, hoặc các cách diễn đạt thiếu tự nhiên như “you are absolutely right”
    • Lặp lại các cấu trúc câu kiểu AI như “let me know if you want to [do that thing] or [explore this other thing]”
  • Những cách diễn đạt này khác với thói quen ngôn ngữ của con người thật, khiến tác giả nghi ngờ liệu người đang đối thoại có thực sự là con người hay không

Sự nhận ra về ‘Thuyết Internet chết’

  • Từ trải nghiệm này, tác giả nhớ đến Dead Internet Theory
    • Học thuyết này cho rằng từ khoảng năm 2016, phần lớn internet đã bị lấp đầy bởi tương tác giữa bot với bot và nội dung do máy tạo ra
    • Mục đích của nội dung chủ yếu tập trung vào bán hàng hoặc thao túng SEO và các lợi ích thương mại tương tự

Sự đối lập giữa internet ngày xưa và hiện tại

  • Vào đầu những năm 2000, thời IRC và diễn đàn phpBB, trọng tâm là học hỏi và giao lưu giữa con người thật
    • Tác giả gọi giai đoạn này là “Internet University” và hồi tưởng việc mình đã học mạng, hệ điều hành, game và phát triển web tại đó
    • Khi ấy, tác giả có thể tin chắc rằng người ở phía bên kia là con người
  • Còn hiện nay, đó là một thực tại trộn lẫn hình ảnh AI và bình luận AI, nơi rất khó phân biệt thật giả

Lo ngại về sự lan rộng của nội dung AI

  • Tác giả từng thấy trên LinkedIn ảnh văn phòng bị chỉnh sửa bằng AI được đăng bởi nhân viên thật của doanh nghiệp
    • Các chi tiết như bàn tay kỳ lạ, văn bản vô nghĩa cho thấy đó là ảnh do AI tạo ra
    • Tác giả còn đặt vấn đề rằng ngay cả những người trong ảnh cũng có thể không hề tồn tại
  • Trên Facebook, Xitter, TikTok và các nền tảng khác, nội dung giả do AI tạo ra cũng đang lan rộng
    • Ví dụ: ảnh một người khổng lồ dựng kim tự tháp, hay video truyền tải một thông điệp chính trị nào đó
  • Tác giả viết rằng bản thân cảm thấy buồn bã và bất lực trước thực tại này
    • Khi AI trở nên dễ tiếp cận với công chúng, ‘AI-slop’ (rác nội dung AI) tràn ngập khắp nơi
    • Con người bước vào thời đại không còn tự viết bài hay viết mã mà giao việc đó cho các AI agent

Hoài nghi về tương lai của công nghệ và tri thức con người

  • Tác giả vẫn yêu công nghệ và kỹ nghệ phần mềm, nhưng
    cho rằng internet ngày nay đang biến thành một không gian nơi bot nói chuyện với bot
  • Tri thức của con người bị đóng gói lại thành nội dung thương mại kiểu “10 bước để giải quyết vấn đề hằng ngày của bạn”, khiến
    ý nghĩa nguyên bản của việc chia sẻ tri thức đang dần biến mất

1 bình luận

 
GN⁺ 2026-01-19
Ý kiến trên Hacker News
  • Cách đây không lâu, bố mẹ tôi đã bị video YouTube giả do AI tạo ra lừa. Đó là video về một “cảnh sát phân biệt chủng tộc” có hành vi tồi tệ; lúc đầu ngay cả tôi cũng thấy nó giống thật nên bị bối rối. Tìm kiếm thì không thấy nguồn gốc, chỉ có các bản reupload. Phần mô tả kênh có ghi “một số video là các sự việc có thật được tái hiện bằng AI”, nhưng tôi hoàn toàn không tin nổi. Thật buồn khi loại nội dung này lại kích động chia rẽ chỉ để kiếm doanh thu quảng cáo YouTube

    • Nội dung phân biệt chủng tộc là kiểu mà cầu vượt cung. Chỉ dựa vào hiện thực thì khó duy trì cơn phẫn nộ, nên mấy video kiểu này cứ tiếp tục được tạo ra
    • Video AI chỉ cần nhìn lịch sử đăng bài của tài khoản là lộ. Đăng quá thường xuyên, lặp đi lặp lại, chủ đề và bối cảnh thì thiếu nhất quán. Dù công nghệ có tiến bộ, tôi nghĩ những kiểu mẫu này sẽ không biến mất
    • Dạo này tôi dành quá nhiều thời gian trên subreddit RealOrAI. Mỗi lần đoán sai lại thấy bất an nên càng xem nhiều hơn, cố phân biệt cho giỏi hơn. Nhưng có lẽ giờ phải chấp nhận một thực tế không thể phân biệt thật giả
    • Thật ra nỗi lo này không mới. Trước đây việc gây chia rẽ bằng ảnh bị chỉnh sửa hoặc video bị tách khỏi ngữ cảnh vốn đã rất phổ biến. AI chỉ khiến chuyện đó dễ hơn mà thôi
    • Tôi ước Google sẽ tự động gắn nhãn các video có chứa nội dung AI
  • Tôi hoàn toàn đồng ý với câu “đó không phải mạng xã hội”. Ngày trước, “social media” nghĩa là không gian để giao lưu với bạn bè ngoài đời, nhưng giờ nó đã thành từ bao trùm cả các diễn đàn như Reddit. Kết quả là gần như không còn mấy không gian cho tương tác xã hội thật sự nữa

    • Thứ đang làm vai trò đó hiện nay là Discord. Đó là cộng đồng dựa trên lời mời nên không có feed công khai, và người thật trực tiếp kiểm duyệt. Bạn bè IRC ngày xưa của tôi giờ cũng chuyển hết sang Discord. Có lẽ nếu một ngày nào đó họ lên sàn, tôi sẽ dùng thứ thay thế như Matrix
    • Ban đầu “social media” là mạng nơi bạn bè chia sẻ nội dung trực tiếp với nhau. Nhưng sau khi Facebook chuyển sang mô hình xoay quanh việc ‘reshare’, nó đã trở thành nền tảng tiêu thụ nội dung ngẫu nhiên nhiều hơn là nơi cập nhật chuyện của bạn bè. HN không có tính năng kết bạn nên gần với diễn đàn hơn
    • TikTok hay Instagram cũng được gọi là ‘xã hội’, nhưng phần lớn người dùng chẳng đăng gì cả. Chúng chỉ là nền tảng tiêu thụ media mà thôi
    • Thật ra tôi cũng chưa dùng Discord nên không rõ lắm. Nó chỉ giống như phiên bản IRC do doanh nghiệp vận hành, nên tôi không hiểu vì sao lại nổi như vậy
    • Meta nói rằng chưa đến 10% người dùng tương tác với người họ thực sự quen biết. Social media hiện nay chẳng qua chỉ là ‘giải trí bằng cách lướt’
  • Nghĩ rằng không ai dùng ‘em dash (—)’ là một hiểu lầm. Tôi dùng nó thường xuyên từ lâu rồi. Những câu như “you’re absolutely right” cũng hay được bạn bè chúng tôi dùng như trò đùa mỉa mai. Với những người lớn lên ở Anh như chúng tôi thì đó là cách diễn đạt rất tự nhiên

    • Dạo này chỉ cần dùng typography đẹp thôi cũng bị nghi là văn bản do LLM viết, điều đó thật khó chịu. Tôi đã dùng en dash, em dash từ lâu rồi. Nếu dùng Compose key thì nhập cũng dễ
    • Bản thân em dash không phải vấn đề. Tôi không phải người bản ngữ tiếng Anh nên từng luyện viết blog, và đã thử nhiều cách vì việc có hay không có khoảng trắng tạo cảm giác khác nhau. Cuối cùng thì đa số mọi người cũng không nhất quán. Nếu ai đó dùng ngữ pháp quá hoàn hảo thì ngược lại lại có khả năng là AI cao hơn
    • Có lẽ vì phép lịch sự kiểu Anh nên tôi dùng tự nhiên những câu như “you’re right, but…”
    • Trong newsletter của hiệu sách chúng tôi cũng dùng em dash. Nó gọn về mặt thị giác hơn dấu chấm phẩy, và cũng hữu ích để ngắt câu
    • Trên iOS chỉ cần nhấn giữ phím “-” là nhập được dễ dàng nên tôi dùng nó thường xuyên
  • Có một cách đơn giản để kiểm tra xem hình ảnh có phải do AI tạo ra hay không.

    • OpenAI dùng metadata C2PA,
    • Gemini dùng watermark SynthID.
    • SynthID không chỉ áp dụng cho hình ảnh mà cả văn bản, và mã nguồn cũng đã được công khai
    • Nhưng nếu thêm hoặc xóa nhiễu bằng mô hình image-to-image thì cả SynthID cũng có thể bị xóa
    • Tôi thực sự đã thử tải ảnh từ blog OpenAI lên trang xác minh, nhưng không có metadata. Điều này làm giảm độ tin cậy
    • Tuy vậy, mục đích của C2PA là ‘chứng minh cái gì là thật’. Nó không thể xác minh mọi nội dung, nhưng hình ảnh đã được chứng thực có thể dùng cả như bằng chứng pháp lý
  • Vấn đề hiện tại rốt cuộc là do cấu trúc incentive của các nền tảng.

    • YouTube bị thúc đẩy bởi lượt xem, LinkedIn bởi tự PR, còn HN bởi việc quảng bá startup.
    • Liệu có thể tạo ra một cộng đồng nơi AI trở nên vô dụng vì chỉ tồn tại tương tác thuần túy giữa con người với nhau không?
    • Có lẽ nhóm bạn nhỏ là lời giải duy nhất
    • Ngày trước, trên các forum phpBB miễn phí hay IRC, người ta có thể trò chuyện với những người thông minh. Nhưng giờ tôi mới nhận ra chi phí vận hành và gánh nặng kiểm duyệt lớn đến mức nào
    • Những cộng đồng kiểu này nên bị giới hạn bởi con số Dunbar (Dunbar’s number). Lớn hơn thế thì không thể duy trì nếu thiếu quy tắc và quản trị viên
    • Giờ đây ngay cả video sai lệch cuối cùng cũng quy ra lượt xem và doanh thu quảng cáo. Nền tảng thì không chịu trách nhiệm
    • Có lẽ sẽ khả thi nếu cấm hoàn toàn quảng cáo và chỉ hiển thị feed xoay quanh bạn bè, không có feed toàn cầu, nhưng UX sẽ tệ đi
    • Cuối cùng, gốc rễ của vấn đề là mô hình internet dựa trên quảng cáo. Vấn đề của Twitter cũng do giới hạn cấu trúc này nhiều hơn là do Elon Musk
  • Tôi không nghĩ cần phải bắt buộc công khai có dùng AI hay không khi phát hành mã nguồn mở. Những đòi hỏi như vậy chỉ làm giảm động lực sáng tạo. Mọi người muốn chia sẻ mã họ đã viết, chứ không muốn phải chứng minh ‘tôi không dùng AI’

    • Nhưng trong một số trường hợp, tác giả cứ khăng khăng rằng “không dùng AI” trong khi trong mã vẫn còn dấu vết do AI tạo ra, khiến tôi có cảm giác như đang bị gaslighting
  • Tôi tò mò liệu có nền tảng mạng xã hội nào cấm AI hay không. Có lẽ có thể chặn bằng metadata của hình ảnh hoặc phân tích hành vi người dùng

    • Nếu có nền tảng như vậy, nó sẽ trở thành thiên đường của adversarial training
    • Bluesky không chính thức cấm, nhưng cộng đồng ở đó rất thù địch với AI nên hầu như không có
    • Vine đang được hồi sinh gần đây được cho là sẽ cấm rõ ràng nội dung AI
    • Những nơi như Mastodon.art thì cấm AI một cách rõ ràng
    • Rốt cuộc vẫn có thể tồn tại các cộng đồng chặn AI chỉ bằng áp lực xã hội
  • Tôi hy vọng rằng một ngày nào đó khi toàn bộ nội dung trực tuyến đều do AI tạo ra, con người sẽ quay lại tìm kiếm thực tại

    • Thực ra đã có chút thay đổi như vậy rồi. Trước đây là “không có ảnh thì tôi không tin”, còn bây giờ vì ảnh cũng có thể bị thao túng, tôi chỉ chụp ảnh để lưu giữ ký ức thật
    • Nhưng ngược lại, cũng rất có thể nhiều người sẽ thấy thỏa mãn với tương tác với AI
    • Ngay bây giờ người ta đã không rời điện thoại nổi, và nếu AI tạo ra nội dung được tối ưu hóa thì họ sẽ còn chìm sâu hơn
    • Dù vậy, bản thân ý nghĩ đó vẫn rất ấm áp
  • Giờ chúng ta đang ở thời đại vượt qua Turing test rồi. Nếu không phân biệt nổi con người với AI, có lẽ không phải vì AI thông minh hơn, mà vì các cuộc trò chuyện trực tuyến của chúng ta quá hời hợt

    • Nhưng Turing test thực sự không chỉ là lừa được người ta, mà là người thẩm vấn dạng hội thoại (interrogator) cũng phải không phân biệt nổi. Các LLM hiện tại vẫn chưa đến mức đó
    • Văn bản có lượng thông tin ít, lại tạo cảm giác tin rằng ‘đây là thứ do con người viết’, nên rất dễ bị lừa. Vì thế AI dạng văn bản đặc biệt nguy hiểm. Dạo này ngay cả khi gọi điện tôi cũng có lúc phân vân không biết đối phương là người hay robot
    • Rốt cuộc vẫn cần một góc nhìn cân bằng kiểu “một bên là…” và “bên kia là…”
  • Tôi gọi đó là ‘hiệu ứng tấm thảm’. Khi nhìn thấy video hoặc cấu trúc hội thoại được sắp xếp quá hoàn hảo, sẽ có cảm giác nhân tạo. Giống như thảm Morocco, phải cố tình để lại chút không hoàn hảo mới trông giống con người. Nhưng có lẽ những ‘dấu hiệu’ này cũng sớm biến mất