20 điểm bởi GN⁺ 2026-02-02 | 1 bình luận | Chia sẻ qua WhatsApp
  • Trước những chỉ trích rằng việc sử dụng mô hình ngôn ngữ lớn (LLM) có thể làm suy yếu năng lực nhận thức của con người, lập luận đơn giản kiểu “thứ để suy nghĩ là vô hạn nên không cần lo” đã bỏ qua tính phức tạp của vấn đề
  • Khi dùng LLM trong viết lách và giao tiếp cá nhân, bản chất của ngôn ngữ nơi ý nghĩa và cách biểu đạt không thể tách rời có thể bị tổn hại, đồng thời con người bị tước mất cơ hội tìm ra tiếng nói của chính mình
  • Ngay cả những hoạt động thường ngày như lên kế hoạch nghỉ phép, chuẩn bị tiệc hay viết tin nhắn cá nhân cũng là những trải nghiệm tự thân có giá trị, và việc tự động hóa chúng có thể làm thu hẹp ý nghĩa của cuộc sống
  • Ngay cả trong những công việc lặp đi lặp lại và có vẻ tẻ nhạt, tri thức ngầm (tacit knowledge) vẫn được hình thành, nên nếu chỉ theo đuổi hiệu suất và giao hết cho chatbot thì về dài hạn sẽ phát sinh tổn thất
  • Việc xác định phạm vi phù hợp để dùng chatbot không phải là vấn đề hiệu suất, mà là câu hỏi về giá trị con người và hướng đi của cộng đồng

Mở đầu: Bối cảnh và vấn đề đặt ra của bài viết

  • Có những chỉ trích cho rằng việc dùng LLM có thể làm suy yếu năng lực nhận thức, và với một số kỹ năng, năng lực nhất định, nguyên tắc “không dùng thì sẽ mất (use it or lose it)” có sức thuyết phục cả về trực giác lẫn kinh nghiệm
  • Bài viết The lump of cognition fallacy của Andy Masley chỉ ra rằng chính quan điểm cho rằng tổng lượng suy nghĩ là cố định mới là sai lầm; vì suy nghĩ sinh ra suy nghĩ mới nên ngay cả khi giao một phần cho máy móc, lượng suy nghĩ của con người cũng không nhất thiết giảm đi
  • Bài viết này lấy lập luận của Masley làm điểm khởi đầu, nhưng muốn giải thích rằng thuê ngoài việc suy nghĩ không chỉ là vấn đề hiệu suất, đồng thời xem xét tính phức tạp và tác động dài hạn của nó

Những trường hợp nên tránh dùng LLM

  • Theo Masley, các trường hợp mà “thuê ngoài nhận thức là có hại” gồm có:
    • Những hoạt động hình thành tri thức ngầm phức tạp cần thiết để sống trong thế giới tương lai
    • Những hành vi thể hiện sự chăm sóc và sự hiện diện đối với người khác
    • Những trải nghiệm tự thân có giá trị
    • Những trường hợp giả mạo hoặc thay mặt trở thành sự lừa dối
    • Những tình huống mà kết quả đặc biệt quan trọng, và khó có thể tin tưởng tuyệt đối vào đối tượng được thuê ngoài
  • Về cơ bản có thể đồng ý với danh sách này, nhưng vấn đề là phạm vi các hoạt động thuộc những nhóm đó rộng hơn nhiều so với tưởng tượng, và đây cũng là nơi bộc lộ khác biệt quan điểm căn bản với Masley

Giao tiếp và viết lách cá nhân

  • Không chỉ trong những tình huống thân mật như tin nhắn trên ứng dụng hẹn hò, mà trong toàn bộ giao tiếp cá nhân, cách biểu đạt đều mang ý nghĩa cốt lõi
  • Trong giao tiếp luôn tồn tại những kỳ vọng được chia sẻ ngay cả khi không nói ra, và khoảnh khắc máy móc thay mặt gọt giũa hay sửa đổi cách diễn đạt, những kỳ vọng ấy sẽ bị phá vỡ
  • Bởi bản thân việc chọn từ và cấu trúc câu đã chứa đựng rất nhiều ý nghĩa, nên khi LLM can thiệp, chất lượng của giao tiếp trực tiếp sẽ bị tổn hại
  • Tại truyền thông Na Uy, đã có tranh cãi về trường hợp dùng LLM để viết bài công khai mà không công bố điều đó, cho thấy cần phải làm rõ lại chúng ta kỳ vọng điều gì trong giao tiếp
  • Hai phản biện đối với lập luận rằng LLM giúp cải thiện cách diễn đạt cho người không phải bản ngữ hoặc người có khó khăn trong học tập:
    • Trong đa số trường hợp, ý nghĩa và cách biểu đạt không thể tách rời, và chính lời nói, câu văn đã là ý nghĩa
    • Khi giao việc biểu đạt cho máy móc, cơ hội trưởng thành và học hỏi sẽ giảm đi, đồng thời con người mất cơ hội tìm ra tiếng nói của chính mình
  • Ranh giới giữa sửa chính tả/ngữ pháp và việc để LLM thực chất viết thay là quá mong manh, nên với giao diện chatbot hiện nay rất khó phân biệt
  • Từ góc nhìn thực dụng, nhiều người muốn tận dụng LLM để tăng hiệu suất công việc, nhưng chất lượng tạo văn bản ở các ngôn ngữ ngoài tiếng Anh như tiếng Na Uy vẫn còn rất thấp (tham khảo báo cáo của Hội đồng Ngôn ngữ Na Uy)
  • LLM có vẻ hữu ích cho việc soạn các tài liệu hành chính như khiếu nại dân sự hay yêu cầu bồi thường bảo hiểm, nhưng điều gì sẽ xảy ra nếu mọi bên liên quan đều dùng công cụ tạo từ ngữ thì vẫn chưa rõ
  • Một hiện tượng quan sát được trên thực tế là trong thực tập, đề xuất nghiên cứu và hồ sơ xin việc, số lượng đơn tăng vọt nhưng chất lượng tổng thể lại giảm
  • Khi sinh viên cùng dùng một chatbot trong bài tập hợp tác, sự đa dạng của ý tưởng giảm mạnh
  • Kỹ năng viết chỉ có thể cải thiện thông qua quá trình tự mình viết, và năng lực tư duy cũng vậy
  • Những văn bản chức năng như mã nguồn, công thức, hướng dẫn, tài liệu hóa ít bị ảnh hưởng hơn bởi các vấn đề này
  • Trái lại, với những văn bản do một tác giả cá nhân viết cho độc giả là con người, luôn tồn tại những kỳ vọng về vai trò và sự tin cậy riêng, và việc niềm tin đó bị xói mòn có thể trở thành tổn thất cho toàn thể nhân loại

Những trải nghiệm có giá trị

  • Mỗi lần nhìn thấy quảng cáo kêu gọi giao cả việc lên kế hoạch nghỉ phép, chuẩn bị tiệc, thậm chí viết tin nhắn gửi gia đình và bạn bè cho LLM, người viết lại cảm thấy xa cách với xã hội công nghệ
  • Nhiều hoạt động trong đời sống hiện đại có thể bị cảm nhận như việc vặt, nhưng đồng thời chính thái độ muốn coi gần như mọi thứ trong cuộc sống là việc vặt mới là vấn đề
  • Kỳ vọng của xã hội hiện đại rằng ta phải luôn làm được điều mình muốn bất cứ lúc nào, và có thể tránh mọi việc mình không muốn làm, lại càng tạo ra sự bất mãn kéo dài
  • Có thể đồng ý với lý thuyết rằng tự động hóa giúp tiết kiệm thời gian cho những việc ý nghĩa hơn, nhưng vấn đề là chúng ta đã đi đến mức ngay cả việc lên kế hoạch kỳ nghỉ cũng bị xem là việc vặt cần né tránh
  • Nếu đây là thời đại mà AI có thể tự động hóa “gần như mọi thứ”, thì hy vọng năng lực ấy sẽ trở thành dịp để con người nhận thức lại điều gì trong cuộc sống xứng đáng để dành thời gian và công sức

Xây dựng tri thức

  • Tác giả đồng ý với quan điểm rằng “không nên dùng chatbot trong quá trình tích lũy tri thức ngầm phức tạp cần thiết để sống trong thế giới tương lai”, và trên thực tế phạm vi này bao gồm một phần rất lớn của đời sống hằng ngày
  • Từ sau khi smartphone phổ biến, đã lan rộng nhận thức rằng “khi cần thì tìm trên Internet là được, không cần phải nhớ”, nhưng chính hành vi tiếp thu và ghi nhớ tri thức mới là quá trình cốt lõi của học tập
  • Qua trải nghiệm học piano jazz, để chơi ngẫu hứng tốt thì không chỉ luyện ngẫu hứng, mà còn phải lặp đi lặp lại các bản nhạc và câu nhạc có sẵn đến mức ngấm vào người thì mới hình thành trực giác về âm thanh nào là hay
  • Ở điểm này, cách học của con người có thể trông giống các mô hình machine learning, nhưng điều đó không có nghĩa là ta nên thực sự coi con người là một tồn tại như vậy
  • Chúng ta đang đánh giá thấp nghiêm trọng lượng tri thức được tích lũy qua những công việc nhàm chán và lặp lại; nếu vì áp lực hiệu suất mà giao hết cho chatbot, ta có nguy cơ đánh mất về lâu dài những tri thức và cảm quan quan trọng

Phản biện khái niệm “tâm trí mở rộng”

  • Masley cho rằng nhận thức không chỉ giới hạn trong não bộ mà còn diễn ra trong môi trường vật lý, nên dù nó xảy ra trong neuron của não hay trong mạch điện của điện thoại thì không có khác biệt bản chất
  • Phát biểu như vậy là lập luận xa rời thực tế, vì không thể đồng nhất các quá trình diễn ra trong não với xử lý được thực hiện trong máy tính
  • Việc quy con người về một thiết bị xử lý thông tin đơn thuần, và cho rằng giao một số quá trình nhận thức cho thiết bị bên ngoài cũng không kéo theo hệ quả gì, là một dạng chủ nghĩa giản lược cực đoan
  • Việc tự mình nhớ sinh nhật của bạn bè và việc chatbot tự động gửi lời chúc mừng là hai hành vi hoàn toàn khác nhau; hành vi đầu tiên bao gồm quá trình có ý thức nhớ đến đối phương và bồi đắp mối quan hệ
  • Lập luận so sánh “mất điện thoại với mất một phần bộ não” là một sự đánh đồng sai lầm giữa những tình huống hoàn toàn khác nhau cả về khả năng xảy ra lẫn mức độ nghiêm trọng của hệ quả
  • Cả lập luận cho rằng môi trường vật lý được thiết kế để tối thiểu hóa suy nghĩ cũng kém thuyết phục; khi môi trường thay đổi thì chỉ cần một thời gian ngắn để thích nghi, rồi con người sẽ sớm quen và suy nghĩ phù hợp với cách mới

Suy nghĩ về điều gì mới là quan trọng

  • Với cái gọi là “ngụy biện cục nhận thức”, tác giả đồng ý rằng vì tổng lượng suy nghĩ con người có thể sử dụng là hữu hạn nên không cần lo nó sẽ cạn kiệt
  • Tuy nhiên, quan điểm cho rằng “nghĩ gì cũng được, miễn là vẫn đang suy nghĩ” cũng là một ngụy biện khác
  • Ta rất dễ nghĩ rằng nếu giao những việc đơn giản và nhàm chán cho máy tính thì có thể tập trung vào những việc phức tạp và thú vị hơn, nhưng có những công việc tinh thần dù máy móc có thể làm được thì con người vẫn phải tự làm mới có ý nghĩa
  • Ví dụ, nếu giao công việc hành chính của dự án cho chatbot, thời gian dành cho nghiên cứu có thể tăng lên, nhưng đổi lại ta sẽ mất ý thức sở hữu đối với dự án và nền tảng để đưa ra các phán đoán ở cấp độ cao hơn
  • Vấn đề không phải là không nên tự động hóa mọi việc, mà là phải nhận thức rằng mọi sự tự động hóa đều luôn đi kèm thứ đạt được và thứ đánh mất
  • Nếu so sánh điều này với “ngụy biện cục lao động”, thì khi giao lao động thể chất cho máy móc, quả thật sẽ nảy sinh những dạng công việc mới, nhưng không có gì bảo đảm rằng đó là những công việc hữu ích, viên mãn và có ý nghĩa cho cá nhân hay xã hội
  • Tư duy cũng vậy: ngay cả những quá trình suy nghĩ tẻ nhạt và đơn điệu cũng tác động đến con người, và khi loại bỏ một công việc nhận thức cụ thể, dấu vết ảnh hưởng đó chắc chắn vẫn còn, dù tích cực hay tiêu cực

Kết luận

  • Việc đánh giá chatbot về lâu dài phù hợp với những lĩnh vực nào là một nhiệm vụ hệ trọng không thể né tránh
  • Bản chất của giao tiếp cá nhân có thể thay đổi một cách căn bản, hệ thống giáo dục sẽ bị buộc phải thích nghi triệt để, và con người sẽ phải thận trọng hơn khi tự hỏi những trải nghiệm nào mới thực sự quan trọng trong cuộc sống
  • Lý do công nghệ này thực sự đáng quan tâm là vì nó đặt trực diện câu hỏi về tính người và các giá trị, hơn là chỉ về hiệu suất
  • Việc lựa chọn sẽ dùng chatbot như thế nào không chỉ là vấn đề năng suất hay hệ quả nhận thức đơn thuần, mà còn dẫn tới câu hỏi chúng ta muốn một cuộc sống và một xã hội như thế nào
  • Vì vậy, có những hoạt động của con người tồn tại những lý do rõ ràng cần được bảo vệ khỏi tự động hóa cơ giới
  • Bên cạnh các kết quả nghiên cứu và tranh luận về hiệu suất, cũng cần cùng nhau cân nhắc cộng đồng sẽ được xây dựng trên những giá trị nào

1 bình luận

 
GN⁺ 2026-02-02
Ý kiến trên Hacker News
  • Cụm từ "Lump of cognition fallacy" là một khái niệm phái sinh từ "Lump of Labor Fallacy" cổ điển trong kinh tế học
    Nó chỉ một ngộ nhận rằng lượng công việc trong nền kinh tế là cố định
    Trên thực tế, tiến bộ công nghệ hay tự động hóa làm tăng năng suất, giảm chi phí, và kết quả là tạo ra nhu cầu lao động lớn hơn
    Lập luận rằng "AI sẽ xóa sổ việc làm" cũng có thể được xem là một dạng của sai lầm này

  • Bài viết này thật sự rất ấn tượng. Tuy vậy, cách diễn đạt "thuê ngoài việc suy nghĩ" có vẻ là một khung nhìn hơi sai
    Vấn đề thực sự tôi trải qua không phải là dùng AI, mà là tự động hóa nhầm phần
    Với những công việc mà suy nghĩ, suy ngẫm và phán đoán là cốt lõi, cần thiết kế AI như một cộng tác viên; còn những thứ như thực thi hay ghi nhớ thì nên mạnh dạn tự động hóa
    Cuối cùng, vấn đề không phải là "thuê ngoài việc suy nghĩ", mà là bỏ qua các vòng lặp nhận thức quan trọng
    Tôi đã viết về điều này ở đây

  • Tôi đã thấy khó chịu kể từ khi Gmail đưa LLM vào
    Tôi tin rằng từng từ ngữ và cấu trúc câu đều thể hiện bản sắc của một người
    Vì vậy tôi nghĩ giao tiếp trực tiếp qua LLM làm tổn hại đến kết nối giữa con người với nhau

    • Cũng có trường hợp một người bạn đã hàn gắn mối quan hệ với một ông sếp khó chịu nhờ ChatGPT
      Tôi đồng ý khi kết nối giữa con người dựa trên thiện chí, nhưng khi không phải vậy thì LLM ngược lại có thể hữu ích
    • Nếu ai đó cố phân tích lời nói của tôi quá mức, thì tôi lại thấy may vì LLM của Gmail đóng vai trò như một lớp đệm
    • Tình huống này làm tôi nhớ đến meme NPC
  • Tôi thích góc nhìn về "Reversibility"
    AI giúp một bước như kiểm tra ngữ pháp hay tóm tắt là một chuyện, còn thay toàn bộ quy trình lại là chuyện khác
    Nếu tôi chỉ việc bấm duyệt, tôi sẽ không xây dựng được mô hình nội tại, và năng lực phán đoán cũng suy yếu
    Đây không chỉ là vấn đề của mô hình mà còn là vấn đề UI/thiết kế
    Công cụ hiển thị sự khác biệt dựa trên bản nháp giúp giữ người dùng trong vòng lặp, còn công cụ bắt đầu từ một trang trắng thì lại huấn luyện người ta cách "chấp nhận"

  • Điều tôi lo là sau khi mọi người đã trở nên phụ thuộc vào công nghệ, dữ liệu huấn luyện hoặc thuật toán có thể bị lệch về một chương trình nghị sự nào đó

    • Hiện tượng này thực ra đã lặp đi lặp lại trong báo in và phát thanh truyền hình
      Cuối cùng, vấn đề là nguồn thông tin nằm dưới sự kiểm soát của người khác
      Vì thế mỗi cá nhân cần có thể sở hữu LLM và phần cứng của riêng mình
    • Trước đây tôi từng lo OpenAI sẽ độc chiếm, nhưng bây giờ đã có nhiều đối thủ như Mistral nên rủi ro độc quyền mô hình đã giảm đi
    • Đã có những trường hợp thiên lệch lộ liễu như Grok
    • Khả năng một ngày nào đó chatbot đưa ra câu trả lời kiểu quảng cáo để gợi ý sản phẩm cụ thể cũng là rất lớn
    • Thật ra cấu trúc này đã lặp lại từ lâu trong xã hội tư bản rồi
  • Sau khi xem tweet của Karpathy, tôi lại nghĩ đến tầm quan trọng của thất bại
    Khi AI mắc lỗi, người ta thường đổ thất bại đó cho AI và đánh mất cơ hội học hỏi
    Tôi thấy bài này cũng đang nói về bối cảnh tương tự

  • Tôi cũng từng giao một phần dự án cho AI, rồi sau đó nhận ra mình không thực sự hiểu dự án của chính mình

    • Nhưng có người lại nửa đùa nửa thật nói rằng "đó mới chính là hướng đi đúng", rằng nên để LLM xử lý tất cả
      Nếu bị kẹt thì dùng một LLM khác làm debugger, nếu debugger đó cũng kẹt thì lại dùng thêm LLM khác — kiểu một tháp rùa vô tận như thế (/s)
  • Nếu lấy bộ não con người làm phép so sánh, AI có lẽ sẽ trở thành tân vỏ não (neocortex) mới của chúng ta
    Cũng như hệ viền không "thuê ngoài" việc suy nghĩ cho tân vỏ não, AI sẽ không thay thế tư duy của con người mà sẽ trở thành một tầng đưa ra lời khuyên
    Giống như tân vỏ não đã mở rộng tính xã hội của con người, AI cũng sẽ cho phép chúng ta giao tiếp với hàng triệu người
    Tuy vậy, mối quan hệ đó sẽ mang một hình thức hoàn toàn khác với kiểu "trò chuyện cá nhân" hiện nay

  • Danh sách "những việc không nên dùng AI" có phần hơi ngây thơ
    Giống như bài viết trên The Atlantic về việc sinh viên ngành điện ảnh không thể xem hết phim, mọi người dù biết rủi ro vẫn không hành xử có trách nhiệm

    • Có lẽ đến một nửa sinh viên cũng không hiểu được rủi ro dài hạn của mạng xã hội hay AI
    • Có người nói rằng "bài học từ giai thoại sinh viên điện ảnh là, mọi người chỉ thích ý tưởng về việc 'học điện ảnh', chứ không thích học thật"
    • Một người khác bổ sung rằng "nếu phải xem 100 bộ phim, viết luận và thi dồn dập thì ai cũng sẽ ngán"
    • Cũng có phản hồi rằng "tin mọi người sẽ dùng AI một cách có trách nhiệm mới chính là điều đáng lo nhất"
    • Một phép so sánh khác cũng xuất hiện: "giống như chúng ta từ bỏ cưỡi ngựa để chọn ô tô, chúng ta đang đánh mất một điều gì đó"
  • Khung nhìn "Lump of cognition" không phải là vấn đề về lượng suy nghĩ, mà là vấn đề ta ngừng kiểu suy nghĩ nào
    Năng lực phán đoán và trực giác lớn lên từ những công việc lặp đi lặp lại và nhàm chán, và thuê ngoài chúng sẽ phải trả giá
    Việc chi phí tạo ra từ ngữ giảm xuống không đồng nghĩa với độ sâu tư duy tăng lên

    • Tôi cảm thấy thời gian từng tự mình vật lộn để giải quyết các vấn đề khó cuối cùng mới chính là bản chất của việc học
    • Thực tế rằng những từ ngữ rẻ tiền vẫn có thể khiến người ta thấy đủ thỏa mãn đem lại một nhận thức khá u ám
    • Tôi nghĩ một quy trình làm việc tốt là chỉ dùng LLM ít nhất ở mức sửa lỗi gõ và ngữ pháp mà thôi