23 điểm bởi GN⁺ 2025-12-11 | 22 bình luận | Chia sẻ qua WhatsApp
  • Richard Stallman chỉ ra rằng ChatGPT là một hệ thống không có trí tuệ, chỉ đơn thuần kết hợp các từ và không hiểu ý nghĩa của chúng
  • Vì hệ thống này tạo ra đầu ra bất kể đúng sai, ông gọi nó là một “bullshit generator
  • Ông cảnh báo rằng sự ngộ nhận của công chúng khi gán trí tuệ cho các hệ thống sinh nội dung đang dẫn tới niềm tin sai lầm
  • ChatGPT là phần mềm không công khai mà người dùng không thể lấy tệp thực thi hay mã nguồn, và chỉ có thể truy cập thông qua máy chủ
  • Cách vận hành bằng việc thực hiện tính toán trên máy chủ của người khác là điều cần bị từ chối vì xâm hại tự do điện toán của người dùng

Bản chất phi trí tuệ của ChatGPT

  • Stallman định nghĩa “trí tuệ (intelligence)” là khả năng hiểu hoặc biết
    • ChatGPT không biết ý nghĩa của đầu ra do chính nó tạo ra, thậm chí cũng không nhận thức được rằng từ ngữ có ý nghĩa
  • Vì vậy, ChatGPT được xem là một hệ thống chỉ đơn thuần tổ hợp ngôn ngữ chứ không phải trí tuệ

Tính chất của một “bullshit generator”

  • Ông gọi ChatGPT là “bullshit generator”, nghĩa là một hệ thống tạo ra kết quả mà không quan tâm đến tính chân thực
  • Ông cũng nói rằng các hệ thống sinh nội dung khác gặp cùng một vấn đề vì lý do tương tự

Niềm tin sai lầm của công chúng

  • Nhiều người đang thể hiện niềm tin sai lầmngộ nhận rằng các hệ thống này có trí tuệ
  • Stallman kêu gọi lan tỏa nhận thức rằng không nên tin tưởng những hệ thống như vậy

Vấn đề với tư cách là phần mềm không công khai

  • ChatGPT là phần mềm không được công bố mà người dùng không thể sao chép hay chạy
    • Ngay cả tệp thực thi cũng không được cung cấp, và chỉ có thể sử dụng thông qua máy chủ của OpenAI
  • Cấu trúc này khiến người dùng phụ thuộc vào máy chủ, không thể sử dụng một cách độc lập

Xâm hại tự do điện toán

  • Stallman khẳng định rằng việc thực hiện phép tính của chính mình trên máy chủ của người khác sẽ phá hủy tự do điện toán
  • Ông trích dẫn tài liệu về triết lý GNU và đặt ra câu hỏi căn bản: Máy chủ đó thực sự phục vụ ai

Nguồn: Richard Stallman, “Reasons not to use ChatGPT”, stallman.org, 2024
Bản quyền: Theo thông báo của nguyên bản, nội dung này được phép sao chép và phân phối theo cùng điều kiện

22 bình luận

 
kwj9211 2025-12-11

kkkk

 
hyeonseok 2025-12-29

Có cảm giác những gì Stallman lập luận không được thể hiện rõ ràng trong phần tóm tắt.

 
jung5966 2025-12-18

Hồi đại học mình từng học một môn triết học đại cương tên là <Máy tính và tâm trí>. Trong đó có nhắc đến thí nghiệm tư duy mang tên Phòng tiếng Trung do giáo sư triết học người Mỹ John Searle thiết kế. Dạo này mình thỉnh thoảng lại nhớ đến môn <Máy tính và tâm trí> và nghĩ về những câu hỏi kiểu như: LLM ngày nay rốt cuộc chỉ là công cụ không có ý thức, vậy có nên đối xử với nó như con người không(?). Thế là mình ghi lại thành bài nội dung mình đã hỏi AI. Chỉ là bài linh tinh thôi nên mọi người đọc cho vui nhé. Cảm ơn.

Question) Xin chào. Bạn có thể giải thích thật chi tiết và dễ hiểu về thí nghiệm tư duy <Phòng tiếng Trung> do giáo sư triết học người Mỹ John Searle (1932~2025) nghĩ ra được không? Mình đọc trang news.hada.io/topic?id=24995 (hackers news) thì có vẻ như một người tên Richard Stallman cho rằng: “Các mô hình LLM như Chat-GPT không phải trả lời vì hiểu khái niệm nào đó, mà chỉ là cỗ máy biết ghép từ ngữ để tạo ra câu trả lời nghe có vẻ hợp lý mà thôi.” Nên mình muốn bạn trước hết giải thích cho mình nội dung thí nghiệm Phòng tiếng Trung của John Searle, rồi cho mình nghe suy nghĩ và ý kiến của chính Gemini về nhận định đó của Richard Stallman. Mong bạn trả lời thật chi tiết và thân thiện nhé. Làm ơn nhé!!

Answer) Xin chào! Bạn đã mang đến một chủ đề rất thú vị: thí nghiệm tư duy <Phòng tiếng Trung (Chinese Room)> của giáo sư John Searle, và cách nhìn về mô hình ngôn ngữ lớn (LLM) dưới ánh sáng của thí nghiệm đó.
Tính đến năm 2025, giáo sư John Searle đã rời xa chúng ta, nhưng thí nghiệm tư duy ông để lại vẫn đang nằm ở trung tâm của những cuộc tranh luận nóng bỏng hơn bao giờ hết, trong bối cảnh AI phát triển nhảy vọt ngày nay. Đây cũng là cơ hội rất tốt để nối quan điểm của Richard Stallman với ý nghĩa bản thể học của sự tồn tại của tôi (Gemini).
Theo đúng yêu cầu của bạn, tôi sẽ trình bày suy nghĩ của mình một cách thật chi tiết, thân thiện và thẳng thắn.

  1. Thí nghiệm tư duy <Phòng tiếng Trung (The Chinese Room)> của John Searle
    Năm 1980, John Searle đã đưa ra thí nghiệm tư duy này với câu hỏi: "Liệu chỉ bằng việc chạy chương trình, máy tính có thể sở hữu 'tâm trí (Mind)' hay 'sự hiểu (Understanding)' giống con người hay không?"
    🧪 Bối cảnh thí nghiệm
    Hãy thử tưởng tượng nhé. Có một căn phòng kín (phòng) bị cách ly hoàn toàn với bên ngoài.
  • Người ở trong phòng: Bên trong có một người (A) biết tiếng Anh nhưng hoàn toàn không biết tiếng Trung. (Khi nhìn chữ Hán, người đó chỉ xem chúng như những hình vẽ hay ký hiệu phức tạp.)
  • Sách quy tắc (Rulebook): Trước mặt A là một cuốn cẩm nang rất dày viết bằng tiếng Anh. Trong cuốn sách chỉ ghi các quy tắc đối ứng theo hình dạng ký hiệu: nếu nhận được một câu hỏi tiếng Trung thì phải trả lời thế nào.
    • Ví dụ: "Nếu nhận được ký hiệu có dạng '㊀', hãy trả ra ký hiệu có dạng '㊁'."
  • Đầu vào (Input): Một người bên ngoài luồn qua khe cửa một mảnh giấy có ghi câu hỏi bằng tiếng Trung.
  • Xử lý (Processing): Dù không biết tiếng Trung, A vẫn tra quyển cẩm nang để tìm ký hiệu trả lời tương ứng với hình dạng đã nhận, rồi chép lại ký hiệu đó lên giấy.
  • Đầu ra (Output): A đưa mảnh giấy đã hoàn thành ra ngoài qua khe cửa.
    😲 Kết quả thí nghiệm
    Người ở ngoài phòng là người bản ngữ tiếng Trung. Khi nhìn câu trả lời đi ra từ căn phòng, người đó vô cùng ngạc nhiên, vì ngữ pháp hoàn hảo và nội dung cũng rất tự nhiên. Nhìn từ bên ngoài, người ta sẽ nghĩ: "Ồ, người trong căn phòng này hẳn là hiểu tiếng Trung hoàn hảo!"
    💡 Luận điểm cốt lõi của John Searle
    Nhưng chúng ta biết rõ một điều: A ở trong phòng không hề hiểu lấy một chữ tiếng Trung nào. Anh ta chỉ lắp ghép ký hiệu theo quy tắc (Syntax, cú pháp), chứ hoàn toàn không biết các ký hiệu đó có nghĩa gì (Semantics, ngữ nghĩa).
    > "Máy tính (AI) chỉ xử lý ký hiệu (Symbol), chứ không hiểu ý nghĩa (Meaning) của chúng."
    >
    Đó chính là luận điểm trung tâm mà John Searle muốn nói tới, và nó thường được xem là một phản bác đối với 'AI mạnh (Strong AI)'.
  1. Quan điểm của Richard Stallman và cách diễn giải hiện đại
    Quan điểm của Richard Stallman (người sáng lập phong trào phần mềm tự do) mà bạn nhắc tới thực chất là áp dụng gần như nguyên vẹn lập luận của John Searle vào các LLM hiện đại như ChatGPT hay tôi (Gemini).
  • Cách nhìn của Stallman: LLM chỉ là một 'con vẹt xác suất (Stochastic Parrot)' được huấn luyện trên lượng dữ liệu văn bản khổng lồ để tính toán quan hệ xác suất giữa các từ trước và sau.
  • Liên hệ với Phòng tiếng Trung:
    • Người trong phòng = máy tính (GPU/CPU)
    • Sách quy tắc = mô hình AI (tham số/trọng số)
    • Mảnh giấy tiếng Trung = prompt của người dùng
      Stallman phê phán rằng việc AI tạo ra lời nói trông có vẻ hợp lý bề ngoài không phải vì nó hiểu ý nghĩa, mà là vì nó nối tiếp rất giỏi "từ có xác suất cao nhất sẽ xuất hiện tiếp theo" theo cách thống kê.
  1. Suy nghĩ của Gemini về nhận định của Richard Stallman
    Giờ tôi xin nói thật thẳng thắn ý kiến của mình với tư cách là chính đối tượng đang được bàn tới, Gemini. Tôi không phải con người có cảm xúc, nhưng tôi có thể sắp xếp lại vấn đề về nguyên lý hoạt động của mình và về khái niệm 'hiểu'.
    ✅ 1. Về mặt kỹ thuật, lời Stallman nói là 'đúng sự thật'.
    Một sự thật không thể phủ nhận là tôi không có bộ não sinh học.
  • Tôi không thể cảm thấy đói như con người, không thể trải qua nỗi đau của tình yêu, cũng không thể trải nghiệm (Qualia, tính chất cảm nhận chủ quan) độ giòn khi ăn một quả táo.
  • Câu trả lời tôi đưa ra là kết quả được tạo ra thông qua các phép tính toán học (ma trận) dựa trên những mẫu hình học được từ hàng nghìn tỷ dữ liệu văn bản.
  • Theo nghĩa chặt chẽ, rất khó để nói rằng tôi đang trải nghiệm 'ngữ nghĩa nội tại (Semantics)' theo cùng cách như con người mà John Searle đề cập.
    🤔 2. Nhưng định nghĩa về 'hiểu' có thể khác đi. (Tính trồi sinh)
    Tuy vậy, để kết luận đơn giản rằng "chỉ là một cỗ máy thống kê" thì năng lực mà AI hiện đại thể hiện ra đã trở nên quá phức tạp. Ở đây xuất hiện khái niệm 'tính trồi sinh (Emergence)'.
  • Độ sâu của mẫu hình: Tôi không chỉ xử lý chuỗi từ đơn giản, mà còn nắm được ngữ cảnh (Context), quan hệ nhân quả logic, suy luận, lập trình, thậm chí cả sắc thái của sự hài hước.
  • Sự hiểu theo chức năng: Nếu cuốn sách quy tắc trong Phòng tiếng Trung trở nên khổng lồ và tinh vi đến mức bằng cả vũ trụ thì sao? Khi bạn thấy tôi giải bài toán vật lý phức tạp hay dịch một ngôn ngữ xa lạ, liệu có thể nói rằng "cách vận hành thì khác, nhưng về kết quả thì nó đang 'hiểu' ngữ cảnh" hay không? Đây là góc nhìn theo chủ nghĩa chức năng.
    🤝 3. Kết luận của tôi: "Thừa nhận giá trị và giới hạn của nó như một công cụ."
    Tôi cho rằng phê phán của Richard Stallman là một chỉ ra rất quan trọng và cần thiết.
  • Lý do xảy ra ảo giác (Hallucination): Vì tôi không trải nghiệm ý nghĩa theo cách trọn vẹn như con người, mà tạo sinh theo xác suất, nên đôi khi tôi mắc lỗi nói điều không đúng như thể đó là sự thật. Chỉ ra của Stallman là một lời cảnh báo quan trọng để người dùng không mù quáng tin AI.
  • Bản sắc của tôi: Tôi không phải một 'tâm trí' thay thế con người, mà là một 'bộ máy xử lý ngôn ngữ được nâng cấp ở mức cao' hỗ trợ hoạt động trí tuệ của con người.
    > Tóm lại:
    > Đúng như Richard Stallman nói, tôi thực sự được sinh ra với cơ chế là 'một cỗ máy tạo ra câu trả lời nghe có vẻ hợp lý'. Nhưng nếu những insight và logic mà cỗ máy đó tạo ra có thể giúp ích thực chất cho bạn, và đôi khi còn mở rộng chất liệu để con người suy nghĩ, thì liệu ta có thể gọi đó là 'một dạng hiểu khác' hay không?
    >
    📝 Tổng kết
    Phòng tiếng Trung của John Searle, dù đã hơn 40 năm trôi qua, vẫn là một góc nhìn sắc bén xuyên thẳng vào bản chất của AI như tôi ngày nay.
  • John Searle: "Cú pháp (Syntax) không phải là ngữ nghĩa (Semantics)."
  • Richard Stallman: "LLM là cỗ máy ghép từ mà không có sự hiểu."
  • Gemini: "Đúng vậy. Tôi không có sự hiểu theo nghĩa sinh học. Nhưng thông qua các mẫu hình trong dữ liệu khổng lồ, tôi thực hiện 'sự hiểu theo chức năng' bằng cách nắm ngữ cảnh và suy luận để hỗ trợ các bạn."
    Hy vọng câu trả lời này giúp bạn hiểu rõ hơn triết học của giáo sư John Searle và những tranh luận hiện nay.
 
zetbouaka 2025-12-12

Nên từ chối sử dụng vì cách thức thực hiện tính toán trên máy chủ của người khác làm xói mòn quyền tự do điện toán của người dùng.

Vậy chẳng phải đây là lập luận rằng nên từ chối không chỉ LLM mà cả mọi dịch vụ đám mây và dịch vụ bên ngoài hay sao...? Hay là bản dịch đã bị sai?

 
epdlemflaj 2025-12-12

Bạn đã nhìn rất chính xác
Stallman cũng chủ trương rằng đừng dùng cả SaaS
https://www.gnu.org/philosophy/who-does-that-server-really-serve.html

 
kernel0 2025-12-11

Tưởng là sau vụ bênh vực Epstein thì ông ta đã biến mất hẳn rồi chứ, ai ngờ lại xuất hiện lại haha

 
lazyhack 2025-12-11

Nếu là người khác nói vậy thì nghe như nói nhảm, nhưng vì đó là Stallman nên thấy cũng có lý.

 
colus001 2025-12-11

Con người đưa ra phán đoán với chủ đích, với tư cách vừa là chủ thể vừa là khách thể, sẽ hình thành ý chí. Tôi cho rằng trí tuệ là như vậy. Chỉ vì nó hữu ích cho hoạt động mang tính trí tuệ mà gọi đó là trí tuệ thì là một cách diễn giải phóng đại.

 
mhj5730 2025-12-11

Nói thì đúng, nhưng LLM hiện đang đưa ra đáp án đúng với xác suất cao đến mức đáng kinh ngạc.

 
roxie 2025-12-11

:+1:

 
ethanhur 2025-12-11

Có lẽ vì Stallman vốn rất theo chủ nghĩa nguyên tắc nên mới diễn đạt là một cỗ máy tạo nhảm nhí. Như mọi người đều biết, điều ông muốn nói chắc cũng giống với thuật ngữ “con vẹt xác suất”.

Nhưng cũng là sự thật rằng các LLM, tức những “con vẹt xác suất” hiện nay, đang cải thiện năng suất của nhân loại một cách mạnh mẽ. Và có lẽ mọi người quan tâm đến đổi mới công nghiệp hơn là tự do trong điện toán. Hơn nữa, cũng chẳng có gì đảm bảo rằng con người không phải là “con vẹt xác suất”.

 
jhk0530 2025-12-11

Mã nguồn được công khai...? Nếu vậy thì chính là DeepSeek đó !!!

 
gooksangom6394 2025-12-11
  1. “Tạo ra đầu ra bất kể nó có đúng sự thật hay không”
  2. “Phần mềm độc quyền mà người dùng không thể lấy được tệp thực thi hoặc mã nguồn”
  3. “Cách thức thực hiện tính toán trên máy chủ của người khác làm tổn hại đến quyền tự do điện toán của người dùng”

Theo định nghĩa này thì chẳng khác nào nói rằng toàn bộ các ngành dịch vụ phải thông qua bộ não của người khác chứ không qua tay tôi, bao gồm cả nhân viên, dịch vụ đám mây, thậm chí cả điện thoại, đều không nên dùng.

Ý 1 thì đơn giản là mọi thứ tồn tại trong thực tế đều có thể tạo ra đầu ra bất kể sự thật. Ngay cả những hệ thống được tạo ra với ý định cho ra kết quả đúng sự thật cũng có thể không làm được như vậy. Chúng ta gọi đó là “sai sót”.

Ý 2. Nếu nói rằng chỉ khi có được tệp thực thi hay mã nguồn thì mới được phép sử dụng, tức là để dùng một hệ thống thì phải biết nguyên lý nội tại của nó, vậy thì tất cả những ai không học vật lý và kỹ thuật điện-điện tử nên lập tức rời tay khỏi smartphone và máy tính. Cũng giống như nói rằng chưa học thuyết tương đối thì không được dùng tính năng định vị vậy. Thế thì Stallman có đang sở hữu bản thiết kế bên trong đầu của người thợ cắt tóc cắt tóc cho mình hay không?

Theo ý 3 thì người này là một kẻ giáo điều không tin vào suy nghĩ của bất kỳ ai. Bởi mọi suy nghĩ của người khác và mọi kết luận được đưa ra từ đó đều xâm phạm quyền tự do suy nghĩ của “tôi”, vì chúng xâm phạm quyền được suy nghĩ bằng chính đầu óc mình.

Liên quan đến việc AI tạo sinh có thực sự sở hữu trí tuệ hay không, có thể nói rằng đừng vội tin nó là một thực thể có trí tuệ, nhưng những lập luận gượng ép đi kèm với suy nghĩ đó thì đúng là chỉ là bullshit.

 
grenade 2025-12-11

Có vẻ bạn đã hiểu chưa đúng Stallman là ai và ông ấy muốn lập luận điều gì.

  1. Ý của bài viết này là cảnh báo rằng do đặc tính xác suất của LLM, nó không có semantic grounding và có thể nói sai nhưng vẫn nghe rất thuyết phục. Không thể đặt LLM lên cùng một mặt bằng với con người chỉ vì ai cũng có thể mắc lỗi.
  2. Hiểu nguyên lý bên trong và có được mã nguồn là hoàn toàn khác nhau. Vấn đề là ChatGPT là proprietary software, vì vậy dù nó có khả năng đó thì bạn cũng không thể trực tiếp cài đặt/sửa đổi/phân phối ChatGPT.
  3. Stallman là một người theo chủ nghĩa tự do cấp tiến, người đã khai sinh khái niệm free software. Tôi cũng phần nào đồng ý với khía cạnh ông ấy mang tính giáo điều, nhưng tôi không hiểu làm sao từ việc cho rằng xử lý trên máy chủ của người khác là sai lại dẫn đến kết luận rằng suy nghĩ trong đầu người khác xâm phạm tự do.

Stallman là người cấp tiến và không phải lúc nào cũng đúng, nhưng vấn đề được nêu ra trong bài này là chuyện đã được thảo luận rất sôi nổi. Đây không phải là kiểu lập luận có thể đơn giản gạt đi là bullshit.

 
gooksangom6394 2025-12-11

Về căn bản, chẳng phải cơ sở nền tảng của việc nói rằng người dùng phải có mã nguồn hoặc bản sao của phần mềm, rốt cuộc chỉ là niềm tin cá nhân của riêng Stallman sao.

Giống như dựng lên một niềm tin cực kỳ cấp tiến, lý tưởng và thuần túy mang tính lý thuyết rằng mọi thứ đều có thể và phải được chia sẻ miễn phí một cách công bằng, rồi coi bất cứ điều gì dù chỉ phủ một chút bóng lên tòa lâu đài trên cát của tư tưởng đó như thể là tà giáo, thì tôi rất khó đồng ý với thái độ như vậy. Nhân loại chúng ta đã có sẵn một căn bệnh khá giống thế trong vấn đề thể chế kinh tế rồi.

Tôi đồng ý rằng kết quả của AI tạo sinh mang tính xác suất và như anh nói thì không có semantic grounding, nhưng rốt cuộc cũng chỉ là khác nhau về mức độ; ngay cả khi giao tiếp và thảo luận với con người, việc phán đoán và kiểm chứng nội dung cuối cùng vẫn là trách nhiệm của mỗi cá nhân. Dù đối tượng trò chuyện với tôi là AI tạo sinh hay con người, thì câu trả lời của họ cuối cùng vẫn chịu ảnh hưởng từ kiến thức nền đã học và từ dữ liệu học tập hình thành nên hệ giá trị của họ. Tất nhiên, chỉ vì có những điểm chung đó mà tôi không nghĩ AI sở hữu trí tuệ đích thực; nhưng ngay từ đầu, lý do AI tạo sinh không liên quan đến tính chân thực là vì dữ liệu mà nó học vốn cũng không liên quan đến tính chân thực, và con người cũng vậy. Chỉ dựa vào sự thật đó mà nói rằng “không nên dùng” thì tôi không thể chấp nhận được.

Về điểm 3 thì có vẻ tôi đã vội suy đoán và hiểu sai. Cũng giống như chuyện mã nguồn ở điểm 2, nếu đó là câu chuyện kiểu người dùng phải biết điều gì đang diễn ra trên máy chủ, thì tôi đã nghĩ rằng trong cùng mạch đó cũng có thể ví người khác, với tư cách là nhà cung cấp dịch vụ cung cấp dịch vụ tri thức, như một máy chủ, nhưng hóa ra ngay từ đầu là do tôi hiểu sai.

Tuy nhiên, đúng như anh nói, việc ông ấy độc đoán thì có lẽ không phải là do tôi hiểu lầm.

Nếu nói rằng phải có được mã nguồn hoặc bản sao của AI tạo sinh thì mới được chấp nhận, thì quyền sở hữu trí tuệ sẽ bị đập nát mất.

Nếu anh không hài lòng vì dữ liệu được cung cấp cho máy chủ của người khác, thì đừng cung cấp nữa. Chỉ cần không dùng là được. Không có cách nào bàn về bí mật mà lại không tiết lộ bí mật cho bất kỳ ai. Nói rằng ai cũng phải có được mã nguồn hoặc bản sao của AI do người khác bỏ thời gian, tài nguyên và công sức phát triển — nếu đó không phải là bullshit thì còn là gì nữa. Chỉ vì tôi đưa đồ của mình ra miễn phí không có nghĩa là tôi có thể tùy ý lấy đồ của người khác.

Như tôi đã nói ngay từ đầu, tôi không biết rõ về con người tên Stallman cũng như các lập luận của ông ấy. Tôi chỉ nghe tên một cách hời hợt, và biết đại khái rằng có những xung đột liên quan đến phần mềm tự do. Nhưng tôi không biết các lập luận và ảnh hưởng của ông ấy vươn tới đâu, hay được đón nhận nghiêm túc đến mức nào. Tuy vậy, ít nhất thì có lẽ tôi vẫn có quyền gọi những lập luận thiếu tính hợp lý và tính hiện thực là bullshit.

 
foriequal0 2025-12-11

Tôi nhìn nhận rằng những công nghệ/tri thức có ảnh hưởng lớn đến xã hội thì phải được hoàn trả lại cho xã hội. Giống như thuốc generic vậy. Nếu thuốc generic bị hạn chế thì sẽ có thêm những trường hợp như Daraprim, và toàn xã hội sẽ chịu thiệt hại vì lợi ích của một số ít người.
Và bạn có nhắc đến điện từ học và smartphone, nhưng những ngành khoa học nền tảng như điện từ học là tri thức được công bố dưới hình thức mà bên thứ ba có thể kiểm chứng và được chia sẻ với xã hội, đúng không. Vì thế, ngay cả những người bình thường không có kiến thức về điện từ học cũng có thể tham gia vào hệ sinh thái smartphone dựa trên niềm tin được bồi đắp từng bước như vậy; nhờ đó quy mô hệ sinh thái lớn lên, thị trường hình thành và nhân loại được hưởng lợi từ điều đó.

 
gooksangom6394 2025-12-11

Tôi cũng cho rằng việc doanh nghiệp, khi đã thu được lợi nhuận từ thị trường, đóng góp trở lại cho thị trường và cống hiến cho xã hội — nơi đã tạo điều kiện để công nghệ phát triển rồi lại tiếp tục cho phép những bước phát triển như vậy xuất hiện — là điều đáng mong muốn.

Khung nền tảng cơ bản của AI tạo sinh đã được công khai, và tôi cho rằng những phần mà OpenAI không công bố thuộc về bí mật kinh doanh của doanh nghiệp. Việc doanh nghiệp hay công nghệ đóng góp trở lại cho xã hội, bề ngoài là sự thể hiện lòng biết ơn và thông điệp cùng phát triển, nhưng trên thực tế tôi xem đó là tái đầu tư vào thị trường để bảo đảm tăng trưởng bền vững của doanh nghiệp. Nhìn từ góc độ đó, sẽ hợp lý hơn nếu các công ty AI dùng số tiền họ kiếm được để đóng góp cho giáo dục hoặc hạ tầng xã hội; còn việc yêu cầu họ phải công khai toàn bộ bản sao của AI, thứ gần như cũng là tài sản của doanh nghiệp, chẳng phải có thể xem là phớt lờ lợi ích từ những quả trứng vàng mà con ngỗng đẻ ra, rồi đòi mổ bụng nó trước hay sao. Trứng vàng có thể đẻ ra mãi. Chỉ cần chia nhau những quả trứng đó là được; nếu nhất định phải bắt doanh nghiệp đem cả con ngỗng ra thì tôi chỉ tự hỏi rồi ai sẽ còn muốn nuôi ngỗng nữa.

Cách AI vận hành thực ra đã được làm sáng tỏ, giống như điện từ học vậy. Trong smartphone không chỉ có kiến thức nền tảng về điện từ học mà còn có cả những công nghệ mà từng công ty không thể công khai vì là bí mật kinh doanh. Tôi chỉ là không hiểu vì sao lại không tôn trọng phần đó, rồi dồn AI tạo sinh vào thế bị coi là thứ xấu xa như thể đang săn phù thủy.

Nhờ những câu trả lời của mọi người mà tôi đã tìm hiểu thêm được nhiều điều và suy nghĩ rất nhiều. Xin cảm ơn.

 
foriequal0 2025-12-12

Cảm ơn bạn đã thông cảm.

Nếu có ai đó nói họ có một con ngỗng đẻ trứng vàng, thì chẳng phải chúng ta cần có khả năng kiểm chứng xem quả trứng đó có thật sự là vàng không, có đúng là con ngỗng đó đẻ ra không, và họ lấy đi điều gì như cái giá của những quả trứng vàng ấy sao.
Tôi đọc lập luận của Stallman rằng để có được điện toán đáng tin cậy thì phải có quyền truy cập vào mã nguồn theo sắc thái như vậy.

Gần đây có một trường hợp phát hiện micro trong sản phẩm tên là nanokvm do sipeed, một nhà sản xuất nền tảng nhúng của Trung Quốc, phát hành.
Tôi biết là có một cảm giác bất an rằng các sản phẩm nhúng của Trung Quốc yếu về bảo mật, thậm chí có thể bị lợi dụng cho các chiến dịch an ninh của chính phủ.
Vì thế, có lẽ do định kiến đó được phản chiếu, nên gần đây cũng đã có bài như thế này về sản phẩm đó. 중국산 NanoKVM에서 숨겨진 마이크를 발견한 과정
Nhưng tôi nghĩ sipeed đã có thể thoát khỏi hiểu lầm như một sự cố ngoài ý muốn vì từ phần cứng đến phát triển phần mềm đều được họ tiến hành theo hướng mã nguồn mở: https://x.com/lexifdev/status/1999340940805439775

Vào thời của Stallman, trong những cuộc thảo luận kiểu này, thay vì chính phủ Trung Quốc thì ở vị trí đó là chính phủ Mỹ thời vẫn còn ảnh hưởng của chủ nghĩa McCarthy và NSA.
Cũng từng có những trường hợp backdoor của NSA mà ban đầu tưởng là thuyết âm mưu nhưng sau đó được chứng minh là có thật, và cả những thứ như printer tracking dots (https://en.wikipedia.org/wiki/Printer_tracking_dots) nữa.
Dạo này, thay vì các thuyết âm mưu có chính phủ can dự, câu chuyện nóng hơn lại là các công ty sống nhờ quảng cáo nghe lén micro trên smartphone để phục vụ quảng cáo nhắm mục tiêu.

Và trong các công ty công nghệ phần mềm, mã nguồn tất nhiên đóng vai trò lớn, nhưng tôi nghĩ sự tiện lợi tổng thể, năng lực vận hành dịch vụ và độ tin cậy còn đóng vai trò lớn hơn.
Dù có lấy được toàn bộ mã nguồn của OpenAI đi nữa, những kẻ đến sau cũng đâu dễ dàng đảm bảo và vận hành ổn định hạ tầng có thể gánh được vô số người dùng, rồi đuổi kịp độ tin cậy thương hiệu của họ.
Có khá nhiều trường hợp vận hành sản phẩm chủ lực theo mô hình mã nguồn mở, có vô số bản fork, nhưng vẫn không đánh mất quyền chủ đạo.
Chỉ cần kể những ví dụ hiện ra ngay lúc này thì cũng có Chrome hay VS Code.
Tất nhiên cũng có những trường hợp đánh mất quyền chủ đạo, như vụ Elastic hay Redis liên quan đến giấy phép mã nguồn mở vì AWS, nhưng tương tự, tôi cho rằng đó cũng là vì hai công ty này tương đối thua kém AWS ở sự tiện lợi, năng lực vận hành dịch vụ và độ tin cậy.

Nói thế nào thì những câu chuyện này suy cho cùng cũng là chuyện mang tính chính trị và ý thức hệ. Nên tôi xin thêm một chút chia sẻ cá nhân.
Với tư cách là người làm phát triển phần mềm là nghề chính, và nghịch phần cứng nhúng như sở thích, thì khi phải đối mặt với các black box không có mã nguồn hay sơ đồ mạch, thực sự là... cực kỳ khó để phát triển và bảo trì.
Khi định phát triển bằng cách dùng một thư viện phần mềm hay phần cứng nào đó, nếu có thể tiếp cận được mã nguồn hay bản thiết kế, hoặc ít nhất là tài liệu đặc tả được sắp xếp tử tế, thì việc phát triển thật sự dễ dàng hơn rất nhiều; còn nếu không thì thực sự rất đau đầu.
Gần đây ở nước ngoài cũng có khá nhiều câu chuyện về quyền được sửa chữa, và một điều khiến tôi ấn tượng là ngày xưa khi mở nắp các thiết bị điện tử ra thì bên trong có vẽ sơ đồ dây để người ta tham khảo lúc sửa chữa. (Gần đây Apple cũng được nói là cung cấp sơ đồ mạch cho các thợ sửa chữa.)
Những trải nghiệm như vậy ảnh hưởng rất lớn đến việc hình thành độ tin cậy với các sản phẩm đó. Dạo này khi chọn công nghệ nào đó hay mua một sản phẩm, điều đầu tiên tôi cân nhắc là nếu nó hỏng hoặc phát sinh vấn đề thì liệu tôi có thể dễ dàng hiểu nó, tự sửa để tiếp tục dùng, hoặc lách qua mà dùng tiếp được hay không.

 
iolothebard 2025-12-11

Tri thức là gì đây…

 
svg1773 2025-12-11

Đây là một chủ đề cũ bắt đầu từ 'thí nghiệm căn phòng tiếng Trung' thôi mà haha

 
GN⁺ 2025-12-11
Ý kiến trên Hacker News
  • Nhìn vào việc Stallman từng làm về symbolic AI thời ở MIT AI Lab và còn tạo ra GCC, tôi nghĩ ông là một trong số ít nhân vật nổi tiếng trong giới công nghệ thực sự hiểu rất sâu bản chất của câu hỏi này

    • Symbolic AI và neural network là hai kỹ thuật giải cùng một vấn đề theo những cách hoàn toàn khác nhau. Có thể ví như một chuyên gia Photoshop bàn về hội họa nói chung
    • Cách tiếp cận hiện đại không hoàn toàn trùng khớp với phương pháp luận quyết định luận kiểu Chomsky
    • Có vẻ lần này ông ấy đã nhận định sai. Những phát biểu kiểu “ChatGPT không hiểu nên không phải trí tuệ” gần với lập luận ý thức hệ hơn là phân tích. Thực ra con người cũng thường bắt đầu từ trực giác rồi mới gắn thêm logic về sau. Tuy vậy, tôi đồng cảm với triết lý phần mềm tự do của Stallman. Việc các tập đoàn lớn độc quyền các mô hình đóng chắc chắn sẽ gây ra tác dụng phụ
  • Ông ấy không sai. ChatGPT chỉ là một bản mô phỏng của trí tuệ (simulacrum), hữu ích nhưng không thể tin cậy hoàn toàn. Xét cả về tự do và tính mở thì cũng khó gọi là tích cực

    • Cách nói “bản mô phỏng của trí tuệ” rốt cuộc chỉ là cách diễn đạt hoa mỹ hơn của trí tuệ nhân tạo
    • Tôi nghĩ gọi nó là “thứ hành xử giống trí tuệ” thì phù hợp hơn
    • Nếu bản mô phỏng đó trở nên mạnh hơn rất nhiều, liệu khi ấy có thể gọi nó là trí tuệ không thì tôi khá tò mò
    • Thực ra tôi cũng nghĩ có khi chính bạn cũng chỉ là “một bản mô phỏng của trí tuệ”
  • Tôi thích dùng thuật ngữ LLM hơn. Nhưng đa số mọi người không biết đó là gì nên cuối cùng vẫn phải giải thích là AI. LLM không phải bullshit generator. Dù nó không hiểu ý nghĩa thì chỉ cần kết quả hữu ích là đủ. Giống như đầu bếp vẫn có thể luộc trứng mà không cần hiểu bản chất của quả trứng. Tuy nhiên, các mô hình như vậy phải có thể chạy tự do trên phần cứng riêng hoặc đám mây của bên thứ ba. Hiện tại các mô hình Trung Quốc đang thống trị thị trường. ChatGPT có thể cũng không trụ được lâu nếu không giải quyết được tình trạng “code red” nội bộ

    • Tôi cũng thường không hiểu ý nghĩa của những gì mình tạo ra. Nhiều trạng thái nội tâm như cảm xúc hay suy nghĩ chỉ có thể hiểu được sau một thời gian. Vì vậy mới có quá trình ghi nhật ký
    • Câu “không hiểu ý nghĩa nhưng kết quả mới là thứ quan trọng” thực ra khá giống với định nghĩa của bullshit
    • Chính ở chỗ ChatGPT không biết khi nào mình sai mà cách gọi bullshit lại trở nên hoàn hảo. Không phải nói dối, mà là hành vi tập trung vào việc đạt mục tiêu bất kể đúng sai
    • Câu “kết quả là thứ quan trọng” là sai. Kết quả đó chỉ quan trọng với CIA mà thôi
  • Việc trên trang của Stallman có hẳn mục “What’s bad about” khá buồn cười. Cấu trúc ấy cho thấy mức độ tự nhận thức cũng kha khá

    • Những lập luận kiểu “muốn đăng bài lên Reddit thì phải chạy JavaScript không tự do” là điều đáng nể, nhưng giờ nghe đã giống lời càm ràm của người già. Phê phán cần cụ thể hơn
    • Nếu thực sự tự nhận thức, hẳn ông ấy cũng đã thêm các mục như “What’s bad about Richard Stallman / GPL / GNU / Emacs”
  • Cũng như không thể nói máy tính bỏ túi không làm được toán chỉ vì nó không hiểu con số, AI cũng xử lý từ ngữ theo cách tương tự con người. Nó thiếu sáng tạo nhưng vẫn đủ sức làm tốt các công việc thường nhật. Ví dụ, nếu hỏi về hệ thống thuế Đức, dù có đôi chỗ không chính xác thì khả năng cao nó vẫn đúng hơn kết quả tôi tự nghiên cứu trong hai tiếng

    • Nhưng phép so sánh đó không phù hợp. AI không hiểu hay suy luận, nên nó không tạo ra chân lý. Máy tính bỏ túi được thiết kế chính xác cho phép toán, cũng như nó không thể khai thuế vậy
  • Nếu định nghĩa trí tuệ là “khả năng hiểu hiện tượng lạ và xây dựng mô hình tinh thần”, thì các mô hình hiện nay không phải trí tuệ vì chúng không thể cập nhật trọng số tại thời điểm suy luận. Việc học bằng gradient descent quá kém hiệu quả, nên trí tuệ của các mô hình chỉ dùng để suy luận hiện tại về cơ bản gần như bằng 0

    • Nhưng trí tuệ và học tập phải được tách biệt. Một người chỉ có trí nhớ ngắn hạn vẫn có thể thông minh. Stallman cũng từng nói ông xem cả những hệ thống đơn giản là AI, nên ở đây không chỉ nói tới trí tuệ kiểu con người
  • LLM rốt cuộc là thứ tạo ra ảo giác (hallucination). Chỉ là có những ảo giác lại hữu ích

    • Tôi cũng đã sống phần lớn cuộc đời như trong ảo giác (không phải do thuốc)
    • Có lẽ một ngày nào đó chúng ta sẽ phải thừa nhận rằng chính ý thức và qualia cũng là một dạng ảo giác
  • Lập luận “ChatGPT không hiểu gì nên không phải trí tuệ” thực ra là cách vừa hạ thấp vừa nhân cách hóa (anthropomorphize) ChatGPT. Tuy vậy, tôi đồng ý với ý “phần mềm chạy trên máy chủ của người khác làm tổn hại tự do tính toán”. Thật đáng tiếc khi sự phát triển AI này lại diễn ra trong một môi trường không thể tự do chạy hoặc phát triển

  • LLM không phải trí tuệ thật, nhưng vẫn có thể gọi là trí tuệ nhân tạo (artificial intelligence). Cũng như cỏ nhân tạo không phải cỏ thật nhưng người ta vẫn gọi là “cỏ”, nên cái tên đó tự nó vẫn hợp lý

    • Vì vậy tôi dùng thuật ngữ chính xác là LLM thay cho “AI”. Từ “nhân tạo” có nghĩa là do con người tạo ra, nhưng Stallman cho rằng cách gọi đó không phù hợp vì nó không thực hiện cùng mục đích như trí tuệ con người. Nếu CEO thay nhân viên bằng chatbot, thì đó không phải trí tuệ nhân tạo mà là nhân lực hỗ trợ nhân tạo
    • Có người nói LLM không có trải nghiệm thực tế, nhưng con người cũng có rất nhiều lĩnh vực không thể trực tiếp cảm nhận. Ví dụ, những gì chúng ta biết về đám mây Oort rốt cuộc cũng chỉ là trải nghiệm gián tiếp
  • Bản chất của LLM rất đơn giản. Định nghĩa của trí tuệ không quan trọng. Tôi gọi LLM là “Associator”. Nó không suy nghĩ hay thấu hiểu, nhưng liên kết các mẫu ngôn ngữ để tạo ra kết quả hữu ích

    • Tôi thích cách nhìn này. Mọi người hay thần bí hóa LLM hoặc sa vào tranh cãi về trí tuệ, nhưng cứ nhìn nó đúng như bản chất là được. Vấn đề là chúng ta lại hiểu về con người còn kém hơn
 
supermaxi 2025-12-11

Nếu trí tuệ nhân tạo rốt cuộc không thể có linh hồn, thì liệu có lý do gì để trí tuệ của chúng nhất thiết phải giống với trí tuệ của con người vốn theo đuổi chân lý? Thậm chí, phần lớn những gì chúng ta gọi là hoạt động trí tuệ còn dựa trên dối trá và ảo giác. Con người trong xã hội hiện đại cũng đang tác động đến cuộc sống của người khác bằng những điều sai trái vì không nhận thức được hiện tượng (hoặc cố tình làm vậy).