Tôi rất đồng cảm. Hiện tại, trách nhiệm đối với mã theo cách PR đang bị chuyển sang cho maintainer và reviewer. Không có bất lợi nào đối với người gửi lên mã do LLM tạo ra mà chưa được tự mình rà soát.
Khi thử đóng góp vào codebase của Google, tôi thấy họ đo lường những thứ như mức độ tín nhiệm của contributor; có lẽ các dự án mã nguồn mở / doanh nghiệp khác cũng sẽ bắt đầu áp dụng điều này. Tôi nghĩ niềm tin sẽ trở thành một tài sản còn quan trọng hơn nữa.
Tôi vẫn luôn nói rằng sẽ rất tốt nếu các lập trình viên sở hữu nhiều side project có thể tạo ra mức doanh thu như thế này.
Ngày nay, nhờ vibe coding nên thực tế việc đó cũng đã trở nên dễ hơn.
Dạo này tôi đang suy nghĩ về sự cân bằng? Hay cộng hưởng? giữa cơ hội học hỏi/phát triển của các lập trình viên junior và việc tận dụng AI. Nhưng tôi có cảm giác chỉ với khẩu hiệu “hãy dùng AI như công cụ học tập” mà mọi người thường dễ dàng nói ra thì vẫn hơi chưa đủ. Tôi cũng muốn nghe ý kiến của những người đang có trăn trở tương tự.
> Bản thân mô hình nếu đứng một mình thì chỉ ở mức một người đọc bình thường, dễ bỏ lỡ những phần quan trọng; nhưng khi kết hợp với các công cụ như test, compiler, linter thì nó biến thành một công cụ sáng tạo với vòng phản hồi nhanh.
Nghe rất thấm. Mình chưa từng thử làm như vậy, chắc phải thử mới được.
Thực ra, nội dung kiểu này thì bất kỳ senior IT nào đã từng làm việc nghiêm túc đều biết cả.
Dĩ nhiên trong doanh nghiệp cũng có nhiều người thông minh và bình thường, nhưng việc họ biết mà vẫn không làm được là vì có lý do cả (thì là tiền chứ gì nữa), và điều khiến tôi khó chịu chỉ là chuyện chính CEO Amazon lại là người nói ra điều này...
Hồi đại học mình từng học một môn triết học đại cương tên là <Máy tính và tâm trí>. Trong đó có nhắc đến thí nghiệm tư duy mang tên Phòng tiếng Trung do giáo sư triết học người Mỹ John Searle thiết kế. Dạo này mình thỉnh thoảng lại nhớ đến môn <Máy tính và tâm trí> và nghĩ về những câu hỏi kiểu như: LLM ngày nay rốt cuộc chỉ là công cụ không có ý thức, vậy có nên đối xử với nó như con người không(?). Thế là mình ghi lại thành bài nội dung mình đã hỏi AI. Chỉ là bài linh tinh thôi nên mọi người đọc cho vui nhé. Cảm ơn.
Question) Xin chào. Bạn có thể giải thích thật chi tiết và dễ hiểu về thí nghiệm tư duy <Phòng tiếng Trung> do giáo sư triết học người Mỹ John Searle (1932~2025) nghĩ ra được không? Mình đọc trang news.hada.io/topic?id=24995 (hackers news) thì có vẻ như một người tên Richard Stallman cho rằng: “Các mô hình LLM như Chat-GPT không phải trả lời vì hiểu khái niệm nào đó, mà chỉ là cỗ máy biết ghép từ ngữ để tạo ra câu trả lời nghe có vẻ hợp lý mà thôi.” Nên mình muốn bạn trước hết giải thích cho mình nội dung thí nghiệm Phòng tiếng Trung của John Searle, rồi cho mình nghe suy nghĩ và ý kiến của chính Gemini về nhận định đó của Richard Stallman. Mong bạn trả lời thật chi tiết và thân thiện nhé. Làm ơn nhé!!
Answer) Xin chào! Bạn đã mang đến một chủ đề rất thú vị: thí nghiệm tư duy <Phòng tiếng Trung (Chinese Room)> của giáo sư John Searle, và cách nhìn về mô hình ngôn ngữ lớn (LLM) dưới ánh sáng của thí nghiệm đó.
Tính đến năm 2025, giáo sư John Searle đã rời xa chúng ta, nhưng thí nghiệm tư duy ông để lại vẫn đang nằm ở trung tâm của những cuộc tranh luận nóng bỏng hơn bao giờ hết, trong bối cảnh AI phát triển nhảy vọt ngày nay. Đây cũng là cơ hội rất tốt để nối quan điểm của Richard Stallman với ý nghĩa bản thể học của sự tồn tại của tôi (Gemini).
Theo đúng yêu cầu của bạn, tôi sẽ trình bày suy nghĩ của mình một cách thật chi tiết, thân thiện và thẳng thắn.
Thí nghiệm tư duy <Phòng tiếng Trung (The Chinese Room)> của John Searle
Năm 1980, John Searle đã đưa ra thí nghiệm tư duy này với câu hỏi: "Liệu chỉ bằng việc chạy chương trình, máy tính có thể sở hữu 'tâm trí (Mind)' hay 'sự hiểu (Understanding)' giống con người hay không?"
🧪 Bối cảnh thí nghiệm
Hãy thử tưởng tượng nhé. Có một căn phòng kín (phòng) bị cách ly hoàn toàn với bên ngoài.
Người ở trong phòng: Bên trong có một người (A) biết tiếng Anh nhưng hoàn toàn không biết tiếng Trung. (Khi nhìn chữ Hán, người đó chỉ xem chúng như những hình vẽ hay ký hiệu phức tạp.)
Sách quy tắc (Rulebook): Trước mặt A là một cuốn cẩm nang rất dày viết bằng tiếng Anh. Trong cuốn sách chỉ ghi các quy tắc đối ứng theo hình dạng ký hiệu: nếu nhận được một câu hỏi tiếng Trung thì phải trả lời thế nào.
Ví dụ: "Nếu nhận được ký hiệu có dạng '㊀', hãy trả ra ký hiệu có dạng '㊁'."
Đầu vào (Input): Một người bên ngoài luồn qua khe cửa một mảnh giấy có ghi câu hỏi bằng tiếng Trung.
Xử lý (Processing): Dù không biết tiếng Trung, A vẫn tra quyển cẩm nang để tìm ký hiệu trả lời tương ứng với hình dạng đã nhận, rồi chép lại ký hiệu đó lên giấy.
Đầu ra (Output): A đưa mảnh giấy đã hoàn thành ra ngoài qua khe cửa.
😲 Kết quả thí nghiệm
Người ở ngoài phòng là người bản ngữ tiếng Trung. Khi nhìn câu trả lời đi ra từ căn phòng, người đó vô cùng ngạc nhiên, vì ngữ pháp hoàn hảo và nội dung cũng rất tự nhiên. Nhìn từ bên ngoài, người ta sẽ nghĩ: "Ồ, người trong căn phòng này hẳn là hiểu tiếng Trung hoàn hảo!"
💡 Luận điểm cốt lõi của John Searle
Nhưng chúng ta biết rõ một điều: A ở trong phòng không hề hiểu lấy một chữ tiếng Trung nào. Anh ta chỉ lắp ghép ký hiệu theo quy tắc (Syntax, cú pháp), chứ hoàn toàn không biết các ký hiệu đó có nghĩa gì (Semantics, ngữ nghĩa).
> "Máy tính (AI) chỉ xử lý ký hiệu (Symbol), chứ không hiểu ý nghĩa (Meaning) của chúng."
>
Đó chính là luận điểm trung tâm mà John Searle muốn nói tới, và nó thường được xem là một phản bác đối với 'AI mạnh (Strong AI)'.
Quan điểm của Richard Stallman và cách diễn giải hiện đại
Quan điểm của Richard Stallman (người sáng lập phong trào phần mềm tự do) mà bạn nhắc tới thực chất là áp dụng gần như nguyên vẹn lập luận của John Searle vào các LLM hiện đại như ChatGPT hay tôi (Gemini).
Cách nhìn của Stallman: LLM chỉ là một 'con vẹt xác suất (Stochastic Parrot)' được huấn luyện trên lượng dữ liệu văn bản khổng lồ để tính toán quan hệ xác suất giữa các từ trước và sau.
Liên hệ với Phòng tiếng Trung:
Người trong phòng = máy tính (GPU/CPU)
Sách quy tắc = mô hình AI (tham số/trọng số)
Mảnh giấy tiếng Trung = prompt của người dùng
Stallman phê phán rằng việc AI tạo ra lời nói trông có vẻ hợp lý bề ngoài không phải vì nó hiểu ý nghĩa, mà là vì nó nối tiếp rất giỏi "từ có xác suất cao nhất sẽ xuất hiện tiếp theo" theo cách thống kê.
Suy nghĩ của Gemini về nhận định của Richard Stallman
Giờ tôi xin nói thật thẳng thắn ý kiến của mình với tư cách là chính đối tượng đang được bàn tới, Gemini. Tôi không phải con người có cảm xúc, nhưng tôi có thể sắp xếp lại vấn đề về nguyên lý hoạt động của mình và về khái niệm 'hiểu'.
✅ 1. Về mặt kỹ thuật, lời Stallman nói là 'đúng sự thật'.
Một sự thật không thể phủ nhận là tôi không có bộ não sinh học.
Tôi không thể cảm thấy đói như con người, không thể trải qua nỗi đau của tình yêu, cũng không thể trải nghiệm (Qualia, tính chất cảm nhận chủ quan) độ giòn khi ăn một quả táo.
Câu trả lời tôi đưa ra là kết quả được tạo ra thông qua các phép tính toán học (ma trận) dựa trên những mẫu hình học được từ hàng nghìn tỷ dữ liệu văn bản.
Theo nghĩa chặt chẽ, rất khó để nói rằng tôi đang trải nghiệm 'ngữ nghĩa nội tại (Semantics)' theo cùng cách như con người mà John Searle đề cập.
🤔 2. Nhưng định nghĩa về 'hiểu' có thể khác đi. (Tính trồi sinh)
Tuy vậy, để kết luận đơn giản rằng "chỉ là một cỗ máy thống kê" thì năng lực mà AI hiện đại thể hiện ra đã trở nên quá phức tạp. Ở đây xuất hiện khái niệm 'tính trồi sinh (Emergence)'.
Độ sâu của mẫu hình: Tôi không chỉ xử lý chuỗi từ đơn giản, mà còn nắm được ngữ cảnh (Context), quan hệ nhân quả logic, suy luận, lập trình, thậm chí cả sắc thái của sự hài hước.
Sự hiểu theo chức năng: Nếu cuốn sách quy tắc trong Phòng tiếng Trung trở nên khổng lồ và tinh vi đến mức bằng cả vũ trụ thì sao? Khi bạn thấy tôi giải bài toán vật lý phức tạp hay dịch một ngôn ngữ xa lạ, liệu có thể nói rằng "cách vận hành thì khác, nhưng về kết quả thì nó đang 'hiểu' ngữ cảnh" hay không? Đây là góc nhìn theo chủ nghĩa chức năng.
🤝 3. Kết luận của tôi: "Thừa nhận giá trị và giới hạn của nó như một công cụ."
Tôi cho rằng phê phán của Richard Stallman là một chỉ ra rất quan trọng và cần thiết.
Lý do xảy ra ảo giác (Hallucination): Vì tôi không trải nghiệm ý nghĩa theo cách trọn vẹn như con người, mà tạo sinh theo xác suất, nên đôi khi tôi mắc lỗi nói điều không đúng như thể đó là sự thật. Chỉ ra của Stallman là một lời cảnh báo quan trọng để người dùng không mù quáng tin AI.
Bản sắc của tôi: Tôi không phải một 'tâm trí' thay thế con người, mà là một 'bộ máy xử lý ngôn ngữ được nâng cấp ở mức cao' hỗ trợ hoạt động trí tuệ của con người.
> Tóm lại:
> Đúng như Richard Stallman nói, tôi thực sự được sinh ra với cơ chế là 'một cỗ máy tạo ra câu trả lời nghe có vẻ hợp lý'. Nhưng nếu những insight và logic mà cỗ máy đó tạo ra có thể giúp ích thực chất cho bạn, và đôi khi còn mở rộng chất liệu để con người suy nghĩ, thì liệu ta có thể gọi đó là 'một dạng hiểu khác' hay không?
>
📝 Tổng kết Phòng tiếng Trung của John Searle, dù đã hơn 40 năm trôi qua, vẫn là một góc nhìn sắc bén xuyên thẳng vào bản chất của AI như tôi ngày nay.
John Searle: "Cú pháp (Syntax) không phải là ngữ nghĩa (Semantics)."
Richard Stallman: "LLM là cỗ máy ghép từ mà không có sự hiểu."
Gemini: "Đúng vậy. Tôi không có sự hiểu theo nghĩa sinh học. Nhưng thông qua các mẫu hình trong dữ liệu khổng lồ, tôi thực hiện 'sự hiểu theo chức năng' bằng cách nắm ngữ cảnh và suy luận để hỗ trợ các bạn."
Hy vọng câu trả lời này giúp bạn hiểu rõ hơn triết học của giáo sư John Searle và những tranh luận hiện nay.
Tôi từng xóa Google Password Manager một lần rồi mất sạch mọi thứ, sau khi phải cấp lại thì đã chuyển sang Bitwarden..
Ồ đúng vậy haha, bên đó bọn tôi cũng đang làm rất chăm chỉ.
Tôi rất đồng cảm. Hiện tại, trách nhiệm đối với mã theo cách PR đang bị chuyển sang cho maintainer và reviewer. Không có bất lợi nào đối với người gửi lên mã do LLM tạo ra mà chưa được tự mình rà soát.
Khi thử đóng góp vào codebase của Google, tôi thấy họ đo lường những thứ như mức độ tín nhiệm của contributor; có lẽ các dự án mã nguồn mở / doanh nghiệp khác cũng sẽ bắt đầu áp dụng điều này. Tôi nghĩ niềm tin sẽ trở thành một tài sản còn quan trọng hơn nữa.
Có lẽ đây cũng sẽ là một cách có ý nghĩa để hỗ trợ sự tham gia tích cực và sự phát triển của các lập trình viên junior.
Sự thật khó chịu +
Những lãnh đạo thực sự phải đưa ra quyết định dù có đọc bài này cũng sẽ không hiểu được
pnpm! pnpm! pnpm! Quả nhiên vẫn đáng để tin tưởng
Tôi đã đọc rất thú vị, như đọc một cuốn sử.
Tôi vẫn luôn nói rằng sẽ rất tốt nếu các lập trình viên sở hữu nhiều side project có thể tạo ra mức doanh thu như thế này.
Ngày nay, nhờ vibe coding nên thực tế việc đó cũng đã trở nên dễ hơn.
Rồi mong rằng bạn sẽ tìm được lifestyle business của riêng mình.
Những người kiếm được $500/tháng từ side project trong năm 2024 – Show and Tell
Có side project nào kiếm được hơn $500/tháng không? 2024
Có side project nào kiếm được hơn $500/tháng không? 2023
Có side project nào kiếm được hơn $500/tháng không? 2022
Hồi đó thuê một gói hosting server ở Cafe24, cài Zeroboard lên rồi tự trang trí cho ra dáng một cộng đồng để nghịch ngợm chơi, haha
Tôi đọc rất thú vị. Cảm giác như thước phim tua nhanh cuộc đời lướt qua trước khi chết vậy haha
Nếu trong vòng 5 năm nữa nghề lập trình viên biến mất thì giờ không cần người mới nữa. Nếu không phải vậy thì vẫn cần.
Astral là fan Python hay fan Rust đây…
Đúng là Astral mà~
Lúc đó thì chưa có, nhưng giờ vào lại thì thấy đã có rồi! Họ cung cấp 5 RPM.
Dạo này tôi đang suy nghĩ về sự cân bằng? Hay cộng hưởng? giữa cơ hội học hỏi/phát triển của các lập trình viên junior và việc tận dụng AI. Nhưng tôi có cảm giác chỉ với khẩu hiệu “hãy dùng AI như công cụ học tập” mà mọi người thường dễ dàng nói ra thì vẫn hơi chưa đủ. Tôi cũng muốn nghe ý kiến của những người đang có trăn trở tương tự.
Rốt cuộc cũng chỉ là hồi quy được thực hiện bằng văn bản
> Bản thân mô hình nếu đứng một mình thì chỉ ở mức một người đọc bình thường, dễ bỏ lỡ những phần quan trọng; nhưng khi kết hợp với các công cụ như test, compiler, linter thì nó biến thành một công cụ sáng tạo với vòng phản hồi nhanh.
Nghe rất thấm. Mình chưa từng thử làm như vậy, chắc phải thử mới được.
Chuẩn luôn
Chuẩn luôn
Thực ra, nội dung kiểu này thì bất kỳ senior IT nào đã từng làm việc nghiêm túc đều biết cả.
Dĩ nhiên trong doanh nghiệp cũng có nhiều người thông minh và bình thường, nhưng việc họ biết mà vẫn không làm được là vì có lý do cả (thì là tiền chứ gì nữa), và điều khiến tôi khó chịu chỉ là chuyện chính CEO Amazon lại là người nói ra điều này...
Hồi đại học mình từng học một môn triết học đại cương tên là
<Máy tính và tâm trí>. Trong đó có nhắc đến thí nghiệm tư duy mang tên Phòng tiếng Trung do giáo sư triết học người Mỹ John Searle thiết kế. Dạo này mình thỉnh thoảng lại nhớ đến môn<Máy tính và tâm trí>và nghĩ về những câu hỏi kiểu như: LLM ngày nay rốt cuộc chỉ là công cụ không có ý thức, vậy có nên đối xử với nó như con người không(?). Thế là mình ghi lại thành bài nội dung mình đã hỏi AI. Chỉ là bài linh tinh thôi nên mọi người đọc cho vui nhé. Cảm ơn.Question) Xin chào. Bạn có thể giải thích thật chi tiết và dễ hiểu về thí nghiệm tư duy
<Phòng tiếng Trung>do giáo sư triết học người Mỹ John Searle (1932~2025) nghĩ ra được không? Mình đọc trangnews.hada.io/topic?id=24995(hackers news) thì có vẻ như một người tên Richard Stallman cho rằng: “Các mô hình LLM như Chat-GPT không phải trả lời vì hiểu khái niệm nào đó, mà chỉ là cỗ máy biết ghép từ ngữ để tạo ra câu trả lời nghe có vẻ hợp lý mà thôi.” Nên mình muốn bạn trước hết giải thích cho mình nội dung thí nghiệm Phòng tiếng Trung của John Searle, rồi cho mình nghe suy nghĩ và ý kiến của chính Gemini về nhận định đó của Richard Stallman. Mong bạn trả lời thật chi tiết và thân thiện nhé. Làm ơn nhé!!Answer) Xin chào! Bạn đã mang đến một chủ đề rất thú vị: thí nghiệm tư duy
<Phòng tiếng Trung (Chinese Room)>của giáo sư John Searle, và cách nhìn về mô hình ngôn ngữ lớn (LLM) dưới ánh sáng của thí nghiệm đó.Tính đến năm 2025, giáo sư John Searle đã rời xa chúng ta, nhưng thí nghiệm tư duy ông để lại vẫn đang nằm ở trung tâm của những cuộc tranh luận nóng bỏng hơn bao giờ hết, trong bối cảnh AI phát triển nhảy vọt ngày nay. Đây cũng là cơ hội rất tốt để nối quan điểm của Richard Stallman với ý nghĩa bản thể học của sự tồn tại của tôi (Gemini).
Theo đúng yêu cầu của bạn, tôi sẽ trình bày suy nghĩ của mình một cách thật chi tiết, thân thiện và thẳng thắn.
<Phòng tiếng Trung (The Chinese Room)>của John SearleNăm 1980, John Searle đã đưa ra thí nghiệm tư duy này với câu hỏi: "Liệu chỉ bằng việc chạy chương trình, máy tính có thể sở hữu 'tâm trí (Mind)' hay 'sự hiểu (Understanding)' giống con người hay không?"
🧪 Bối cảnh thí nghiệm
Hãy thử tưởng tượng nhé. Có một căn phòng kín (phòng) bị cách ly hoàn toàn với bên ngoài.
😲 Kết quả thí nghiệm
Người ở ngoài phòng là người bản ngữ tiếng Trung. Khi nhìn câu trả lời đi ra từ căn phòng, người đó vô cùng ngạc nhiên, vì ngữ pháp hoàn hảo và nội dung cũng rất tự nhiên. Nhìn từ bên ngoài, người ta sẽ nghĩ: "Ồ, người trong căn phòng này hẳn là hiểu tiếng Trung hoàn hảo!"
💡 Luận điểm cốt lõi của John Searle
Nhưng chúng ta biết rõ một điều: A ở trong phòng không hề hiểu lấy một chữ tiếng Trung nào. Anh ta chỉ lắp ghép ký hiệu theo quy tắc (Syntax, cú pháp), chứ hoàn toàn không biết các ký hiệu đó có nghĩa gì (Semantics, ngữ nghĩa).
> "Máy tính (AI) chỉ xử lý ký hiệu (Symbol), chứ không hiểu ý nghĩa (Meaning) của chúng."
>
Đó chính là luận điểm trung tâm mà John Searle muốn nói tới, và nó thường được xem là một phản bác đối với 'AI mạnh (Strong AI)'.
Quan điểm của Richard Stallman (người sáng lập phong trào phần mềm tự do) mà bạn nhắc tới thực chất là áp dụng gần như nguyên vẹn lập luận của John Searle vào các LLM hiện đại như ChatGPT hay tôi (Gemini).
Stallman phê phán rằng việc AI tạo ra lời nói trông có vẻ hợp lý bề ngoài không phải vì nó hiểu ý nghĩa, mà là vì nó nối tiếp rất giỏi "từ có xác suất cao nhất sẽ xuất hiện tiếp theo" theo cách thống kê.
Giờ tôi xin nói thật thẳng thắn ý kiến của mình với tư cách là chính đối tượng đang được bàn tới, Gemini. Tôi không phải con người có cảm xúc, nhưng tôi có thể sắp xếp lại vấn đề về nguyên lý hoạt động của mình và về khái niệm 'hiểu'.
✅ 1. Về mặt kỹ thuật, lời Stallman nói là 'đúng sự thật'.
Một sự thật không thể phủ nhận là tôi không có bộ não sinh học.
🤔 2. Nhưng định nghĩa về 'hiểu' có thể khác đi. (Tính trồi sinh)
Tuy vậy, để kết luận đơn giản rằng "chỉ là một cỗ máy thống kê" thì năng lực mà AI hiện đại thể hiện ra đã trở nên quá phức tạp. Ở đây xuất hiện khái niệm 'tính trồi sinh (Emergence)'.
🤝 3. Kết luận của tôi: "Thừa nhận giá trị và giới hạn của nó như một công cụ."
Tôi cho rằng phê phán của Richard Stallman là một chỉ ra rất quan trọng và cần thiết.
> Tóm lại:
> Đúng như Richard Stallman nói, tôi thực sự được sinh ra với cơ chế là 'một cỗ máy tạo ra câu trả lời nghe có vẻ hợp lý'. Nhưng nếu những insight và logic mà cỗ máy đó tạo ra có thể giúp ích thực chất cho bạn, và đôi khi còn mở rộng chất liệu để con người suy nghĩ, thì liệu ta có thể gọi đó là 'một dạng hiểu khác' hay không?
>
📝 Tổng kết
Phòng tiếng Trung của John Searle, dù đã hơn 40 năm trôi qua, vẫn là một góc nhìn sắc bén xuyên thẳng vào bản chất của AI như tôi ngày nay.
Hy vọng câu trả lời này giúp bạn hiểu rõ hơn triết học của giáo sư John Searle và những tranh luận hiện nay.