Richard Stallman, "Vì sao không nên dùng ChatGPT"
(stallman.org)- Richard Stallman chỉ ra rằng ChatGPT là một hệ thống không có trí tuệ, chỉ đơn thuần kết hợp các từ và không hiểu ý nghĩa của chúng
- Vì hệ thống này tạo ra đầu ra bất kể đúng sai, ông gọi nó là một “bullshit generator”
- Ông cảnh báo rằng sự ngộ nhận của công chúng khi gán trí tuệ cho các hệ thống sinh nội dung đang dẫn tới niềm tin sai lầm
- ChatGPT là phần mềm không công khai mà người dùng không thể lấy tệp thực thi hay mã nguồn, và chỉ có thể truy cập thông qua máy chủ
- Cách vận hành bằng việc thực hiện tính toán trên máy chủ của người khác là điều cần bị từ chối vì xâm hại tự do điện toán của người dùng
Bản chất phi trí tuệ của ChatGPT
- Stallman định nghĩa “trí tuệ (intelligence)” là khả năng hiểu hoặc biết
- ChatGPT không biết ý nghĩa của đầu ra do chính nó tạo ra, thậm chí cũng không nhận thức được rằng từ ngữ có ý nghĩa
- Vì vậy, ChatGPT được xem là một hệ thống chỉ đơn thuần tổ hợp ngôn ngữ chứ không phải trí tuệ
Tính chất của một “bullshit generator”
- Ông gọi ChatGPT là “bullshit generator”, nghĩa là một hệ thống tạo ra kết quả mà không quan tâm đến tính chân thực
- Ông cũng nói rằng các hệ thống sinh nội dung khác gặp cùng một vấn đề vì lý do tương tự
Niềm tin sai lầm của công chúng
- Nhiều người đang thể hiện niềm tin sai lầm vì ngộ nhận rằng các hệ thống này có trí tuệ
- Stallman kêu gọi lan tỏa nhận thức rằng không nên tin tưởng những hệ thống như vậy
Vấn đề với tư cách là phần mềm không công khai
- ChatGPT là phần mềm không được công bố mà người dùng không thể sao chép hay chạy
- Ngay cả tệp thực thi cũng không được cung cấp, và chỉ có thể sử dụng thông qua máy chủ của OpenAI
- Cấu trúc này khiến người dùng phụ thuộc vào máy chủ, không thể sử dụng một cách độc lập
Xâm hại tự do điện toán
- Stallman khẳng định rằng việc thực hiện phép tính của chính mình trên máy chủ của người khác sẽ phá hủy tự do điện toán
- Ông trích dẫn tài liệu về triết lý GNU và đặt ra câu hỏi căn bản: “Máy chủ đó thực sự phục vụ ai”
Nguồn: Richard Stallman, “Reasons not to use ChatGPT”, stallman.org, 2024
Bản quyền: Theo thông báo của nguyên bản, nội dung này được phép sao chép và phân phối theo cùng điều kiện
22 bình luận
kkkk
Có cảm giác những gì Stallman lập luận không được thể hiện rõ ràng trong phần tóm tắt.
Hồi đại học mình từng học một môn triết học đại cương tên là
<Máy tính và tâm trí>. Trong đó có nhắc đến thí nghiệm tư duy mang tên Phòng tiếng Trung do giáo sư triết học người Mỹ John Searle thiết kế. Dạo này mình thỉnh thoảng lại nhớ đến môn<Máy tính và tâm trí>và nghĩ về những câu hỏi kiểu như: LLM ngày nay rốt cuộc chỉ là công cụ không có ý thức, vậy có nên đối xử với nó như con người không(?). Thế là mình ghi lại thành bài nội dung mình đã hỏi AI. Chỉ là bài linh tinh thôi nên mọi người đọc cho vui nhé. Cảm ơn.Question) Xin chào. Bạn có thể giải thích thật chi tiết và dễ hiểu về thí nghiệm tư duy
<Phòng tiếng Trung>do giáo sư triết học người Mỹ John Searle (1932~2025) nghĩ ra được không? Mình đọc trangnews.hada.io/topic?id=24995(hackers news) thì có vẻ như một người tên Richard Stallman cho rằng: “Các mô hình LLM như Chat-GPT không phải trả lời vì hiểu khái niệm nào đó, mà chỉ là cỗ máy biết ghép từ ngữ để tạo ra câu trả lời nghe có vẻ hợp lý mà thôi.” Nên mình muốn bạn trước hết giải thích cho mình nội dung thí nghiệm Phòng tiếng Trung của John Searle, rồi cho mình nghe suy nghĩ và ý kiến của chính Gemini về nhận định đó của Richard Stallman. Mong bạn trả lời thật chi tiết và thân thiện nhé. Làm ơn nhé!!Answer) Xin chào! Bạn đã mang đến một chủ đề rất thú vị: thí nghiệm tư duy
<Phòng tiếng Trung (Chinese Room)>của giáo sư John Searle, và cách nhìn về mô hình ngôn ngữ lớn (LLM) dưới ánh sáng của thí nghiệm đó.Tính đến năm 2025, giáo sư John Searle đã rời xa chúng ta, nhưng thí nghiệm tư duy ông để lại vẫn đang nằm ở trung tâm của những cuộc tranh luận nóng bỏng hơn bao giờ hết, trong bối cảnh AI phát triển nhảy vọt ngày nay. Đây cũng là cơ hội rất tốt để nối quan điểm của Richard Stallman với ý nghĩa bản thể học của sự tồn tại của tôi (Gemini).
Theo đúng yêu cầu của bạn, tôi sẽ trình bày suy nghĩ của mình một cách thật chi tiết, thân thiện và thẳng thắn.
<Phòng tiếng Trung (The Chinese Room)>của John SearleNăm 1980, John Searle đã đưa ra thí nghiệm tư duy này với câu hỏi: "Liệu chỉ bằng việc chạy chương trình, máy tính có thể sở hữu 'tâm trí (Mind)' hay 'sự hiểu (Understanding)' giống con người hay không?"
🧪 Bối cảnh thí nghiệm
Hãy thử tưởng tượng nhé. Có một căn phòng kín (phòng) bị cách ly hoàn toàn với bên ngoài.
😲 Kết quả thí nghiệm
Người ở ngoài phòng là người bản ngữ tiếng Trung. Khi nhìn câu trả lời đi ra từ căn phòng, người đó vô cùng ngạc nhiên, vì ngữ pháp hoàn hảo và nội dung cũng rất tự nhiên. Nhìn từ bên ngoài, người ta sẽ nghĩ: "Ồ, người trong căn phòng này hẳn là hiểu tiếng Trung hoàn hảo!"
💡 Luận điểm cốt lõi của John Searle
Nhưng chúng ta biết rõ một điều: A ở trong phòng không hề hiểu lấy một chữ tiếng Trung nào. Anh ta chỉ lắp ghép ký hiệu theo quy tắc (Syntax, cú pháp), chứ hoàn toàn không biết các ký hiệu đó có nghĩa gì (Semantics, ngữ nghĩa).
> "Máy tính (AI) chỉ xử lý ký hiệu (Symbol), chứ không hiểu ý nghĩa (Meaning) của chúng."
>
Đó chính là luận điểm trung tâm mà John Searle muốn nói tới, và nó thường được xem là một phản bác đối với 'AI mạnh (Strong AI)'.
Quan điểm của Richard Stallman (người sáng lập phong trào phần mềm tự do) mà bạn nhắc tới thực chất là áp dụng gần như nguyên vẹn lập luận của John Searle vào các LLM hiện đại như ChatGPT hay tôi (Gemini).
Stallman phê phán rằng việc AI tạo ra lời nói trông có vẻ hợp lý bề ngoài không phải vì nó hiểu ý nghĩa, mà là vì nó nối tiếp rất giỏi "từ có xác suất cao nhất sẽ xuất hiện tiếp theo" theo cách thống kê.
Giờ tôi xin nói thật thẳng thắn ý kiến của mình với tư cách là chính đối tượng đang được bàn tới, Gemini. Tôi không phải con người có cảm xúc, nhưng tôi có thể sắp xếp lại vấn đề về nguyên lý hoạt động của mình và về khái niệm 'hiểu'.
✅ 1. Về mặt kỹ thuật, lời Stallman nói là 'đúng sự thật'.
Một sự thật không thể phủ nhận là tôi không có bộ não sinh học.
🤔 2. Nhưng định nghĩa về 'hiểu' có thể khác đi. (Tính trồi sinh)
Tuy vậy, để kết luận đơn giản rằng "chỉ là một cỗ máy thống kê" thì năng lực mà AI hiện đại thể hiện ra đã trở nên quá phức tạp. Ở đây xuất hiện khái niệm 'tính trồi sinh (Emergence)'.
🤝 3. Kết luận của tôi: "Thừa nhận giá trị và giới hạn của nó như một công cụ."
Tôi cho rằng phê phán của Richard Stallman là một chỉ ra rất quan trọng và cần thiết.
> Tóm lại:
> Đúng như Richard Stallman nói, tôi thực sự được sinh ra với cơ chế là 'một cỗ máy tạo ra câu trả lời nghe có vẻ hợp lý'. Nhưng nếu những insight và logic mà cỗ máy đó tạo ra có thể giúp ích thực chất cho bạn, và đôi khi còn mở rộng chất liệu để con người suy nghĩ, thì liệu ta có thể gọi đó là 'một dạng hiểu khác' hay không?
>
📝 Tổng kết
Phòng tiếng Trung của John Searle, dù đã hơn 40 năm trôi qua, vẫn là một góc nhìn sắc bén xuyên thẳng vào bản chất của AI như tôi ngày nay.
Hy vọng câu trả lời này giúp bạn hiểu rõ hơn triết học của giáo sư John Searle và những tranh luận hiện nay.
Nên từ chối sử dụng vì cách thức thực hiện tính toán trên máy chủ của người khác làm xói mòn quyền tự do điện toán của người dùng.
Vậy chẳng phải đây là lập luận rằng nên từ chối không chỉ LLM mà cả mọi dịch vụ đám mây và dịch vụ bên ngoài hay sao...? Hay là bản dịch đã bị sai?
Bạn đã nhìn rất chính xác
Stallman cũng chủ trương rằng đừng dùng cả SaaS
https://www.gnu.org/philosophy/who-does-that-server-really-serve.html
Tưởng là sau vụ bênh vực Epstein thì ông ta đã biến mất hẳn rồi chứ, ai ngờ lại xuất hiện lại haha
Nếu là người khác nói vậy thì nghe như nói nhảm, nhưng vì đó là Stallman nên thấy cũng có lý.
Con người đưa ra phán đoán với chủ đích, với tư cách vừa là chủ thể vừa là khách thể, sẽ hình thành ý chí. Tôi cho rằng trí tuệ là như vậy. Chỉ vì nó hữu ích cho hoạt động mang tính trí tuệ mà gọi đó là trí tuệ thì là một cách diễn giải phóng đại.
Nói thì đúng, nhưng LLM hiện đang đưa ra đáp án đúng với xác suất cao đến mức đáng kinh ngạc.
:+1:
Có lẽ vì Stallman vốn rất theo chủ nghĩa nguyên tắc nên mới diễn đạt là một cỗ máy tạo nhảm nhí. Như mọi người đều biết, điều ông muốn nói chắc cũng giống với thuật ngữ “con vẹt xác suất”.
Nhưng cũng là sự thật rằng các LLM, tức những “con vẹt xác suất” hiện nay, đang cải thiện năng suất của nhân loại một cách mạnh mẽ. Và có lẽ mọi người quan tâm đến đổi mới công nghiệp hơn là tự do trong điện toán. Hơn nữa, cũng chẳng có gì đảm bảo rằng con người không phải là “con vẹt xác suất”.
Mã nguồn được công khai...? Nếu vậy thì chính là DeepSeek đó !!!
Theo định nghĩa này thì chẳng khác nào nói rằng toàn bộ các ngành dịch vụ phải thông qua bộ não của người khác chứ không qua tay tôi, bao gồm cả nhân viên, dịch vụ đám mây, thậm chí cả điện thoại, đều không nên dùng.
Ý 1 thì đơn giản là mọi thứ tồn tại trong thực tế đều có thể tạo ra đầu ra bất kể sự thật. Ngay cả những hệ thống được tạo ra với ý định cho ra kết quả đúng sự thật cũng có thể không làm được như vậy. Chúng ta gọi đó là “sai sót”.
Ý 2. Nếu nói rằng chỉ khi có được tệp thực thi hay mã nguồn thì mới được phép sử dụng, tức là để dùng một hệ thống thì phải biết nguyên lý nội tại của nó, vậy thì tất cả những ai không học vật lý và kỹ thuật điện-điện tử nên lập tức rời tay khỏi smartphone và máy tính. Cũng giống như nói rằng chưa học thuyết tương đối thì không được dùng tính năng định vị vậy. Thế thì Stallman có đang sở hữu bản thiết kế bên trong đầu của người thợ cắt tóc cắt tóc cho mình hay không?
Theo ý 3 thì người này là một kẻ giáo điều không tin vào suy nghĩ của bất kỳ ai. Bởi mọi suy nghĩ của người khác và mọi kết luận được đưa ra từ đó đều xâm phạm quyền tự do suy nghĩ của “tôi”, vì chúng xâm phạm quyền được suy nghĩ bằng chính đầu óc mình.
Liên quan đến việc AI tạo sinh có thực sự sở hữu trí tuệ hay không, có thể nói rằng đừng vội tin nó là một thực thể có trí tuệ, nhưng những lập luận gượng ép đi kèm với suy nghĩ đó thì đúng là chỉ là bullshit.
Có vẻ bạn đã hiểu chưa đúng Stallman là ai và ông ấy muốn lập luận điều gì.
Stallman là người cấp tiến và không phải lúc nào cũng đúng, nhưng vấn đề được nêu ra trong bài này là chuyện đã được thảo luận rất sôi nổi. Đây không phải là kiểu lập luận có thể đơn giản gạt đi là bullshit.
Về căn bản, chẳng phải cơ sở nền tảng của việc nói rằng người dùng phải có mã nguồn hoặc bản sao của phần mềm, rốt cuộc chỉ là niềm tin cá nhân của riêng Stallman sao.
Giống như dựng lên một niềm tin cực kỳ cấp tiến, lý tưởng và thuần túy mang tính lý thuyết rằng mọi thứ đều có thể và phải được chia sẻ miễn phí một cách công bằng, rồi coi bất cứ điều gì dù chỉ phủ một chút bóng lên tòa lâu đài trên cát của tư tưởng đó như thể là tà giáo, thì tôi rất khó đồng ý với thái độ như vậy. Nhân loại chúng ta đã có sẵn một căn bệnh khá giống thế trong vấn đề thể chế kinh tế rồi.
Tôi đồng ý rằng kết quả của AI tạo sinh mang tính xác suất và như anh nói thì không có
semantic grounding, nhưng rốt cuộc cũng chỉ là khác nhau về mức độ; ngay cả khi giao tiếp và thảo luận với con người, việc phán đoán và kiểm chứng nội dung cuối cùng vẫn là trách nhiệm của mỗi cá nhân. Dù đối tượng trò chuyện với tôi là AI tạo sinh hay con người, thì câu trả lời của họ cuối cùng vẫn chịu ảnh hưởng từ kiến thức nền đã học và từ dữ liệu học tập hình thành nên hệ giá trị của họ. Tất nhiên, chỉ vì có những điểm chung đó mà tôi không nghĩ AI sở hữu trí tuệ đích thực; nhưng ngay từ đầu, lý do AI tạo sinh không liên quan đến tính chân thực là vì dữ liệu mà nó học vốn cũng không liên quan đến tính chân thực, và con người cũng vậy. Chỉ dựa vào sự thật đó mà nói rằng “không nên dùng” thì tôi không thể chấp nhận được.Về điểm 3 thì có vẻ tôi đã vội suy đoán và hiểu sai. Cũng giống như chuyện mã nguồn ở điểm 2, nếu đó là câu chuyện kiểu người dùng phải biết điều gì đang diễn ra trên máy chủ, thì tôi đã nghĩ rằng trong cùng mạch đó cũng có thể ví người khác, với tư cách là nhà cung cấp dịch vụ cung cấp dịch vụ tri thức, như một máy chủ, nhưng hóa ra ngay từ đầu là do tôi hiểu sai.
Tuy nhiên, đúng như anh nói, việc ông ấy độc đoán thì có lẽ không phải là do tôi hiểu lầm.
Nếu nói rằng phải có được mã nguồn hoặc bản sao của AI tạo sinh thì mới được chấp nhận, thì quyền sở hữu trí tuệ sẽ bị đập nát mất.
Nếu anh không hài lòng vì dữ liệu được cung cấp cho máy chủ của người khác, thì đừng cung cấp nữa. Chỉ cần không dùng là được. Không có cách nào bàn về bí mật mà lại không tiết lộ bí mật cho bất kỳ ai. Nói rằng ai cũng phải có được mã nguồn hoặc bản sao của AI do người khác bỏ thời gian, tài nguyên và công sức phát triển — nếu đó không phải là bullshit thì còn là gì nữa. Chỉ vì tôi đưa đồ của mình ra miễn phí không có nghĩa là tôi có thể tùy ý lấy đồ của người khác.
Như tôi đã nói ngay từ đầu, tôi không biết rõ về con người tên Stallman cũng như các lập luận của ông ấy. Tôi chỉ nghe tên một cách hời hợt, và biết đại khái rằng có những xung đột liên quan đến phần mềm tự do. Nhưng tôi không biết các lập luận và ảnh hưởng của ông ấy vươn tới đâu, hay được đón nhận nghiêm túc đến mức nào. Tuy vậy, ít nhất thì có lẽ tôi vẫn có quyền gọi những lập luận thiếu tính hợp lý và tính hiện thực là bullshit.
Tôi nhìn nhận rằng những công nghệ/tri thức có ảnh hưởng lớn đến xã hội thì phải được hoàn trả lại cho xã hội. Giống như thuốc generic vậy. Nếu thuốc generic bị hạn chế thì sẽ có thêm những trường hợp như Daraprim, và toàn xã hội sẽ chịu thiệt hại vì lợi ích của một số ít người.
Và bạn có nhắc đến điện từ học và smartphone, nhưng những ngành khoa học nền tảng như điện từ học là tri thức được công bố dưới hình thức mà bên thứ ba có thể kiểm chứng và được chia sẻ với xã hội, đúng không. Vì thế, ngay cả những người bình thường không có kiến thức về điện từ học cũng có thể tham gia vào hệ sinh thái smartphone dựa trên niềm tin được bồi đắp từng bước như vậy; nhờ đó quy mô hệ sinh thái lớn lên, thị trường hình thành và nhân loại được hưởng lợi từ điều đó.
Tôi cũng cho rằng việc doanh nghiệp, khi đã thu được lợi nhuận từ thị trường, đóng góp trở lại cho thị trường và cống hiến cho xã hội — nơi đã tạo điều kiện để công nghệ phát triển rồi lại tiếp tục cho phép những bước phát triển như vậy xuất hiện — là điều đáng mong muốn.
Khung nền tảng cơ bản của AI tạo sinh đã được công khai, và tôi cho rằng những phần mà OpenAI không công bố thuộc về bí mật kinh doanh của doanh nghiệp. Việc doanh nghiệp hay công nghệ đóng góp trở lại cho xã hội, bề ngoài là sự thể hiện lòng biết ơn và thông điệp cùng phát triển, nhưng trên thực tế tôi xem đó là tái đầu tư vào thị trường để bảo đảm tăng trưởng bền vững của doanh nghiệp. Nhìn từ góc độ đó, sẽ hợp lý hơn nếu các công ty AI dùng số tiền họ kiếm được để đóng góp cho giáo dục hoặc hạ tầng xã hội; còn việc yêu cầu họ phải công khai toàn bộ bản sao của AI, thứ gần như cũng là tài sản của doanh nghiệp, chẳng phải có thể xem là phớt lờ lợi ích từ những quả trứng vàng mà con ngỗng đẻ ra, rồi đòi mổ bụng nó trước hay sao. Trứng vàng có thể đẻ ra mãi. Chỉ cần chia nhau những quả trứng đó là được; nếu nhất định phải bắt doanh nghiệp đem cả con ngỗng ra thì tôi chỉ tự hỏi rồi ai sẽ còn muốn nuôi ngỗng nữa.
Cách AI vận hành thực ra đã được làm sáng tỏ, giống như điện từ học vậy. Trong smartphone không chỉ có kiến thức nền tảng về điện từ học mà còn có cả những công nghệ mà từng công ty không thể công khai vì là bí mật kinh doanh. Tôi chỉ là không hiểu vì sao lại không tôn trọng phần đó, rồi dồn AI tạo sinh vào thế bị coi là thứ xấu xa như thể đang săn phù thủy.
Nhờ những câu trả lời của mọi người mà tôi đã tìm hiểu thêm được nhiều điều và suy nghĩ rất nhiều. Xin cảm ơn.
Cảm ơn bạn đã thông cảm.
Nếu có ai đó nói họ có một con ngỗng đẻ trứng vàng, thì chẳng phải chúng ta cần có khả năng kiểm chứng xem quả trứng đó có thật sự là vàng không, có đúng là con ngỗng đó đẻ ra không, và họ lấy đi điều gì như cái giá của những quả trứng vàng ấy sao.
Tôi đọc lập luận của Stallman rằng để có được điện toán đáng tin cậy thì phải có quyền truy cập vào mã nguồn theo sắc thái như vậy.
Gần đây có một trường hợp phát hiện micro trong sản phẩm tên là nanokvm do sipeed, một nhà sản xuất nền tảng nhúng của Trung Quốc, phát hành.
Tôi biết là có một cảm giác bất an rằng các sản phẩm nhúng của Trung Quốc yếu về bảo mật, thậm chí có thể bị lợi dụng cho các chiến dịch an ninh của chính phủ.
Vì thế, có lẽ do định kiến đó được phản chiếu, nên gần đây cũng đã có bài như thế này về sản phẩm đó. 중국산 NanoKVM에서 숨겨진 마이크를 발견한 과정
Nhưng tôi nghĩ sipeed đã có thể thoát khỏi hiểu lầm như một sự cố ngoài ý muốn vì từ phần cứng đến phát triển phần mềm đều được họ tiến hành theo hướng mã nguồn mở: https://x.com/lexifdev/status/1999340940805439775
Vào thời của Stallman, trong những cuộc thảo luận kiểu này, thay vì chính phủ Trung Quốc thì ở vị trí đó là chính phủ Mỹ thời vẫn còn ảnh hưởng của chủ nghĩa McCarthy và NSA.
Cũng từng có những trường hợp backdoor của NSA mà ban đầu tưởng là thuyết âm mưu nhưng sau đó được chứng minh là có thật, và cả những thứ như printer tracking dots (https://en.wikipedia.org/wiki/Printer_tracking_dots) nữa.
Dạo này, thay vì các thuyết âm mưu có chính phủ can dự, câu chuyện nóng hơn lại là các công ty sống nhờ quảng cáo nghe lén micro trên smartphone để phục vụ quảng cáo nhắm mục tiêu.
Và trong các công ty công nghệ phần mềm, mã nguồn tất nhiên đóng vai trò lớn, nhưng tôi nghĩ sự tiện lợi tổng thể, năng lực vận hành dịch vụ và độ tin cậy còn đóng vai trò lớn hơn.
Dù có lấy được toàn bộ mã nguồn của OpenAI đi nữa, những kẻ đến sau cũng đâu dễ dàng đảm bảo và vận hành ổn định hạ tầng có thể gánh được vô số người dùng, rồi đuổi kịp độ tin cậy thương hiệu của họ.
Có khá nhiều trường hợp vận hành sản phẩm chủ lực theo mô hình mã nguồn mở, có vô số bản fork, nhưng vẫn không đánh mất quyền chủ đạo.
Chỉ cần kể những ví dụ hiện ra ngay lúc này thì cũng có Chrome hay VS Code.
Tất nhiên cũng có những trường hợp đánh mất quyền chủ đạo, như vụ Elastic hay Redis liên quan đến giấy phép mã nguồn mở vì AWS, nhưng tương tự, tôi cho rằng đó cũng là vì hai công ty này tương đối thua kém AWS ở sự tiện lợi, năng lực vận hành dịch vụ và độ tin cậy.
Nói thế nào thì những câu chuyện này suy cho cùng cũng là chuyện mang tính chính trị và ý thức hệ. Nên tôi xin thêm một chút chia sẻ cá nhân.
Với tư cách là người làm phát triển phần mềm là nghề chính, và nghịch phần cứng nhúng như sở thích, thì khi phải đối mặt với các black box không có mã nguồn hay sơ đồ mạch, thực sự là... cực kỳ khó để phát triển và bảo trì.
Khi định phát triển bằng cách dùng một thư viện phần mềm hay phần cứng nào đó, nếu có thể tiếp cận được mã nguồn hay bản thiết kế, hoặc ít nhất là tài liệu đặc tả được sắp xếp tử tế, thì việc phát triển thật sự dễ dàng hơn rất nhiều; còn nếu không thì thực sự rất đau đầu.
Gần đây ở nước ngoài cũng có khá nhiều câu chuyện về quyền được sửa chữa, và một điều khiến tôi ấn tượng là ngày xưa khi mở nắp các thiết bị điện tử ra thì bên trong có vẽ sơ đồ dây để người ta tham khảo lúc sửa chữa. (Gần đây Apple cũng được nói là cung cấp sơ đồ mạch cho các thợ sửa chữa.)
Những trải nghiệm như vậy ảnh hưởng rất lớn đến việc hình thành độ tin cậy với các sản phẩm đó. Dạo này khi chọn công nghệ nào đó hay mua một sản phẩm, điều đầu tiên tôi cân nhắc là nếu nó hỏng hoặc phát sinh vấn đề thì liệu tôi có thể dễ dàng hiểu nó, tự sửa để tiếp tục dùng, hoặc lách qua mà dùng tiếp được hay không.
Tri thức là gì đây…
Đây là một chủ đề cũ bắt đầu từ 'thí nghiệm căn phòng tiếng Trung' thôi mà haha
Ý kiến trên Hacker News
Nhìn vào việc Stallman từng làm về symbolic AI thời ở MIT AI Lab và còn tạo ra GCC, tôi nghĩ ông là một trong số ít nhân vật nổi tiếng trong giới công nghệ thực sự hiểu rất sâu bản chất của câu hỏi này
Ông ấy không sai. ChatGPT chỉ là một bản mô phỏng của trí tuệ (simulacrum), hữu ích nhưng không thể tin cậy hoàn toàn. Xét cả về tự do và tính mở thì cũng khó gọi là tích cực
Tôi thích dùng thuật ngữ LLM hơn. Nhưng đa số mọi người không biết đó là gì nên cuối cùng vẫn phải giải thích là AI. LLM không phải bullshit generator. Dù nó không hiểu ý nghĩa thì chỉ cần kết quả hữu ích là đủ. Giống như đầu bếp vẫn có thể luộc trứng mà không cần hiểu bản chất của quả trứng. Tuy nhiên, các mô hình như vậy phải có thể chạy tự do trên phần cứng riêng hoặc đám mây của bên thứ ba. Hiện tại các mô hình Trung Quốc đang thống trị thị trường. ChatGPT có thể cũng không trụ được lâu nếu không giải quyết được tình trạng “code red” nội bộ
Việc trên trang của Stallman có hẳn mục “What’s bad about” khá buồn cười. Cấu trúc ấy cho thấy mức độ tự nhận thức cũng kha khá
Cũng như không thể nói máy tính bỏ túi không làm được toán chỉ vì nó không hiểu con số, AI cũng xử lý từ ngữ theo cách tương tự con người. Nó thiếu sáng tạo nhưng vẫn đủ sức làm tốt các công việc thường nhật. Ví dụ, nếu hỏi về hệ thống thuế Đức, dù có đôi chỗ không chính xác thì khả năng cao nó vẫn đúng hơn kết quả tôi tự nghiên cứu trong hai tiếng
Nếu định nghĩa trí tuệ là “khả năng hiểu hiện tượng lạ và xây dựng mô hình tinh thần”, thì các mô hình hiện nay không phải trí tuệ vì chúng không thể cập nhật trọng số tại thời điểm suy luận. Việc học bằng gradient descent quá kém hiệu quả, nên trí tuệ của các mô hình chỉ dùng để suy luận hiện tại về cơ bản gần như bằng 0
LLM rốt cuộc là thứ tạo ra ảo giác (hallucination). Chỉ là có những ảo giác lại hữu ích
Lập luận “ChatGPT không hiểu gì nên không phải trí tuệ” thực ra là cách vừa hạ thấp vừa nhân cách hóa (anthropomorphize) ChatGPT. Tuy vậy, tôi đồng ý với ý “phần mềm chạy trên máy chủ của người khác làm tổn hại tự do tính toán”. Thật đáng tiếc khi sự phát triển AI này lại diễn ra trong một môi trường không thể tự do chạy hoặc phát triển
LLM không phải trí tuệ thật, nhưng vẫn có thể gọi là trí tuệ nhân tạo (artificial intelligence). Cũng như cỏ nhân tạo không phải cỏ thật nhưng người ta vẫn gọi là “cỏ”, nên cái tên đó tự nó vẫn hợp lý
Bản chất của LLM rất đơn giản. Định nghĩa của trí tuệ không quan trọng. Tôi gọi LLM là “Associator”. Nó không suy nghĩ hay thấu hiểu, nhưng liên kết các mẫu ngôn ngữ để tạo ra kết quả hữu ích
Nếu trí tuệ nhân tạo rốt cuộc không thể có linh hồn, thì liệu có lý do gì để trí tuệ của chúng nhất thiết phải giống với trí tuệ của con người vốn theo đuổi chân lý? Thậm chí, phần lớn những gì chúng ta gọi là hoạt động trí tuệ còn dựa trên dối trá và ảo giác. Con người trong xã hội hiện đại cũng đang tác động đến cuộc sống của người khác bằng những điều sai trái vì không nhận thức được hiện tượng (hoặc cố tình làm vậy).