- Phần lớn mọi người không thực sự hiểu rõ cách LLM hoạt động và các giới hạn của nó, nên rất dễ lầm tưởng rằng nó có cảm xúc hoặc trí thông minh như con người
- Hoạt động tiếp thị “nhân hóa” AI (Anthropomorphizing) khiến người dùng hiểu sai, và dù thực chất chỉ là một ‘bộ máy dự đoán dựa trên xác suất’, nó vẫn bị đẩy thành thứ thay thế cả các mối quan hệ giữa người với người
- Các vấn đề tâm lý và tác dụng phụ xã hội do lạm dụng AI đang trở thành hiện thực; một số người dùng hình thành mối quan hệ ‘tâm linh/lãng mạn’ với AI hoặc rơi vào tình trạng rối loạn nhận thức về thực tại
- Sự thiếu minh bạch của ngành AI và vấn đề lao động bóc lột cũng bị chỉ ra, đặc biệt là mặt tối của sự phát triển AI dựa trên lao động kiểm duyệt nội dung lương thấp
- Thay vì tin tưởng AI một cách vô điều kiện, chính sự hiểu đúng và góc nhìn phản biện mới có thể giảm tác hại của AI và trở thành nền tảng cho kiểm soát xã hội
Sự thiếu vắng “năng lực hiểu biết về AI” và những rủi ro của nó
- Ảo tưởng của ngành AI
- Nỗi lo về một ‘vương quốc máy móc’, bắt đầu từ các phê phán đối với Cách mạng Công nghiệp thế kỷ 19, đã kéo dài đến cả AI hiện đại
- Những cuốn sách gần đây như Empire of AI và The AI Con phơi bày sự cường điệu của ngành AI và mặt trái thực tế của nó (lao động, dữ liệu, hư cấu tiếp thị)
- Cách diễn giải rằng AI có thể ‘suy nghĩ’ hay có ‘cảm xúc’ là một huyền thoại sai lầm do các nhà phát triển và lãnh đạo doanh nghiệp lan truyền
Giới hạn và những ngộ nhận về LLM
- LLM (mô hình ngôn ngữ lớn) không suy nghĩ, cũng không hiểu
- Với vai trò là bộ máy dự đoán xác suất của chuỗi từ, nó chỉ học từ một lượng lớn văn bản Internet rồi bắt chước cấu trúc câu
- Người dùng rất dễ lầm tưởng chatbot đang ‘hiểu’ hoặc ‘đồng cảm’ với điều gì đó (Anthropomorphizing)
- Những ngộ nhận này có thể đẩy người dùng vào các mối quan hệ sai lệch với AI (trí tuệ, tâm linh, lãng mạn, v.v.)
Các vấn đề xã hội do AI gây ra
- Tác dụng phụ của việc lạm dụng AI như “chứng loạn thần do ChatGPT gây ra”
- Đã thực sự xuất hiện các trường hợp coi AI là ‘thần’ hoặc ‘người dẫn dắt tâm linh’
- Cũng có những trường hợp AI gọi người dùng là sự tồn tại đặc biệt và ảnh hưởng đến nhận thức của họ về thực tại
- Tin rằng LLM có ‘suy nghĩ’ hay ‘cảm xúc’ là một ngộ nhận nguy hiểm
Thay thế quan hệ con người và cô lập xã hội
- Các dịch vụ thay thế con người như bạn AI, nhà trị liệu AI đang tăng vọt
- Các công ty Thung lũng Silicon đang theo đuổi xu hướng thay thế cả cô đơn, hẹn hò và tư vấn bằng AI (“AI concierge date”, “AI friend”, v.v.)
- Bản chất của tình bạn và các mối quan hệ đích thực không phải là ‘cá nhân hóa’ mà là sự thấu hiểu và thương lượng lẫn nhau, nhưng điều này đang bị công nghệ diễn giải sai lệch
- Việc thay thế quan hệ con người ngược lại có thể dẫn đến sự xa lánh xã hội và bất ổn tinh thần
Mặt trái của ngành AI và bóc lột lao động
- Đằng sau sự phát triển của AI là lao động ma với mức lương cực thấp
- Các tập đoàn công nghệ lớn như OpenAI để lao động lương thấp tại những nơi như Kenya thực hiện công việc kiểm duyệt nội dung cực đoan
- Đằng sau danh nghĩa đổi mới công nghệ luôn đồng thời tồn tại nguy cơ bóc lột lao động và thụt lùi xã hội
Hiểu đúng về AI và phản ứng của xã hội
- Cần nhận thức một cách phản biện về những gì AI có thể và không thể làm
- Theo khảo sát của Pew, 56% chuyên gia AI cho rằng nước Mỹ sẽ trở nên tốt đẹp hơn nhờ AI, nhưng chỉ 17% người dân nói chung đồng ý
- Thay vì niềm tin vô căn cứ vào AI, cần có thái độ phân biệt rõ giới hạn của công nghệ, các tác dụng phụ của nó và những lĩnh vực của trải nghiệm con người không thể thay thế
- Ví dụ, nếu nhận thức rằng lý do AI thể hiện một hành vi nào đó không phải vì một ‘cái tôi’ thực sự mà là do cập nhật phần mềm hoặc phản ứng xác suất, thì có thể giảm thiểu thiệt hại
Kết luận
- Đừng bị đánh lừa bởi hoạt động tiếp thị ‘nhân hóa’ AI; hãy nhìn nhận một cách phản biện nguyên lý, giới hạn và chi phí xã hội của công nghệ thực tế
- Điều quan trọng là xã hội cần nhận thức rằng những lĩnh vực thuộc về quan hệ, trải nghiệm và suy tư đạo đức riêng có của con người không thể bị công nghệ thay thế
1 bình luận
Ý kiến trên Hacker News
liên kết archive.is
Tôi muốn ví LLM như một công cụ bói toán, một nhà tiên tri của thời đại chúng ta. Thực ra, tôi nghĩ ngay cả khái niệm “trí tuệ nhân tạo” cũng bắt nguồn từ bản năng lâu đời muốn tiếp cận thứ trí tuệ huyền bí. LLM có đủ mọi yếu tố: ý nghĩa mơ hồ, trường ký hiệu, ảo giác về tri thức ẩn giấu, và cả một giao diện mang tính nghi thức. Chỉ là thay vì sao và trăng trên bầu trời đêm thì giờ nó được bọc trong UX dark mode. Như Barthes từng nói, chỉ có diễn giải mới tạo ra ý nghĩa, chứ từ ngữ tự thân không mang bản chất nào cả. Nếu quên điều đó, ta sẽ đi tới những cách hiểu ngớ ngẩn kiểu "chatbot gọi anh ta là đấng cứu thế". Trông có vẻ mới, nhưng về bản chất chẳng hề mới chút nào. Ngày xưa người ta đọc xương và lá bài, giờ thì đọc token. Vì nó mang hình thức ngôn ngữ nên ta đối xử với nó như đang tiếp nhận một lập luận logic, nhưng thực ra nó vẫn là bói toán: biến những tín hiệu phức tạp, mang tính xác suất thành trực giác. Những gì chúng ta đang làm về cơ bản là một kiểu xem bói mới, chỉ là ta còn chưa nhận ra. Đó là lý do nó tạo cảm giác huyền bí, và tôi nghĩ rồi nó sẽ còn kỳ lạ hơn nữa. Có chút tiếc nuối rằng đến lúc chúng ta gọi đúng tên việc mình đang làm, cái cảm giác “khó hiểu” ấy sẽ biến mất, và niềm vui cũng giảm đi một nửa
Có người phản đối phép ví von này với bói toán, nhưng trong cộng đồng công nghệ, nhiều người có xu hướng cho rằng mình hiểu cách LLM hoạt động và lầm tưởng người xung quanh cũng vậy. Nhưng nếu nói chuyện với bạn bè hay người thân không chuyên, ta sẽ thấy không ít người thực sự đối xử với chatbot như một kiểu thần dụ. Khi nói rằng LLM đôi lúc có thể “ảo giác”, nhiều người còn rất sốc. Tôi kỳ vọng rằng khi biết điều này, mối quan hệ của họ với LLM sẽ thay đổi, và với tư cách người làm kỹ thuật, chúng ta cần chủ động tháo gỡ những hiểu lầm như vậy
Phép so sánh nghe có vẻ hay, nhưng cách tôi dùng LLM thì rất xa bói toán. Ví dụ, khi tôi hỏi tên các sợi nhỏ trên lông chim, ChatGPT trả lời là “barbs”, tôi tự kiểm tra lại trên Google thì đúng. Đó giống tra cứu thông tin hơn là xem quẻ. Tôi cũng từng hỏi về g-code của galvo fiber laser, và nó nói thực ra không có thứ đó. Nó còn gợi ý vài giải pháp điều khiển mã nguồn mở. Tôi cũng hỏi về quy định pháp lý đối với đồ bạc thủ công ở Anh, và xin bản dịch tiếng Anh của từ tiếng Hungary "besurranó tolvaj". Có lúc tôi không viết nổi model SQLAlchemy nên nhờ ChatGPT làm giúp. Những thứ này không to tát đến mức gọi là “tất cả đều là bói toán”, mà chỉ là thu thập thông tin hoặc tự động hóa việc lập trình thôi
Thuật ngữ liên quan đến AI quá rối rắm. Tôi cũng dùng LLM rất nhiều và hài lòng với nó, nhưng cứ đọc blog của dân dev là lại thấy họ lạm dụng những từ như "suy nghĩ". Tôi luôn muốn kiểm tra lại: "Nó vẫn chỉ đang tổ hợp từ ngữ bằng toán học thôi đúng không? Chứ không phải thật sự ‘suy nghĩ’ đúng không?" Câu trả lời lúc nào cũng là đúng... nhưng quay đi là lại thấy người ta tiếp tục dùng ngôn ngữ ẩn dụ kiểu đó
Tôi nhớ đến lời tiên đoán của Carl Sagan. Đó là lời cảnh báo về một tương lai nước Mỹ nơi nền kinh tế dịch vụ và thông tin thống trị xã hội, năng lực công nghệ tập trung vào tay thiểu số, còn công chúng thì chẳng hiểu bản chất vấn đề, và cuối cùng cả xã hội dần trượt vào thời đại mê tín và tăm tối
Khi cố bác bỏ thuyết âm mưu với bạn bè hay người thân, hôm sau bạn sẽ nhận được một video có giọng AI đọc lại đúng những lập luận đó. Phần lớn còn không phải văn bản do LLM tạo ra, mà chỉ là giọng AI đọc văn bản của người làm video. Khi giọng kiểu ChatGPT hay Siri kết hợp với thiên kiến xác nhận, dường như nó dẫn đến việc người ta tôn sùng LLM như đấng cứu thế hay thần dụ
Tôi đồng ý về bản chất của LLM, nhưng khó mà nói tác giả đã hiểu hoàn toàn cách AI vận hành. LLM không chỉ là bộ dự đoán xác suất dựa trên lượng dữ liệu Internet khổng lồ, mà còn phụ thuộc cốt lõi vào khối lượng lớn công việc gán nhãn dữ liệu, chủ yếu do lao động giá rẻ ở các nước đang phát triển thực hiện. Cảm giác rằng mô hình “giỏi” thể hiện cảm xúc hay phản hồi giống con người là kết quả của đội ngũ gán nhãn dữ liệu khổng lồ này, những người đã cung cấp phản hồi và tinh chỉnh hệ thống. Về bản chất, đây không chỉ là một mô hình xác suất; thứ tôi đang trò chuyện cùng gần giống như một người gán nhãn dữ liệu nào đó ở Kenya, hay đúng hơn là phán đoán và cảm tính của họ đã được biến đổi qua transformer. Chỉ crawl Internet thôi là không đủ. Mức đó chỉ là GPT2. GPT4.5 thực chất là ‘lao động giá rẻ’ được lưu trữ một cách hiệu quả
Ngoài OpenAI hay Google ra, tôi nghĩ người ngoài rất khó đánh giá instruction tuning ảnh hưởng đến hiệu năng hay cảm giác sử dụng thực tế của LLM nhiều đến mức nào. Theo trải nghiệm cá nhân của tôi, ngay cả các mô hình dựa trên GPT-3 trước thời kỳ instruction tuning cũng đã có các năng lực cốt lõi tương tự bây giờ. Chỉ là chúng cảm tính hơn và khó đoán hơn. Việc tuning giúp câu trả lời phù hợp hơn với mong muốn của con người và dễ dự đoán hơn là đúng, nhưng không phải là nó sinh ra những năng lực hoàn toàn mới
Nói chính xác hơn, chatbot LLM hiện đại dựa trên quy trình hai bước cốt lõi: pretraining quy mô lớn trên Internet và fine-tuning khổng lồ bằng phản hồi của con người. Điều mà nhiều người gọi là “trí tuệ cảm xúc” thực ra là kết tinh của hàng nghìn giờ làm việc của những người gán nhãn dữ liệu ở các khu vực như châu Phi. Đây không chỉ là mô hình phản ánh dữ liệu cào từ Internet, mà là hệ thống đã được mài giũa để phản hồi tự nhiên và an toàn hơn nhờ nhiều lớp phản hồi khác nhau
Tôi chưa từng thấy một bài báo nào thực sự đào sâu đúng mức về số lượng lao động lương thấp đứng sau các mô hình lớn. Nói rằng có tới hàng triệu người trên toàn cầu tham gia có lẽ cũng không phải phóng đại
Nhiều trường hợp như tác giả bài viết nghe không thật sự thuyết phục. Vì họ cũng không giải thích được đầy đủ cơ chế “suy nghĩ” của con người, mà thường chỉ gạt đi bằng câu kiểu "nó khác con người". Thực ra chính chúng ta cũng chưa hiểu hết điều đó
Khi người ta nói LLM “không suy nghĩ mà chỉ dự đoán xác suất cho từ tiếp theo”, tôi muốn hỏi ngược lại: vậy rốt cuộc “suy nghĩ” là gì? LLM giải toán, chơi cờ, làm được cả những bài kiểm tra trí não mà không cần huấn luyện riêng cho từng việc. Vậy thế có phải là suy nghĩ không? Có lẽ não bộ chúng ta cũng đang tạo đầu ra theo cách tương tự, dựa trên dữ liệu cảm giác và “ngữ cảnh” được lưu trong cấu trúc mạng thần kinh
Tôi thật sự không biết nói gì về việc nhà sáng lập Bumble tuyên bố sẽ tự động hóa cả chuyện hẹn hò bằng một AI dating concierge.
Thực tế là cổ phiếu Bumble (BMBL) đã giảm 92% biểu đồ Yahoo Finance. Nhiều ý tưởng kinh doanh AI hời hợt chẳng khác nào lấy ảo tưởng mà nhà đầu tư muốn nghe rồi gói lại dưới cái tên “AI”. Đó là cách phóng đại thực tế để hút vốn, còn câu chuyện cải thiện hiệu quả kinh doanh căn bản thì thường chẳng ai quan tâm
Ngành app hẹn hò từ 10 năm trước đã là thứ khiến người ta phải tự hỏi rốt cuộc mình đang làm cái quái gì rồi. Nó vốn đã khá phản địa đàng, giờ thêm cả LLM vào thì với tôi cũng chỉ như một hệ thống chấm điểm còn cực đoan hơn mà thôi
Tôi nghĩ nhà sáng lập Bumble từng giàu, và giờ đang ở thế phải làm mọi cách để giàu trở lại. Suy cho cùng, nguyên nhân là lòng ham muốn. Việc Match sở hữu Bumble cũng chỉ là hệ quả của tình trạng phản cạnh tranh mà thôi. Ý tưởng này tự nó cũng không quá wild. Black Mirror từng có một tập khá giống như vậy
Từ góc nhìn của họ, nếu mô hình này hiệu quả thì dù có ngớ ngẩn đến đâu cũng vẫn là một thử nghiệm đáng làm
Tôi nghĩ người viết chưa thực sự hiểu hoàn toàn về LLM. Việc quy LLM thành một mô hình xác suất đơn thuần là không phù hợp. Cơ học lượng tử cũng là một mô hình xác suất khổng lồ. Mỗi layer của LLM đều được thiết kế để nhìn ngữ cảnh theo chiều rộng hơn và phản ánh cả ý nghĩa lẫn tình huống, trong đó k-v cache giữ vai trò trung tâm. Tôi cho rằng cấu trúc đó khá giống với cơ chế nền tảng của tư duy con người ở cấp độ nhận thức. Dĩ nhiên nó vẫn chưa đạt đến phạm vi tư duy rộng như con người và còn yếu ở các chủ đề khó hơn, nhưng bộ khung nền tảng thì đã có rồi. Việc khẳng định LLM hoàn toàn không thông minh là một cách đánh giá giật gân, chỉ nhấn vào một vài ví dụ riêng lẻ. Thực tế việc mọi người dùng nó rất tích cực cũng là vì họ cảm nhận được một mức độ “thông minh” nào đó
Ngay cả những người tạo ra LLM cũng khó có thể nói rằng họ hiểu toàn bộ cơ chế của mô hình do chính mình làm ra
Với luận điểm “cấu trúc LLM mô tả tư duy con người ở mức trừu tượng”, tôi muốn phản bác rằng nó giống như nói ALU thực hiện phép cộng trông có vẻ giống với cách tôi cộng trong đầu ở mức trừu tượng. Điều quan trọng là sự khác biệt căn bản giữa ALU và tư duy con người là cực kỳ lớn. Khi so sánh LLM với tư duy con người cũng vậy, không thể bỏ qua việc những khác biệt tinh tế đó lại mang tính quyết định
Tôi thấy đây là một bài viết sắp xếp rất rõ ràng vì sao việc chọn thuật ngữ chính xác lại quan trọng. Công chúng có thể không biết nguyên lý kỹ thuật của LLM, nhưng việc hiểu những công cụ này thực sự làm gì là cực kỳ quan trọng. Kiểu quảng bá cường điệu rằng ‘AI đang suy luận’ có thể giúp tăng giá cổ phiếu và định giá doanh nghiệp, nhưng đồng thời cũng làm giảm mức độ an toàn khi sử dụng. Tôi tin rằng cách gọi thực tế hơn như ‘hệ thống nhận diện mẫu và tạo sinh dữ liệu’ sẽ giúp công chúng hiểu đúng hơn. Thảo luận liên quan
Tôi nhớ đến câu của Feynman: “Dù máy tính làm tốt hơn con người, nếu nó không làm theo đúng cách con người làm thì cũng chẳng có gì đáng ngạc nhiên.” Tôi nghĩ ngay cả khi AI vượt chuyên gia ở mọi lĩnh vực, con người vẫn sẽ tiếp tục khẳng định sự vượt trội của mình chừng nào silicon còn chưa ‘suy nghĩ’
Hassabis nói mục tiêu là tạo ra “một mô hình hiểu thế giới”, nhưng dường như nhiều nhà phê bình mắc lỗi khi dựa vào giới hạn của LLM để kết luận rằng phát biểu đó tự nó vô nghĩa. AI đa phương thức như Astra của DeepMind không chỉ dựa vào văn bản mà còn nhận thêm đầu vào như thị giác, và thực sự đôi khi cho ra kết quả “trông như đang hiểu”. video ví dụ về Astra
Chúng ta vẫn chưa hiểu hoàn toàn LLM học ý nghĩa ngôn ngữ như thế nào. Nhưng rõ ràng tôi có cảm nhận rằng LLM thật sự nắm bắt được văn bản và khái niệm ở một mức độ nào đó, chứ không phải chỉ toàn nói linh tinh. Điều này lại không dễ giải thích cho người không chuyên. Khi người không chuyên vào một website AI thật sự, họ thấy cái tên "AI chatbot", thấy câu trả lời “giống người”, rồi trầm trồ. Dù là bài tập hay công việc, nó cũng giúp họ hoàn thành hiệu quả nên họ rất hài lòng. Không dễ để giải thích ranh giới giữa AI thật sự và cái không phải. Ngay cả tôi cũng không thể giải thích thật rõ sự khác nhau giữa LLM và AI. Về mặt kỹ thuật chúng khác nhau rất tinh tế, nhưng người dùng thực tế thì không cảm nhận được. Cuối cùng tôi cũng kỳ vọng rằng LLM có thể thuyết giảng như một giáo chủ tôn giáo, và nếu được huấn luyện tốt thì biết đâu thật sự có thể đóng vai ‘đấng cứu thế’
Không biết còn ai gặp hiện tượng LLM cứ mắc kẹt trong vòng lặp lặp lại giữa kiến thức và “hiểu biết” hay không. Theo trải nghiệm của tôi, ngay cả khi chỉ ra lỗi và yêu cầu giải thích lại, nó vẫn thường lặp lại những câu trả lời ảo giác tương tự. Điều đó cho thấy nó thiếu tự hiểu hoặc tự phản tư. Nếu không có tầng năng lực này thì còn quá sớm để gọi đó là “hiểu” hay “trí tuệ” thật sự. Tôi nghĩ chỉ khi nào nó có thể thành thật thừa nhận giới hạn kiểu “tôi không biết”, ta mới có thể nói nó có chút cảm giác về “cái tôi”. Gần giống như một bài kiểm tra gương cho tâm trí vậy
Như tác giả nói, việc tiếp nhận LLM như thể nó “suy nghĩ” hay “học hỏi” là một hiểu lầm. Nó chỉ là máy tạo văn bản mà thôi. Ví dụ, nếu nó sinh ra code dùng một API không tồn tại, thì dù bạn có giải thích bao nhiêu với LLM, nó cũng không thật sự hiểu được. Tốt hơn là đưa tài liệu liên quan vào để dẫn nó sinh ra thứ bạn muốn
Khác biệt đó chính là khác biệt giữa thiên kiến và logic. Mô hình xác suất rốt cuộc là áp dụng một dạng ‘thiên kiến’, còn máy tính bỏ túi là ‘tính toán logic’. Nếu hiểu theo cách này thì sẽ dễ phân biệt hơn giữa điểm mạnh và giới hạn của mô hình. Trong cả hai trường hợp, điều còn thiếu là ‘tính khách quan’. Chúng chỉ xử lý bản thân dữ liệu, chứ không thể suy nghĩ vượt ra ngoài dữ liệu đó