- Được phát triển כדי giải tỏa lo ngại trong môi trường giáo dục về việc ChatGPT có thực sự hỗ trợ học tập hay chỉ đưa ra đáp án
- Hỗ trợ quá trình học tập thay vì chỉ đưa ra câu trả lời thông qua hướng dẫn từng bước và tương tác
- Điều chỉnh câu hỏi gợi mở theo mục tiêu và trình độ kỹ năng, thúc đẩy sự tham gia, tương tác để tăng cường hiểu biết sâu và tự phản tư
- Hợp tác với giáo viên, nhà khoa học và chuyên gia giáo dục để tích hợp hệ thống hướng dẫn tùy biến dựa trên khoa học học tập như khuyến khích tham gia chủ động, quản lý tải nhận thức, siêu nhận thức và tự phản tư
- Bao gồm nhiều tính năng giáo dục đa dạng như bài học cá nhân hóa, bài kiểm tra kiến thức, phản hồi và theo dõi tiến độ
- Đang tiếp tục cải thiện dựa trên phản hồi thực tế từ sinh viên đại học và giáo dục bậc cao, đồng thời dự kiến bổ sung các tính năng như trực quan hóa, theo dõi mục tiêu và cá nhân hóa chuyên sâu hơn**
Tính năng chính
- Prompt tương tác: kết hợp câu hỏi kiểu Socrates, gợi ý và tự kiểm tra để khuyến khích người dùng tự suy nghĩ
- Phản hồi hỗ trợ bổ sung: cung cấp thông tin theo từng bước có xét đến tính liên kết giữa các chủ đề, giảm bớt gánh nặng nhận thức quá mức
- Hỗ trợ tùy biến: đánh giá trình độ kỹ năng, ghi nhớ các cuộc trò chuyện trước đó và cung cấp bài học phù hợp với từng người dùng
- Kiểm tra kiến thức: theo dõi tiến độ và tăng cường khả năng ghi nhớ, vận dụng bằng quiz, câu hỏi tự luận và phản hồi tùy chỉnh
- Tính linh hoạt: có thể bật/tắt chế độ Study bất cứ lúc nào trong cuộc trò chuyện
Dùng thử trong ChatGPT
1 bình luận
Ý kiến trên Hacker News
Tôi nghĩ LLM đang bị đánh giá thấp như một bạn đồng hành học tập, vì có thể thoải mái hỏi những câu hỏi "ngớ ngẩn" mà không thấy xấu hổ. Một chế độ giải thích từng bước thay vì trả lời cụt lủn thực sự giống như phép màu. Cảm giác như có một trợ lý giỏi luôn túc trực 24/7, nên là công cụ trong mơ khi tự học. Trước đây học qua mạng rất khó vì thông tin thiếu chính xác, đã cũ, không có phản hồi, lại còn gặp các cộng đồng cộc cằn, nhưng giờ trải nghiệm đã tiến xa đến mức không thể so với thời đó. Dĩ nhiên không phải là nên tin AI vô điều kiện, vẫn cần tự mình kiểm chứng. Sẽ có người dùng nó một cách lười biếng, nhưng cũng giống như sách cũ hay giáo trình vậy, mức độ hữu ích còn tùy vào thái độ của người dùng. Tôi thật sự thấy phấn khích và kinh ngạc khi được sống trong thời đại có những công cụ như thế này
Tôi đồng ý rằng vài năm trước, học thứ gì đó trên mạng rất vất vả vì thông tin sai, câu trả lời ác ý, thiếu phản hồi tức thì, v.v. Nhưng AI hiện nay lại khiến mình buộc phải nghi ngờ mỗi lần xem câu trả lời có đúng không, hay chỉ là bịa đặt (hallucination). Tôi đã nhiều lần gặp trường hợp nó trả lời sai với các câu hỏi thiên về sự thật. Và cứ mỗi khi chỉ ra vấn đề này thì người ta lại bảo mô hình mới nhất đã cải thiện rồi, đồng thời đòi một mức phí thuê bao đắt đỏ. Tệ hơn nữa là khi bị phản biện, AI đầu hàng quá dễ. Nó không thể tự bảo vệ câu trả lời của mình, mà tôi nghĩ đó không phải phẩm chất cần có ở một người thầy. Cuối cùng AI vẫn chỉ là một công cụ hữu ích, không nên quá tin tưởng, nên lúc nào cũng cần giữ sự hoài nghi lành mạnh. Thật ra điều này cũng đúng với các phương pháp giáo dục truyền thống
Chế độ giải thích tài liệu từng bước rất hấp dẫn, nhưng tôi thấy các hệ thống này vẫn còn vấn đề là nói dối rất tự tin. Ví dụ có một easter egg là logo DuckDuckGo thay đổi theo từ khóa tìm kiếm, nhưng hỏi Copilot thì nó bảo là không, đến khi phản bác thì lại đột ngột nói là đúng, rồi còn đưa ra ví dụ linh tinh nữa (chẳng hạn bảo tìm mèo thì sẽ hiện logo hình mèo). Vấn đề là Copilot không biết câu trả lời rõ ràng nhưng lại không nói là không biết, mà trả lời sai như thể chắc chắn
Tôi thấy nỗi sợ hỏi những câu ngớ ngẩn là rất thực tế. Nhất là nếu từng bị tổn thương bởi giáo viên hay giáo sư làm học sinh xấu hổ trước đây thì càng thế. Tôi từng xem video một giáo sư nổi tiếng làm sinh viên bẽ mặt rồi từ đó bỏ luôn ý định học bài giảng của người đó
Nhìn vào việc triển khai CNTT trong trường học trước đây, Mỹ đã đổ hàng chục tỷ USD vào giáo dục nhưng kết quả học tập thực tế không khá hơn. Đó là nền tảng của sự hoài nghi này. Tôi cũng nghĩ rằng trước khi tiêu 100 tỷ USD thì nên chứng minh nó thực sự hiệu quả đã. Hiện giờ tôi cho rằng vẫn chưa có bằng chứng mang tính quyết định
Tôi đang ở trình độ tiếng Tây Ban Nha B1, và với ChatGPT, tôi đang có trải nghiệm học tốt hơn hẳn các ứng dụng cũ bằng cách tạo bài học cá nhân hóa, hỏi về sắc thái ngôn ngữ và luyện nói bằng giọng nói
Tôi có thể khẳng định rằng LLM là một công cụ cực kỳ phi thường để tự học điều mới sau khi tốt nghiệp đại học. Trước đây nếu không hiểu một khái niệm thì gần như chẳng thấy lối ra nào, và nếu không phải câu hỏi thường gặp trên Stack Exchange thì chỉ còn cách tự bơi. Giờ thì giống như lúc nào cũng có một trợ giảng cá nhân (TA) bên cạnh. Có người nói việc học trở nên quá dễ hoặc quá hời hợt, nhưng chắc rất ít người sẽ nghĩ sinh viên học tốt hơn khi không có TA
Cá nhân tôi, từ trải nghiệm của mình, không thấy nó giống một TA mà ai cũng có thể tiếp cận bất cứ lúc nào. Khi đi sâu đến một mức nào đó thì LLM rất nhanh trở nên vô dụng. Đặc biệt là khi cần tìm nguồn học thuật đáng tin cậy hoặc xử lý những chủ đề phức tạp, gây tranh cãi, thì nó càng không giúp được gì
Gần đây khi sửa và kiểm tra một thiết bị cũ dùng CPU Intel thế hệ 9 đời 2020, LLM đã giải thích rất dễ hiểu các thông tin như từng thế hệ và khả năng tương thích socket, đến mức tôi cảm thấy tiện quá như thể mình không xứng đáng được dùng công cụ này. Có lĩnh vực nó tệ, nhưng có chỗ thì thật sự đáng kinh ngạc
Từ sau khi ChatGPT ra mắt, tôi có cảm giác như tìm lại được Google của ngày xưa. Hồi trước khi học một ngôn ngữ lập trình mới, tôi dễ dàng tìm được thông tin quan trọng qua Google, nhưng vài năm gần đây Google trở nên vô dụng. Thậm chí ngay cả khi có thông tin mình muốn, nó cũng bị chôn vùi trong kết quả tìm kiếm
ChatGPT đã lập cho tôi một kế hoạch học phù hợp, khuyến khích tôi ghi chú và viết bài, và tôi đã học Rust trong 12 tuần. Qua quá trình đó, tôi đã biến ghi chú của mình thành https://rustaceo.es bằng tiếng Tây Ban Nha, và tôi thấy tiềm năng của cách này là vô hạn
Trước đây tôi từng rất khổ sở vì không hiểu vấn đề IPv6 ở nhà, nhưng nhờ ChatGPT mà tôi đã phân tích lưu lượng bằng tcpdump và được giải thích từng bước cách mạng hoạt động. Tôi cũng học thêm chi tiết về RA và NDP (thay thế vai trò của DHCP, ARP trong IPv4). Cuối cùng tôi còn phát hiện ra các hiện tượng lặp đi lặp lại kỳ lạ trong mạng mesh WiFi của mình là do một bộ repeater giá rẻ. Tôi đã bức bối 5 năm vì không biết nguyên nhân, và cuối cùng cũng giải quyết được
Tôi đã trích xuất system prompt của ChatGPT Study Mode. Những chỉ dẫn kiểu như "đừng trả lời thẳng hoặc làm bài tập hộ người dùng. Với bài toán/toán học/logic thì đừng giải ngay, hãy đặt câu hỏi từng bước và cho người dùng cơ hội phản hồi ở mỗi bước" rất ấn tượng. liên kết gist
Tôi mong mỗi nhà cung cấp LLM cũng thêm chỉ dẫn kiểu "trả lời ngắn gọn, không rườm rà". Tôi đọc chậm nên rất khó theo hết cả những phần giải thích không cần thiết. Những câu trả lời tuôn ra quá nhanh đôi khi còn khiến tôi thấy bất an. Làm vậy có lẽ cũng giúp giảm bớt vấn đề ngữ cảnh
Thú vị là chữ in hoa (CAPS) thực sự có ý nghĩa với LLM
Tôi tò mò nếu áp dụng prompt này cho mô hình khác thì sẽ cho ra kết quả gì. Tôi muốn biết liệu ChatGPT Study Mode chỉ là một system prompt đặc biệt hay còn có điểm khác nữa, và tôi từng thử học theo chiều sâu bằng các prompt tương tự rồi thấy hiệu quả khá tích cực
Việc các chỉ dẫn nội bộ này lộ ra dễ dàng như vậy khá thú vị. Có vẻ OpenAI cố tình không công khai system prompt, nhưng ai cũng có thể dễ dàng tiếp cận nội dung, nên lại khiến tôi nghĩ đó là thứ được cố ý để lộ
Tôi cũng đã trích xuất một system prompt tương tự, có thể xem tại liên kết này
Với tư cách là một người học suốt đời, tôi thấy phần lớn thời gian học là để tìm kiếm tài liệu. AI có vẻ hỗ trợ phần tìm kiếm này rất hiệu quả. Ngược lại, quá trình xây dựng mô hình logic cho chủ đề học tập, nếu phụ thuộc vào AI, lại khiến tôi có cảm giác không phải mình đang học mà chỉ đang gom các "phần chứa" của AI lại, và khi đó sẽ không thể rút ra kết quả nếu không có AI. Tôi nghĩ điều quan trọng là phải lưu được một mô hình nhất quán ngoại tuyến trong não mình
Tôi đồng ý rằng "phần lớn việc học là tìm kiếm". Đó từng là thời đại mà năng lực tìm kiếm tự nó đã rất quan trọng, và trong quá trình tìm kiếm ta còn học được những kiến thức liên quan nhưng không ngờ tới. Tôi hơi tiếc là thế hệ sau có lẽ sẽ yếu đi ở năng lực này
Tôi nghĩ mục đích của Study Mode vốn không phải là đưa đáp án mà là hướng dẫn quá trình tự tìm ra câu trả lời. Nhiều người thật ra không biết cách học như vậy
Có ý kiến rằng việc ủy thác sự hiểu biết là một thái độ nguy hiểm về lâu dài, và ta cần giữ vệ sinh tư duy, tự mình suy nghĩ
Một ưu điểm lớn nữa là AI có thể tìm ra những liên hệ mới mẻ mà từ khóa không thể nắm bắt được
Tôi rất muốn kiểm chứng chính xác hiệu quả của Study Mode bằng một nghiên cứu đối chứng ngẫu nhiên. Tôi muốn biết nó có thực sự giúp ích cho sinh viên không, có tốt hơn tự học không, và sự khác biệt giữa việc được dẫn dắt lặp đi lặp lại về khái niệm với trải nghiệm tự mắc lỗi là gì. Tôi cũng mong Study Mode tự động tách ra được những thông tin có thể dùng cho flashcard và spaced repetition (công cụ ôn lặp lại, ví dụ: Mochi, Anki). Nhân tiện, tôi cũng đề xuất bài thuyết trình của Andy Matuschak
Study Mode thực ra không cung cấp chức năng như nói ở trên. Mục đích đầu tư là khiến sinh viên nói rằng "nếu không có Study Mode thì tôi chẳng học được gì", đồng thời nhập tài liệu học của họ vào để tóm tắt và tận dụng làm dữ liệu cho công ty
Đã có bài nghiên cứu về AI tutor với hiệu quả tương tự được chứng minh rồi. Theo bài báo này, mức cải thiện học tập của nhóm dùng AI tutor cao hơn gấp đôi so với nhóm active learning trong lớp học thực tế
Cũng có nghiên cứu cho thấy LLM làm chậm tốc độ của các lập trình viên giàu kinh nghiệm. Có lẽ với tự học cũng có thể như vậy. Nhưng LLM khiến việc học trở nên vui hơn, nên tạo động lực để không bỏ cuộc mà tiếp tục. Khi học một cách hứng thú, dù tốc độ có chậm hơn một chút thì rốt cuộc vẫn có thể học được nhiều hơn và bền hơn trong thời gian dài. Cuối cùng, trong học tập, người thắng không phải người nhanh nhất mà là người bền bỉ nhất, và tôi nghĩ LLM giúp điều đó khả thi hơn
Tôi tò mò về các nghiên cứu tại những trường danh tiếng về hiệu quả của việc có gia sư. Theo trải nghiệm của tôi, sinh viên ở các đại học tinh hoa thường không nhận được nhiều giá trị học tập thực sự từ tutor, mà chỉ mang đáp án về rồi tự tưởng rằng mình đã học được điều gì đó (thậm chí còn để tutor làm hộ bài tập). Trên thực tế, chính trạng thái "thắc mắc, loay hoay và mắc lỗi" mới là lúc việc học thật sự diễn ra. Thế nhưng việc dùng LLM cũng tương tự như vậy: cứ hễ khó hoặc bí là lập tức nhờ ChatGPT, tìm đáp án ngay mà không qua thử sai. Kết quả là họ lo âu trong kỳ thi, và nhu cầu đòi thêm bài tập thực hành ngày càng tăng. Tôi đang cảm nhận rất rõ hiện tượng ngày càng nhiều sinh viên thậm chí không thể tự đọc giáo trình sau giờ học
Nó có thể tạo khác biệt lớn với những sinh viên vốn đã có động lực cao, nhưng kiểu người đó không nhiều, và dạo này tỷ lệ ấy còn có vẻ giảm dần do khả năng tập trung suy giảm
Một người quen của tôi đang vận hành một startup giáo dục dùng OpenAI. Khi các công ty lớn như OpenAI cũng bước vào đúng thị trường đó, các nhà phát triển nhỏ hơn có thể rơi vào thế bất lợi bất cứ lúc nào. Vì vậy tôi thấy thật đáng sợ khi xây doanh nghiệp phụ thuộc vào các mô hình này, và cần tiếp cận thật thận trọng
Tôi tự hỏi ở thời kỳ đầu của công nghệ, có phải người ta cũng từng mặc định rằng các công ty phần cứng rồi sẽ luôn sao chép phần mềm, tự đóng gói và cạnh tranh trực tiếp với các công ty phần mềm hay không. Tôi thấy rất giống hiện tại, khi nhiều người cho rằng công ty cung cấp mô hình luôn có lợi thế trước những bên xây trên đó, nhưng cá nhân tôi vẫn chưa thấy có đủ căn cứ để khẳng định điều đó
Càng ngày cấu trúc thu phí theo token của mảng hosting LLM càng kém sinh lời, nên có thể thấy rất rõ là các công ty lớn đang muốn sao chép (Sherlock) mọi startup/ứng dụng có vẻ có tiềm năng tăng trưởng
Nếu là nhà phát triển ở khu vực lân cận LLM thì luôn phải ghi nhớ điều này, và xét đến năng lực mở rộng thị trường cùng tiềm lực vốn của các công ty lớn, tôi thấy rủi ro là cuối cùng chúng ta cũng sẽ tự nhiên biến mất
Tôi thắc mắc vì sao các nhà sáng lập lại không nhận ra chuyện này. Ngay từ đầu đã quá rõ là OpenAI sẽ không chỉ dừng ở việc cung cấp LLM đơn thuần mà còn tiến vào nhiều thị trường hơn
Có rủi ro là chuyện đương nhiên, nên điều quan trọng là giá trị thực mà chúng ta bổ sung. Nếu là một mô hình kinh doanh ngắn hạn thì phải đánh nhanh thắng nhanh, còn nếu muốn đi đường dài thì cần làm thứ gì đó độc đáo hơn là việc ai cũng có thể lập tức làm được
Chiến lược cốt lõi khi tôi học với LLM là vẫn lấy sách làm chính, và chỉ dùng LLM cho lời giải chính thức, câu hỏi ngữ cảnh và kiểm tra độ hiểu. Những việc như gỡ ký hiệu công thức trong một miền mới, hay hỏi ngữ cảnh của các tác phẩm triết học duy tâm Đức, đều là những thứ nếu không có LLM thì tôi đã phải vật lộn rất lâu, còn giờ được làm rõ gần như ngay lập tức nên tiết kiệm rất nhiều thời gian. Đặc biệt, điểm quan trọng khi học là phải kiểm chứng được mức độ hiểu của mình ngay tức thì. Trước đây tôi thường hiểu sai mà vẫn học tiếp rồi sau đó phải quay lại, còn giờ tôi có thể sắp xếp trực giác của mình về công thức hay khái niệm rồi nhờ LLM xác nhận, và chỉ cần nhận phản hồi kiểu "hơi khác một chút" là tôi biết cần xem lại phần đó. Cuối cùng, sách vẫn là nguồn có mật độ thông tin cao nhất nên là tốt nhất, nhưng nếu có LLM hỗ trợ thì tốc độ có thể tăng lên rất nhiều
Tôi thấy hiện tại rất cần một giao diện phù hợp cho tất cả các chức năng này. Study Mode viết thông tin thành cả một bức tường chữ và trộn thêm ví dụ/câu hỏi, nhưng lại không có cách nào để xem câu trả lời gắn với từng câu hỏi cụ thể. UI dạng chat không phù hợp với kiểu này. Cần một giao diện canvas/artifact riêng, nơi các câu hỏi/câu trả lời được liên kết với nhau và nội dung được cấu trúc. Hiện tại có cảm giác chúng ta đang nhồi nhét quá nhiều thứ vào một giao diện hội thoại quá đơn giản
Thực tế là khi một sinh viên muốn học toàn bộ game theory, điều đó phơi bày rõ việc cả hai phía đều đang mặc định một phiên chat duy nhất và một tiến trình tuyến tính. Cuối cùng đó không phải là học theo chiều sâu
Tôi đã thử với periplus.app. Nó chưa hoàn hảo nhưng rõ ràng đem lại một UX khác hẳn so với chat
Có rất nhiều ý tưởng UX. Ví dụ cho phép đánh giá mức độ hiểu sau mỗi phần giải thích, chỉ bổ sung giải thích cho đúng những đoạn chưa hiểu, hiển thị cấu trúc kiến thức dưới dạng cây, đồ thị có thể thao tác, quiz tương tác, v.v. Có thể chuyện này vượt ra ngoài phạm vi của ChatGPT, nhưng tôi nghĩ đây là cơ hội để các ứng dụng/startup khác tấn công
Tôi nghĩ không tồn tại cái gọi là giao diện đúng. Nếu có ý chí và nỗ lực để học, thì dù là cuộn giấy, sách, ebook hay AI, cuối cùng ta vẫn có thể học được
Việc đây không phải là tính năng mặc định mà là một "sản phẩm riêng" thực sự cho thấy thời thế hiện tại. Đây là thứ bất kỳ LLM nào cũng có thể làm chỉ bằng một tổ hợp prompt đơn giản. Study Mode nói rằng nó được phát triển cùng giáo viên, nhà khoa học và chuyên gia tâm lý giáo dục, nhưng tôi khá hoài nghi liệu có thật sự có chuyên gia đúng nghĩa tham gia hay không
Tôi đang học Janet, và dùng ChatGPT làm tutor thấy khá khó chịu. Ngay cả với câu hỏi của tôi ("nếu
localvàvarđều là biến cục bộ thì khác nhau ở điểm nào?") nó cũng mở đầu bằng kiểu "câu hỏi rất hay, bạn chạm đúng bản chất rồi đấy" rồi tiếp tục tuôn ra một câu trả lời bịa nhưng nghe có vẻ hợp lý. Với những gì nó biết thì nó là một tutor tốt, nhưng tôi nghĩ nó cần biết giới hạn của chính mìnhLLM có xu hướng chỉ đưa ra câu trả lời thực sự tốt với các ví dụ quá quen thuộc (React todo list, bootstrap form, vue tic-tac-toe, v.v.)
Trong trường hợp như vậy, có người khuyên nên nạp toàn bộ guide/documentation trực tiếp vào context thì sẽ tốt hơn
Có người ví nó với OpenAI và những công ty được rót sound money: giống như một gia sư trông có vẻ đang rất cần tiền vậy