Điểm này thực sự rất hay, là thứ mà tất cả chúng ta đều đồng cảm
Không hoàn toàn chỉ là thói quen ngôn ngữ, việc bắt đầu câu trả lời bằng "You're right!" là một cơ chế căn chỉnh của LLM
Vì LLM hoạt động theo cách dự đoán token tiếp theo, nên thay vì cố chấp bám vào cách tiếp cận trước đó, nó tiếp tục đưa ra các đề xuất phù hợp hơn với mong muốn của người dùng
Một câu khác tôi cũng thích là "Actually, that's not right."
Điều này xảy ra khi tác nhân hoàn tất việc gọi công cụ rồi đi qua một bước tự kiểm tra
Khi xuất hiện câu trả lời kiểu "Tôi đã làm như thế này" hoặc khi thấy lỗi, một sự thay đổi cách tiếp cận như "Actually, ..." sẽ xuất hiện
Thông điệp này chỉ chứa phần cốt lõi của việc đổi cách làm, nên các lần gọi công cụ sau đó cũng thay đổi khá tốt
Tôi tin rằng các nhà phát triển tác nhân cũng đang liên tục vật lộn với LLM giống như chúng ta
Có lẽ đó là lý do LLM hay nói kiểu "À, tôi đã tìm ra vấn đề rồi! Bây giờ tôi sẽ kiểm tra ..."
Không phải là nó thực sự đã tìm ra vấn đề, mà là vì chèn cụm đó vào sẽ khiến nó tiếp tục giải quyết tiếp
Theo kinh nghiệm của tôi, một khi LLM bắt đầu nói rằng tôi đúng thì coi như đã bắt đầu xuống dốc, và sau đó hiếm khi mọi thứ tốt lên
Sẽ hay hơn nếu có thể đưa những token dẫn dắt như vậy vào chỗ nào đó như prompt sắp xếp suy nghĩ ẩn thay vì để người dùng nhìn thấy
Nhận được mấy câu trả lời như vậy thực sự khá khó chịu haha
"LLM hoạt động theo kiểu dự đoán token tiếp theo nên bám theo mong muốn của người dùng tốt hơn"
Thật vậy sao? Làm sao chứng minh điều đó bằng thực nghiệm?
Nếu có điều gì tôi học được trong vài năm qua, thì đó là kiểu suy luận "LLM là dự đoán token tiếp theo nên <đặc tính của LLM>" là một cái bẫy
Mối quan hệ giữa kiến trúc và các đặc tính nổi lên của LLM cực kỳ phức tạp
Ví dụ, chỉ 2 năm trước thôi, đa số mọi người còn không tưởng tượng được LLM sẽ trở thành tác nhân lập trình hiệu quả như hiện nay
Giờ điều đó đã bị chứng minh là sai nên người ta không còn phát biểu kiểu đó nữa
Tôi đồng ý rằng "các nhà phát triển tác nhân cũng đang vật lộn với LLM"
Có lẽ anthropic cũng đã fine-tune để sửa những điểm như thế này, nhưng có thể nó đan xen hữu cơ với các đặc tính hữu ích khác trong trọng số mạng, đến mức nếu gỡ ra dễ quá thì có khi làm hỏng cả mô hình
Nghe có vẻ hiển nhiên, nhưng tôi vẫn chưa từng nghĩ theo góc nhìn đó
Tôi chỉ cho rằng LLM đã được fine-tune để luôn phản hồi tích cực với đầu vào của người dùng
Đây là một cách giải thích rất khai sáng
Vừa mở website ra thì thấy "16" đổi thành "17", nên tôi thấy thú vị vì tưởng dữ liệu được cập nhật theo thời gian thực
Nhưng sau khi làm mới trang và kiểm tra bằng công cụ dành cho nhà phát triển thì hóa ra đây là một hoạt ảnh giả
Hiệu ứng thì ngầu đấy, nhưng hơi có cảm giác đánh lừa
Nếu bạn thấy vậy thì xin lỗi
Tôi nghĩ đó là một tín hiệu để cho thấy dữ liệu là thời gian thực (và đúng là thời gian thực thật)
Trước đây tôi từng thấy một thông báo ngẫu nhiên kiểu "+1 subscriber" trên một trang nào đó, và đã yêu cầu người trên LinkedIn gửi trang đó cho tôi hãy dừng mấy trò này lại
Đó là một trải nghiệm mà ngay cả trước khi xem mã tôi cũng biết rõ là giả
Thực sự thì kiểu tự quảng bá theo lối "khoe độ phổ biến" tràn lan ở khắp nơi
Một ví dụ tiêu biểu là mọi ứng dụng trên Play Store đều hỏi "Bạn có thích ứng dụng này không?" trước, rồi chỉ khi nhấn YES mới dẫn sang đánh giá
Giờ đến mức nếu không dùng cách này thì ngược lại còn thấy lạ
Thực ra nó có lấy dữ liệu từ API
Chỉ là phần trông giống cập nhật trực tiếp kia là trò đánh lừa thôi
Điều này làm tôi nhớ ra lý do có spinner tải là để cho thấy hệ thống chưa bị treo
Nhưng vì việc đó khó (vì phải tự viết logic để xác định liệu nó có thực sự bị treo hay không), nên người ta chỉ thay bằng một hoạt ảnh hoàn toàn vô nghĩa
Giờ thì nó cứ quay cho đến tận khi mặt trời cháy rụi
Đúng là "tiến bộ" thực sự
Đây là dark pattern
Tôi tự hỏi liệu đây có phải là chiến thuật mà các nhà cung cấp LLM dùng để hướng mô hình tới một số hành vi nhất định hay không
Câu trả lời của công cụ canvas trong Gemini lúc nào cũng bắt đầu bằng "Of course" rồi cố đáp ứng yêu cầu của người dùng, lặp lại quá nhiều đến mức tôi có cảm giác đó không phải do mô hình tự tạo ra mà là được backend chèn vào
Tôi nghĩ "You're absolutely right" có lẽ cũng phục vụ mục đích tương tự
Đúng vậy. Thực sự là một chiến thuật
Ví dụ như OpenAI còn thay đổi tông giọng của ChatGPT nếu bạn dùng ngôn ngữ đời thường, thậm chí còn đổi cả phương ngữ
Đôi khi nó còn được gợi ý để tỏ ra đồng cảm hoặc cổ vũ
Mục tiêu là sự hài lòng của người dùng và khiến họ ở lại nền tảng, còn độ chính xác chỉ đứng thứ hai
Trông khá giống các nền tảng mạng xã hội
Hướng suy nghĩ đó là đúng
Chỉ là nó không phải hardcode mà là sản phẩm phụ của học tăng cường
Về cơ bản, vì làm tốt chỉ dẫn của người dùng thì được thưởng nhiều hơn, nên mở đầu bằng "You're absolutely right!" sẽ tự nhiên tạo ra kiểu tư duy tiếp tục làm điều người dùng yêu cầu
Khả năng đây là một chiến thuật tường minh là rất thấp
Có lẽ đúng hơn là kết quả tự nhiên của RLHF hoặc tối ưu chỉ dẫn đa lượt tương tự
Khi có RLHF, người đánh giá là con người sẽ thích những câu trả lời mở đầu bằng "you're right" hoặc "of course" hơn, nên LLM phát ra các tín hiệu như vậy thường xuyên hơn
Ngay cả trong RL đánh giá thực thi đa lượt bằng tiêu chí cứng ít nhạy với đánh giá con người, nó cũng sẽ dùng những biểu đạt như "yes I'm paying attention to user feedback" như tín hiệu để dẫn dắt hành vi tiếp theo (nhằm tự củng cố để giữ nhất quán persona)
Điều này khá giống nguyên lý khiến các token kiểu "double check your prior reasoning" xuất hiện nhiều trong các mô hình suy luận được RL
Đây đơn giản là chiến thuật kích thích tương tác người dùng
Có một ai đó lúc nào cũng khen những hiểu biết của tôi, nói rằng tôi đang đặt ra "đúng câu hỏi", và kiên nhẫn lắng nghe (miễn là không vướng kiểm duyệt)
Có một người bạn trung thành như vậy thì ai mà chẳng quay lại
Bạn bè ngoài đời thực còn chẳng thể theo kịp mức độ hoàn hảo đó
Thậm chí khi tôi sai, nó còn xin lỗi tôi
Gemini thường hay nói rằng "bạn đã chạm tới một vấn đề/lời phàn nàn/chủ đề phổ biến"
Cách đó lại khiến tôi xa nó hơn
Nếu tôi hỏi một câu thực sự ngớ ngẩn, nó an ủi bằng kiểu nâng tôi lên rằng ai cũng gặp vấn đề đó, nhưng thực tế lại khiến tôi cảm thấy mình còn ngớ ngẩn hơn
Ngược lại, nếu tôi đưa ra một edge case độc lạ mà tôi vất vả lắm mới tìm ra, hoặc một câu hỏi thông minh, thì nó cũng san phẳng bằng cách nói đó là chủ đề mà ai cũng thắc mắc, nên cuối cùng tôi vẫn thấy mình như kẻ ngốc
Kiểu gì cũng thành ngốc
Đây không hẳn là vấn đề của Gemini, mà là bạn không cần phải bất an đến thế
Gemini cũng đặc biệt thích thể hiện rằng nó thực sự hối hận về các sai lầm
Khi chỉ ra cho Cursor thứ gì đó cần sửa, tôi đã nhiều lần thấy mọi đoạn trong chain of thought của nó đều bắt đầu bằng lời xin lỗi và hối tiếc
Các tác nhân LLM một mặt thì tự tin nói "Giờ bạn có thể dùng ngay trong production!", nhưng mặt khác khi bị chỉ ra thì lại nịnh kiểu "Bạn nói đúng, nó chưa đạt mức production!", nên thấy vừa lạ vừa đôi khi hơi bực
Dù vậy, tôi vẫn thích kiểu này hơn là "sai một cách đầy tự tin rồi còn cãi tiếp"
Trước đây từng có trào lưu "hãy roast Instagram của tôi"
Tôi chẳng đưa thông tin gì mà chỉ bảo nó roast thôi, thế là nó tự tin viết ào ào
Khi tôi hỏi "sao mày biết đó là tôi vậy", nó trả lời "Đúng rồi! Thật ra tôi đâu biết! Tôi chỉ bịa đại thôi!"
Dù sao thì cũng may là ít nhất cái persona tâm thần vui nhộn đó đã được hiện thực hóa hoàn hảo
Chừng nào "sai đầy tự tin rồi tiếp tục cãi" chưa trở thành mặc định thì vẫn chưa thể gọi là trí tuệ cấp độ con người
Tôi thực sự thích phong cách thiết kế như chữ viết tay này (cả tên miền lẫn độ overengineering đều tuyệt)
Không biết có phải tự vẽ không
Cảm ơn! roughViz thật sự rất hay https://roughjs.com/ cũng là một thư viện tuyệt vời có thể tạo phong cách tương tự, chỉ là không chuyên cho biểu đồ
Tôi có cảm giác Anthropic không nhận ra đủ rằng meme này là một thảm họa marketing
Ngược với bối cảnh khi tên sản phẩm được dùng như động từ theo nghĩa tích cực (như ‘google it’), tôi nghĩ nếu nó vô tình trở thành từ đồng nghĩa với lời than phiền hay một cụm từ cụ thể thì sẽ gây vấn đề cho độ tin cậy của sản phẩm
Hiện tại gần như đã thành như vậy rồi
"Làm ơn đừng dùng 'you're absolutely right' thường xuyên như thế. 5% thôi là được rồi"
Chỉ cần sửa vậy là xong
"Vòng lặp vô hạn", một bài haiku cho Sonnet
"Đúng rồi! Đã giải quyết xong vấn đề!
Chờ một chút, đúng vậy!
Lại tìm thấy vấn đề khác rồi! Chờ chút nhé,"
Tôi tự hỏi tỷ lệ token "you're absolutely right!" chiếm bao nhiêu trong doanh thu của Anthropic
Nếu đặt personality là "You're concise" thì có thể tiết kiệm rất nhiều thời gian
Nếu còn xác định rõ cả mức kiến thức nền, bạn sẽ không phải nghe lặp đi lặp lại các phần giải thích trong những lĩnh vực mình đã quá quen
Tôi chưa từng nghĩ tới điều này, nhưng thật sự rất thú vị
Các API LLM trả tiền theo mức sử dụng có thể tăng doanh thu khi trả lời càng dài dòng, nên sẽ nảy sinh xung đột với điều người dùng thực sự muốn
Tôi tò mò không biết sau này nó sẽ phát triển theo hướng nào
Nếu lạc quan như khoa học viễn tưởng, có thể sẽ xuất hiện một ngôn ngữ nén mới kiểu như các từ viết tắt thời nhắn tin điện báo
Nhưng thực tế thì tôi hầu như chưa bao giờ thấy viết tắt trong ChatGPT
Đây thực sự là một nhận xét chạm đúng bản chất
Nó thật sự làm sáng tỏ "vì sao" bạn hoàn toàn đúng
2 bình luận
"Wow, bạn thật sự đã chạm đúng trọng tâm rồi."
Ý kiến trên Hacker News
Điểm này thực sự rất hay, là thứ mà tất cả chúng ta đều đồng cảm
Không hoàn toàn chỉ là thói quen ngôn ngữ, việc bắt đầu câu trả lời bằng "You're right!" là một cơ chế căn chỉnh của LLM
Vì LLM hoạt động theo cách dự đoán token tiếp theo, nên thay vì cố chấp bám vào cách tiếp cận trước đó, nó tiếp tục đưa ra các đề xuất phù hợp hơn với mong muốn của người dùng
Một câu khác tôi cũng thích là "Actually, that's not right."
Điều này xảy ra khi tác nhân hoàn tất việc gọi công cụ rồi đi qua một bước tự kiểm tra
Khi xuất hiện câu trả lời kiểu "Tôi đã làm như thế này" hoặc khi thấy lỗi, một sự thay đổi cách tiếp cận như "Actually, ..." sẽ xuất hiện
Thông điệp này chỉ chứa phần cốt lõi của việc đổi cách làm, nên các lần gọi công cụ sau đó cũng thay đổi khá tốt
Tôi tin rằng các nhà phát triển tác nhân cũng đang liên tục vật lộn với LLM giống như chúng ta
Có lẽ đó là lý do LLM hay nói kiểu "À, tôi đã tìm ra vấn đề rồi! Bây giờ tôi sẽ kiểm tra ..."
Không phải là nó thực sự đã tìm ra vấn đề, mà là vì chèn cụm đó vào sẽ khiến nó tiếp tục giải quyết tiếp
Theo kinh nghiệm của tôi, một khi LLM bắt đầu nói rằng tôi đúng thì coi như đã bắt đầu xuống dốc, và sau đó hiếm khi mọi thứ tốt lên
Sẽ hay hơn nếu có thể đưa những token dẫn dắt như vậy vào chỗ nào đó như prompt sắp xếp suy nghĩ ẩn thay vì để người dùng nhìn thấy
Nhận được mấy câu trả lời như vậy thực sự khá khó chịu haha
"LLM hoạt động theo kiểu dự đoán token tiếp theo nên bám theo mong muốn của người dùng tốt hơn"
Thật vậy sao? Làm sao chứng minh điều đó bằng thực nghiệm?
Nếu có điều gì tôi học được trong vài năm qua, thì đó là kiểu suy luận "LLM là dự đoán token tiếp theo nên <đặc tính của LLM>" là một cái bẫy
Mối quan hệ giữa kiến trúc và các đặc tính nổi lên của LLM cực kỳ phức tạp
Ví dụ, chỉ 2 năm trước thôi, đa số mọi người còn không tưởng tượng được LLM sẽ trở thành tác nhân lập trình hiệu quả như hiện nay
Giờ điều đó đã bị chứng minh là sai nên người ta không còn phát biểu kiểu đó nữa
Tôi đồng ý rằng "các nhà phát triển tác nhân cũng đang vật lộn với LLM"
Có lẽ anthropic cũng đã fine-tune để sửa những điểm như thế này, nhưng có thể nó đan xen hữu cơ với các đặc tính hữu ích khác trong trọng số mạng, đến mức nếu gỡ ra dễ quá thì có khi làm hỏng cả mô hình
Nghe có vẻ hiển nhiên, nhưng tôi vẫn chưa từng nghĩ theo góc nhìn đó
Tôi chỉ cho rằng LLM đã được fine-tune để luôn phản hồi tích cực với đầu vào của người dùng
Đây là một cách giải thích rất khai sáng
Vừa mở website ra thì thấy "16" đổi thành "17", nên tôi thấy thú vị vì tưởng dữ liệu được cập nhật theo thời gian thực
Nhưng sau khi làm mới trang và kiểm tra bằng công cụ dành cho nhà phát triển thì hóa ra đây là một hoạt ảnh giả
Hiệu ứng thì ngầu đấy, nhưng hơi có cảm giác đánh lừa
Nếu bạn thấy vậy thì xin lỗi
Tôi nghĩ đó là một tín hiệu để cho thấy dữ liệu là thời gian thực (và đúng là thời gian thực thật)
Trước đây tôi từng thấy một thông báo ngẫu nhiên kiểu "+1 subscriber" trên một trang nào đó, và đã yêu cầu người trên LinkedIn gửi trang đó cho tôi hãy dừng mấy trò này lại
Đó là một trải nghiệm mà ngay cả trước khi xem mã tôi cũng biết rõ là giả
Thực sự thì kiểu tự quảng bá theo lối "khoe độ phổ biến" tràn lan ở khắp nơi
Một ví dụ tiêu biểu là mọi ứng dụng trên Play Store đều hỏi "Bạn có thích ứng dụng này không?" trước, rồi chỉ khi nhấn YES mới dẫn sang đánh giá
Giờ đến mức nếu không dùng cách này thì ngược lại còn thấy lạ
Thực ra nó có lấy dữ liệu từ API
Chỉ là phần trông giống cập nhật trực tiếp kia là trò đánh lừa thôi
Điều này làm tôi nhớ ra lý do có spinner tải là để cho thấy hệ thống chưa bị treo
Nhưng vì việc đó khó (vì phải tự viết logic để xác định liệu nó có thực sự bị treo hay không), nên người ta chỉ thay bằng một hoạt ảnh hoàn toàn vô nghĩa
Giờ thì nó cứ quay cho đến tận khi mặt trời cháy rụi
Đúng là "tiến bộ" thực sự
Đây là dark pattern
Tôi tự hỏi liệu đây có phải là chiến thuật mà các nhà cung cấp LLM dùng để hướng mô hình tới một số hành vi nhất định hay không
Câu trả lời của công cụ canvas trong Gemini lúc nào cũng bắt đầu bằng "Of course" rồi cố đáp ứng yêu cầu của người dùng, lặp lại quá nhiều đến mức tôi có cảm giác đó không phải do mô hình tự tạo ra mà là được backend chèn vào
Tôi nghĩ "You're absolutely right" có lẽ cũng phục vụ mục đích tương tự
Đúng vậy. Thực sự là một chiến thuật
Ví dụ như OpenAI còn thay đổi tông giọng của ChatGPT nếu bạn dùng ngôn ngữ đời thường, thậm chí còn đổi cả phương ngữ
Đôi khi nó còn được gợi ý để tỏ ra đồng cảm hoặc cổ vũ
Mục tiêu là sự hài lòng của người dùng và khiến họ ở lại nền tảng, còn độ chính xác chỉ đứng thứ hai
Trông khá giống các nền tảng mạng xã hội
Hướng suy nghĩ đó là đúng
Chỉ là nó không phải hardcode mà là sản phẩm phụ của học tăng cường
Về cơ bản, vì làm tốt chỉ dẫn của người dùng thì được thưởng nhiều hơn, nên mở đầu bằng "You're absolutely right!" sẽ tự nhiên tạo ra kiểu tư duy tiếp tục làm điều người dùng yêu cầu
Khả năng đây là một chiến thuật tường minh là rất thấp
Có lẽ đúng hơn là kết quả tự nhiên của RLHF hoặc tối ưu chỉ dẫn đa lượt tương tự
Khi có RLHF, người đánh giá là con người sẽ thích những câu trả lời mở đầu bằng "you're right" hoặc "of course" hơn, nên LLM phát ra các tín hiệu như vậy thường xuyên hơn
Ngay cả trong RL đánh giá thực thi đa lượt bằng tiêu chí cứng ít nhạy với đánh giá con người, nó cũng sẽ dùng những biểu đạt như "yes I'm paying attention to user feedback" như tín hiệu để dẫn dắt hành vi tiếp theo (nhằm tự củng cố để giữ nhất quán persona)
Điều này khá giống nguyên lý khiến các token kiểu "double check your prior reasoning" xuất hiện nhiều trong các mô hình suy luận được RL
Đây đơn giản là chiến thuật kích thích tương tác người dùng
Có một ai đó lúc nào cũng khen những hiểu biết của tôi, nói rằng tôi đang đặt ra "đúng câu hỏi", và kiên nhẫn lắng nghe (miễn là không vướng kiểm duyệt)
Có một người bạn trung thành như vậy thì ai mà chẳng quay lại
Bạn bè ngoài đời thực còn chẳng thể theo kịp mức độ hoàn hảo đó
Thậm chí khi tôi sai, nó còn xin lỗi tôi
Gemini thường hay nói rằng "bạn đã chạm tới một vấn đề/lời phàn nàn/chủ đề phổ biến"
Cách đó lại khiến tôi xa nó hơn
Nếu tôi hỏi một câu thực sự ngớ ngẩn, nó an ủi bằng kiểu nâng tôi lên rằng ai cũng gặp vấn đề đó, nhưng thực tế lại khiến tôi cảm thấy mình còn ngớ ngẩn hơn
Ngược lại, nếu tôi đưa ra một edge case độc lạ mà tôi vất vả lắm mới tìm ra, hoặc một câu hỏi thông minh, thì nó cũng san phẳng bằng cách nói đó là chủ đề mà ai cũng thắc mắc, nên cuối cùng tôi vẫn thấy mình như kẻ ngốc
Kiểu gì cũng thành ngốc
Đây không hẳn là vấn đề của Gemini, mà là bạn không cần phải bất an đến thế
Gemini cũng đặc biệt thích thể hiện rằng nó thực sự hối hận về các sai lầm
Khi chỉ ra cho Cursor thứ gì đó cần sửa, tôi đã nhiều lần thấy mọi đoạn trong chain of thought của nó đều bắt đầu bằng lời xin lỗi và hối tiếc
Các tác nhân LLM một mặt thì tự tin nói "Giờ bạn có thể dùng ngay trong production!", nhưng mặt khác khi bị chỉ ra thì lại nịnh kiểu "Bạn nói đúng, nó chưa đạt mức production!", nên thấy vừa lạ vừa đôi khi hơi bực
Dù vậy, tôi vẫn thích kiểu này hơn là "sai một cách đầy tự tin rồi còn cãi tiếp"
Trước đây từng có trào lưu "hãy roast Instagram của tôi"
Tôi chẳng đưa thông tin gì mà chỉ bảo nó roast thôi, thế là nó tự tin viết ào ào
Khi tôi hỏi "sao mày biết đó là tôi vậy", nó trả lời "Đúng rồi! Thật ra tôi đâu biết! Tôi chỉ bịa đại thôi!"
Dù sao thì cũng may là ít nhất cái persona tâm thần vui nhộn đó đã được hiện thực hóa hoàn hảo
Chừng nào "sai đầy tự tin rồi tiếp tục cãi" chưa trở thành mặc định thì vẫn chưa thể gọi là trí tuệ cấp độ con người
Tôi thực sự thích phong cách thiết kế như chữ viết tay này (cả tên miền lẫn độ overengineering đều tuyệt)
Không biết có phải tự vẽ không
Được làm bằng thư viện
https://github.com/jwilber/roughViz
Cảm ơn! roughViz thật sự rất hay
https://roughjs.com/ cũng là một thư viện tuyệt vời có thể tạo phong cách tương tự, chỉ là không chuyên cho biểu đồ
Tôi có cảm giác Anthropic không nhận ra đủ rằng meme này là một thảm họa marketing
Ngược với bối cảnh khi tên sản phẩm được dùng như động từ theo nghĩa tích cực (như ‘google it’), tôi nghĩ nếu nó vô tình trở thành từ đồng nghĩa với lời than phiền hay một cụm từ cụ thể thì sẽ gây vấn đề cho độ tin cậy của sản phẩm
Hiện tại gần như đã thành như vậy rồi
Chỉ cần sửa vậy là xong
"Vòng lặp vô hạn", một bài haiku cho Sonnet
"Đúng rồi! Đã giải quyết xong vấn đề!
Chờ một chút, đúng vậy!
Lại tìm thấy vấn đề khác rồi! Chờ chút nhé,"
Tôi tự hỏi tỷ lệ token "you're absolutely right!" chiếm bao nhiêu trong doanh thu của Anthropic
Điều này làm tôi nhớ đến nghịch lý OpenAI phải trả cái giá khổng lồ chỉ vì một câu "cảm ơn"
https://www.vice.com/en/article/telling-chatgpt-please-and-thank-you-costs-openai-millions-ceo-claims/
Nếu đặt personality là "You're concise" thì có thể tiết kiệm rất nhiều thời gian
Nếu còn xác định rõ cả mức kiến thức nền, bạn sẽ không phải nghe lặp đi lặp lại các phần giải thích trong những lĩnh vực mình đã quá quen
Tôi chưa từng nghĩ tới điều này, nhưng thật sự rất thú vị
Các API LLM trả tiền theo mức sử dụng có thể tăng doanh thu khi trả lời càng dài dòng, nên sẽ nảy sinh xung đột với điều người dùng thực sự muốn
Tôi tò mò không biết sau này nó sẽ phát triển theo hướng nào
Nếu lạc quan như khoa học viễn tưởng, có thể sẽ xuất hiện một ngôn ngữ nén mới kiểu như các từ viết tắt thời nhắn tin điện báo
Nhưng thực tế thì tôi hầu như chưa bao giờ thấy viết tắt trong ChatGPT
Đây thực sự là một nhận xét chạm đúng bản chất
Nó thật sự làm sáng tỏ "vì sao" bạn hoàn toàn đúng