- ‘Sloppypasta’ là hành vi sao chép nguyên văn đầu ra của LLM (mô hình ngôn ngữ lớn) chưa được rà soát rồi gửi cho người khác, và bị chỉ ra là một hành vi thiếu lịch sự vì đẩy gánh nặng kiểm chứng không cần thiết sang người nhận
- Những tin nhắn như vậy tạo ra sự bất đối xứng giữa việc đọc và kiểm chứng: người gửi chỉ mất vài giây để gửi, nhưng người nhận phải rà soát một đoạn văn dài, dẫn đến tình trạng chuyển giao lao động
- Vấn đề niềm tin cũng rất nghiêm trọng; do ảo giác (hallucination) của LLM và giọng văn quá tự tin, người nhận rơi vào tình thế phải mặc định nghi ngờ mọi thông tin
- Bài viết đưa ra phép lịch sự cơ bản khi dùng AI gồm ‘Đọc (Read)·Kiểm chứng (Verify)·Chắt lọc (Distill)·Công khai nguồn gốc (Disclose)’, đồng thời nhấn mạnh không chia sẻ đầu ra AI khi không được yêu cầu
- AI có thể nâng cao năng suất, nhưng bài viết nhấn mạnh cần cách sử dụng không xâm phạm thời gian và niềm tin của người khác
Định nghĩa Sloppypasta và nhận diện vấn đề
- Sloppypasta là từ ghép của ‘slop’ (nội dung AI chất lượng thấp) và ‘copypasta’ (meme sao chép-dán), dùng để chỉ hành vi chuyển tiếp nguyên văn đầu ra LLM mà không đọc và không kiểm chứng
- Đây được xem là một hành vi bất đối xứng vì đẩy nỗ lực rà soát và tóm tắt mà lẽ ra người gửi phải làm sang cho người nhận
- Hiện tượng này thường xảy ra trên Slack, Teams, email..., và có thể dễ dàng nhận ra qua văn phong khuôn mẫu đặc trưng của AI cùng định dạng quá mức
- Người gửi chỉ mất vài giây để gửi tin nhắn, nhưng người nhận lại phải gánh gánh nặng kiểm chứng nội dung và đưa ra phán đoán
Các kiểu Sloppypasta và ví dụ
- The Eager Beaver: trường hợp dán nguyên câu trả lời của chatbot với mục đích đóng góp vào chủ đề cuộc trò chuyện
- Dù xuất phát từ thiện ý, văn bản AI chung chung và thiếu ngữ cảnh lại làm cản trở cuộc trò chuyện và chặn mất mạch trao đổi
- The OrAIcle: dạng trả lời bắt đầu bằng “ChatGPT says” cho một câu hỏi cụ thể rồi chuyển tiếp nguyên văn
- Điều này bị xem là một cách phản hồi thiếu lịch sự, tương tự LMGTFY (“Let Me Google That For You”) trước đây
- Người nhận phải tự gánh trách nhiệm phán đoán tính đúng sai, mức độ liên quan và nguồn gốc của nội dung
- The Ghostwriter: trường hợp chia sẻ nội dung do AI viết ra nhưng ngụy trang như thể do chính mình viết
- Người nhận không có cơ sở để tin tưởng nội dung đó, và nếu sai thì sẽ dẫn đến tổn hại độ tin cậy của người gửi
Vì sao đây là vấn đề
- Sự mất cân đối về nỗ lực: LLM gần như xóa bỏ chi phí tạo văn bản, nhưng người nhận vẫn phải bỏ ra nỗ lực nhận thức đáng kể để đọc và kiểm chứng
- Điều này khiến nợ nhận thức (cognitive debt) tích lũy, đồng thời người gửi cũng đánh mất cơ hội học hỏi và thấu hiểu
- Sự sụp đổ của niềm tin: do ảo giác và việc tạo thông tin sai lệch của LLM, nguyên tắc “tin nhưng phải kiểm chứng” bị phá vỡ
- Người nhận buộc phải mặc định nghi ngờ mọi tin nhắn, còn vốn liếng niềm tin của người gửi thì bị bào mòn
- Mất tín hiệu chuyên môn: giọng văn đầy tự tin của AI khiến khó phân biệt chuyên môn thật với sự tự tin giả tạo, làm niềm tin suy yếu hơn nữa
- Trách nhiệm không rõ ràng: khi xảy ra lỗi, không rõ AI hay người dùng phải chịu trách nhiệm
- Kết quả là Sloppypasta gây ra mất mát trong học tập, sụp đổ niềm tin và mệt mỏi trong giao tiếp
Các quan điểm được trích dẫn
- “Viết là một quá trình tư duy; khi giao việc đó cho LLM, mức độ hiểu và ghi nhớ sẽ giảm đi” — nghiên cứu của Anthropic
- “Chia sẻ đầu ra AI mà không đọc là bất lịch sự” — Simon Willison
- “Những câu trả lời trau chuốt do AI viết, dù đúng nội dung, vẫn có thể tạo cảm giác bị phớt lờ” — Blake Stockton
- “Trước đây, văn bản là bằng chứng của tư duy con người, nhưng giờ thì không còn như vậy nữa” — Alex Martsinovich
6 nguyên tắc để tránh Sloppypasta
- Read: trước khi chia sẻ, nhất định phải tự đọc và hiểu
- Đầu ra chưa đọc không thể đảm bảo tính chính xác, liên quan hay cập nhật
- Verify: phải kiểm chứng sự thật
- Nội dung được chia sẻ đồng nghĩa với sự bảo chứng ngầm về độ tin cậy từ người gửi; thông tin sai sẽ dẫn đến tổn hại danh tiếng
- Distill: chỉ nên tóm tắt phần cốt lõi để truyền đạt
- Do cấu trúc chi phí theo token, LLM có xu hướng tạo câu trả lời dài dòng, nên người gửi phải chịu trách nhiệm tóm lược
- Disclose: phải nêu rõ có sử dụng AI hay không
- Nếu chia sẻ phần nào đã được rà soát và đã dùng prompt nào, có thể khôi phục tín hiệu niềm tin
- Share only when requested: không chia sẻ đầu ra AI nếu không được yêu cầu
- Sloppypasta ép người nhận phải gánh gánh nặng đọc·kiểm chứng·tóm tắt
- Share as a link: với đầu ra AI dài, hãy chia sẻ dưới dạng liên kết hoặc tệp đính kèm
- Để tránh lấp đầy cửa sổ trò chuyện và làm gián đoạn dòng trao đổi
Kết luận
- AI hữu ích như một công cụ nâng cao năng suất, nhưng bắt buộc phải có cách sử dụng không xâm phạm thời gian và niềm tin của người khác
- Công nghệ mới cần phép lịch sự mới (New manners), và
AI nên được dùng như công cụ tăng tốc tư duy, chứ không phải vật thay thế cho tư duy
1 bình luận
Ý kiến trên Hacker News
Đó là trường hợp ai đó dán nguyên kết quả từ prompt “hãy viết đặc tả sản phẩm chi tiết cho pipeline thu thập dữ liệu thử nghiệm lâm sàng” vào ticket Jira
Nó hoàn toàn không khớp với thiết kế nội bộ và còn thêm vào hàng đống tính năng không cần thiết
Khi tôi chỉ ra với PM, họ lại gạt đi kiểu như “để bàn lúc sprint review” và bảo hãy “phối hợp” với team engineering
Có lẽ sắp tới sẽ đến lúc chúng ta phải học về phép lịch sự khi dùng AI
Nghe thật mỉa mai khi nói rằng nhờ AI mà năng suất tăng lên
Chỉ là phải mất thêm chút thời gian để nó lan sang cả công việc trong công ty mà thôi
AI thì hữu ích, nhưng việc phải nghiêm túc xử lý một thứ mà người kia làm ra trong 10 giây thì thật bực mình
Bây giờ giống như miền Viễn Tây hoang dã, nhưng rồi sẽ có lúc những quy tắc sử dụng đúng đắn được thiết lập
Thật nực cười
Hôm nay tôi quyết định tự làm hẳn một dự án POC mới
Trong 2 tuần, tôi review code, ghi log, viết ví dụ để chứng minh rằng phần lớn chúng đều không hoạt động
Điều buồn cười là quản lý lại báo cáo rằng với Claude thì chỉ mất một tuần là “chạy được”
Còn tôi thì phải viết 4 task Jira, vô số commit và ba bản báo cáo
Internet vốn chưa bao giờ là một nơi dành cho diễn ngôn chất lượng cao
Với tư cách người tiêu thụ nội dung, thứ chúng ta cần là các công cụ lọc tốt hơn, và trớ trêu thay, AI có thể lại chính là thứ giúp làm được điều đó
Thật thú vị khi mọi người cảm thấy nội dung do “AI của mình” tạo ra thì ổn, nhưng nhìn thấy thứ do “AI của người khác” làm ra thì lại có cảm giác như bị lừa
Cuối cùng có khi thế giới sẽ thành ra giống Dead Internet Theory, nơi AI tạo nội dung và AI lại tiêu thụ chính nội dung đó
Dù điều đó nghe có vẻ kém hiệu quả, Internet vốn dĩ chưa từng là một không gian hiệu quả
Nếu tôi muốn câu trả lời từ AI thì tôi đã tự đi hỏi rồi
Lý do tôi hỏi con người là vì tôi muốn phản hồi của con người
Cũng giống như thỉnh thoảng tôi có ăn đồ ăn nhanh, nhưng nếu vào nhà hàng sang trọng mà họ đem ra Big Mac thì tôi sẽ nổi điên
Nó kéo dài một ý tưởng đơn giản thành những câu chữ dài dòng và trang trọng để trông có vẻ thuyết phục
Mọi người thích vì họ đưa suy nghĩ của mình vào LLM rồi kết quả trả ra lại khớp với họ,
nhưng từ góc nhìn của người khác thì đó chỉ là sự lãng phí thời gian để đọc một đoạn dài không cần thiết
Chỉ cần tóm tắt bằng bullet point là được
Vì thế khi ai đó gửi cho bạn một câu trả lời do AI viết, nó tạo cảm giác thô lỗ giống như gửi một liên kết LMGTFY vậy
Tôi cũng biết cách hỏi AI, nên việc gửi thay như thế chẳng có giá trị gì cả
Rốt cuộc nếu nhà sản xuất không trả tiền cho người tiêu dùng thì hệ sinh thái này sẽ sụp đổ
Cũng có rất nhiều người ghét cả “AI của chúng ta”, chỉ là họ không đẩy nó sang cho người khác mà thôi
Từ góc nhìn quản lý đội nhóm, ai lạm dụng nó thì sẽ dễ dàng lộ rõ là đối tượng cần phải sắp xếp lại
Kết quả là công ty đã biến thành một thị trường của những drone chuyên ném AI slop
Tôi không phải web designer nên đã nhờ nó hỗ trợ để làm ra một trang nhìn ổn về mặt thị giác
Nhưng toàn bộ bài luận và guideline đều do con người viết
Dù vậy, việc ghi rõ đã dùng AI là điều đáng hoan nghênh
Liên kết AI Disclosure
Giờ nó nghe như một phần của hội thoại thường ngày
Không giống như nói dối, bullshit không bóp méo sự thật mà bóp méo ý định của người nói
Ngoài ra còn có khái niệm Gish-gallop — một kiểu tranh luận làm lãng phí thời gian đối phương bằng cách tung ra vô số khẳng định sai và các luận điểm khó phản bác
Tôi lo rằng nếu nói với đồng nghiệp “đừng dùng kết quả AI chưa được kiểm chứng nữa” thì sẽ tạo ra căng thẳng
Mà nếu thật sự đó là do chính họ viết thì còn khó xử hơn
Chẳng lẽ họ lại tiếp tục đáp lại bằng một đoạn dài nữa sao?
Tiếp cận bằng cuộc trò chuyện riêng thay vì trên kênh công khai tỏ ra hiệu quả hơn
Ngoài ra cũng tốt nếu đề xuất một chính sách sử dụng AI ở cấp độ đội nhóm để lấy đó làm căn cứ trao đổi
Trừ khi lãnh đạo kỹ thuật ép buộc, còn không thì nên tiếp cận theo hình thức review trong nhóm
Trước đây dù có viết tài liệu rất kỹ thì cũng chẳng ai đọc,
còn bây giờ chỉ cần gửi một tài liệu 3000 trang do AI tạo ra thì chẳng ai đọc mà vẫn phê duyệt
Không hoàn hảo, nhưng tôi vẫn thấy còn đỡ hơn thời trước, khi trong cuộc họp tôi phải đọc thay cho họ như ngày xưa
Trong thời đại AI, tôi không biết vai trò này sẽ trở nên vô dụng hay cuối cùng tất cả chúng ta sẽ chỉ còn là reviewer mà thôi