24 điểm bởi helio 2026-03-22 | 2 bình luận | Chia sẻ qua WhatsApp

Thinking—Fast, Slow, and Artificial

Nghiên cứu cho rằng AI không phải là công cụ mà là ‘hệ thống tư duy thứ ba’

  • Tháng 1 năm 2026, Trường Wharton thuộc Đại học Pennsylvania
    • Steven D. Shaw (nghiên cứu sinh tiến sĩ)
    • Gideon Nave (giáo sư marketing/khoa học hành vi)
  • Mở rộng mô hình tư duy của con người từ System 1 / 2 → System 1 / 2 / 3
  • Luận điểm cốt lõi:
    → AI không chỉ là công cụ đơn thuần mà là một hệ thống tư duy vận hành từ bên ngoài (System 3)

Khái niệm cốt lõi

Trước đây

  • System 1: trực giác nhanh
  • System 2: phân tích chậm

Khái niệm được bổ sung

  • System 3: AI (hệ thống nhận thức bên ngoài)
    • vận hành bên ngoài não bộ
    • tự động hóa, dựa trên dữ liệu, nhanh
    • có thể hỗ trợ hoặc thay thế tư duy của con người

Cognitive Surrender (sự đầu hàng nhận thức)

  • Định nghĩa:
    → hiện tượng chấp nhận nguyên trạng kết quả của AI mà không kiểm chứng

  • Khác với các khái niệm trước đây:

    • Offloading: dùng công cụ (như máy tính bỏ túi)
    • Surrender: chuyển giao chính việc phán đoán
  • Đặc điểm:

    • người dùng không nhận thức là “AI đã trả lời” mà là
      → “chính tôi đã phán đoán”

Tóm tắt thí nghiệm

  • Người tham gia: 1.372 người
  • Tổng cộng 9.593 trials
  • Cố ý thao túng độ chính xác của AI

Kết quả 1: con người gần như làm theo AI nguyên trạng

  • AI đúng → 92,7% làm theo
  • AI sai → 79,8% làm theo

→ Ngay cả khi sai, đa số vẫn chấp nhận


Kết quả 2: hiệu suất bị phụ thuộc vào AI

  • Brain-only: 45,8%
  • AI trả lời đúng: 71,0%
  • AI trả lời sai: 31,5%

→ Khi AI sai, còn kém hơn cả tự làm một mình


Kết quả 3: vấn đề niềm tin + sự tự tin

  • Khi dùng AI:
    • mức tự tin tăng +11,7 điểm phần trăm
    • không phụ thuộc việc AI đúng hay sai

→ Sai vẫn tin chắc hơn


Kết quả theo từng điều kiện

Áp lực thời gian

  • tư duy con người suy yếu (System 2 giảm)
  • mức phụ thuộc vào AI vẫn duy trì
  • Kết quả:
    • nếu AI đúng thì có ích
    • nếu AI sai thì tiếp tục xấu đi

Thưởng + phản hồi

  • tăng số lần sửa lỗi
  • tăng tỷ lệ từ chối câu trả lời sai của AI
  • Nhưng:
    • Cognitive Surrender không biến mất hoàn toàn

Khác biệt cá nhân

Cognitive Surrender tăng khi:

  • mức độ tin tưởng AI cao
  • xu hướng tư duy phân tích thấp
  • năng lực nhận thức thấp

Cognitive Surrender giảm khi:

  • Fluid IQ cao
  • Need for Cognition cao

Chuyển đổi khung nhìn quan trọng

Tư duy của con người giờ đây
không còn là “suy nghĩ nhanh vs suy nghĩ chậm” nữa mà là

→ chuyển thành cấu trúc “suy nghĩ của tôi vs suy nghĩ của AI”


Rủi ro cốt lõi

  • hiệu quả thay đổi trực tiếp theo độ chính xác của AI
  • trong tình huống có lỗi:
    • khả năng phán đoán giảm
    • mức độ chắc chắn tăng
  • chủ thể chịu trách nhiệm trở nên mơ hồ

Hàm ý

  • vấn đề không phải là AI trả lời sai
    → mà là người dùng không kiểm chứng

  • đặc biệt
    → rủi ro tăng mạnh trong các lĩnh vực đòi hỏi phán đoán có hàm lượng trí tuệ cao


Liên quan: https://news.ycombinator.com/item?id=47467913

2 bình luận

 
bini59 2026-03-23

Ừm đúng là vậy. Khi AI đưa ra phán đoán sai, thay vì tự mình suy nghĩ thì tôi lại nhờ AI sửa lại giúp, rồi cuối cùng vẫn không ra được đáp án nên còn nhớ là đã mở hẳn một phiên mới nữa..

 
mrtj0329 2026-03-23

Vì sao các hệ thống AI không học hỏi và cần làm gì về điều đó
Những bài học về học tập tự chủ từ khoa học nhận thức
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381