13 điểm bởi GN⁺ 2026-03-08 | 1 bình luận | Chia sẻ qua WhatsApp
  • Điều AI đe dọa nhiều nhất không phải là nhóm thu nhập thấp mà là các nghề có học vấn cao và lương cao: tác động của AI không đến trước với "việc làm dễ" mà với "việc làm tốt"
  • Lập trình viên đứng số 1 trong các nghề phơi nhiễm nhiều nhất. Mức độ bao phủ 75%, cao nhất trong toàn bộ các nhóm nghề, nhưng trớ trêu là những người dùng coding agent nhiều nhất lại chính là các nhà phát triển
  • Vẫn chưa có ai bị sa thải vì AI, nhưng cánh cửa tuyển dụng người mới đang âm thầm khép lại: AI thay thế con người không phải bằng cách cắt giảm nhân sự hiện có mà bằng cách không tuyển thêm người mới
  • Phần lớn công việc mà về lý thuyết AI có thể thay thế vẫn chưa thực sự bị thay thế: với nhóm nghề máy tính & toán học, mức bao phủ lý thuyết là 94% nhưng thực tế chỉ 33%. Đây là lời cảnh báo rằng phần khoảng trống còn có thể được lấp đầy trong tương lai là rất lớn
  • Phụ nữ và người có học vấn cao phơi nhiễm với rủi ro bị AI thay thế nhiều hơn, với tỷ lệ nữ cao hơn 16 điểm %. Người ta thường nghĩ AI đe dọa "các việc làm lao động tay chân của nam giới", nhưng dữ liệu lại chỉ ra điều ngược lại

Phát hiện chính (Key Findings)

  • "Mức độ phơi nhiễm quan sát được (observed exposure)" là chỉ số kết hợp khả năng lý thuyết của LLM với dữ liệu sử dụng thực tế để đo mức độ ứng dụng công việc theo hướng tự động hóa
    • Gán trọng số cao hơn cho việc sử dụng tự động hóa và việc sử dụng liên quan đến công việc
  • Việc sử dụng AI trong thực tế chỉ là một phần nhỏ so với khả năng lý thuyết, và tỷ lệ các tác vụ AI thực sự được dùng trong số các tác vụ AI có thể thực hiện được vẫn thấp
  • Với những nghề có mức phơi nhiễm cao hơn, dự báo tăng trưởng việc làm đến năm 2034 của Cục Thống kê Lao động Mỹ (BLS) thấp hơn
  • Người lao động trong các nhóm nghề phơi nhiễm cao nhìn chung có tỷ lệ nữ cao hơn, học vấn cao hơn, lương cao hơn và tuổi lớn hơn
  • Kể từ cuối năm 2022, chưa có bằng chứng về việc tỷ lệ thất nghiệp tăng một cách có hệ thống, nhưng đã quan sát thấy sự chậm lại trong tuyển dụng người trẻ mới vào nghề

Bối cảnh và mục tiêu nghiên cứu

  • Nghiên cứu nhằm đo lường và dự báo tác động của AI lên thị trường lao động đang tăng nhanh, nhưng độ chính xác dự báo của các cách tiếp cận trước đây còn hạn chế
    • Một ví dụ tiêu biểu là khoảng 25% số việc làm từng được phân loại là dễ bị offshoring vẫn duy trì tăng trưởng việc làm vững chắc sau 10 năm
    • Các nghiên cứu về tác động việc làm của robot công nghiệp đưa ra kết luận trái ngược nhau, và quy mô mất việc do cú sốc thương mại từ Trung Quốc vẫn còn gây tranh cãi
  • Mục tiêu của nghiên cứu này là thiết lập một cách tiếp cận để đo lường tác động của AI lên việc làm, và cập nhật phân tích định kỳ mỗi khi có dữ liệu mới
  • Bằng cách xây dựng framework trước khi tác động của AI trở nên rõ ràng, có thể nhận diện biến động kinh tế đáng tin cậy hơn so với phân tích hậu kiểm

Suy luận nhân quả và chuẩn đối chiếu (Counterfactuals)

  • Với những trường hợp tác động lớn và đột ngột như COVID-19, việc suy luận nhân quả tương đối dễ, nhưng tác động của AI có thể sẽ không hiện ra ngay trong dữ liệu tổng hợp, giống như sự phổ cập Internet hay cú sốc thương mại từ Trung Quốc
  • Cách tiếp cận phổ biến là so sánh kết quả giữa các nhóm nghề có mức phơi nhiễm AI cao và thấp để tách riêng tác động của AI khỏi các biến gây nhiễu
  • Nghiên cứu này cũng theo cách tiếp cận dựa trên tác vụ, kết hợp đo lường năng lực AI về mặt lý thuyết với dữ liệu sử dụng thực tế rồi tổng hợp ở cấp độ nghề nghiệp

Cách đo mức độ phơi nhiễm

  • Kết hợp ba nguồn dữ liệu:
    • Cơ sở dữ liệu O*NET: danh sách các tác vụ công việc của khoảng 800 nghề tại Mỹ
    • Dữ liệu sử dụng Claude thực tế dựa trên Anthropic Economic Index
    • Ước lượng mức phơi nhiễm lý thuyết theo từng tác vụ (β) của Eloundou et al. (2023): nếu LLM có thể tăng tốc tác vụ lên hơn 2 lần thì là 1, nếu cần thêm công cụ thì là 0.5, nếu không thể thì là 0
  • Những tác vụ khả thi về mặt lý thuyết nhưng không xuất hiện trong sử dụng thực tế có thể do giới hạn mô hình, ràng buộc pháp lý, yêu cầu phần mềm, hoặc bước xác minh của con người
    • Ví dụ: "truyền thông tin đơn thuốc cho nhà thuốc và phê duyệt cấp lại thuốc" có mức phơi nhiễm lý thuyết β=1 nhưng không được quan sát thấy trong dữ liệu sử dụng Claude thực tế
  • Mức phơi nhiễm lý thuyết và mức sử dụng thực tế có tương quan cao; trong 4 báo cáo Economic Index trước đó, 97% các tác vụ được quan sát thuộc nhóm β=0.5 hoặc β=1

Chỉ số mức độ phơi nhiễm quan sát được (Observed Exposure)

  • Mức độ phơi nhiễm quan sát được định lượng tỷ lệ các tác vụ mà LLM có thể tăng tốc về mặt lý thuyết và thực sự được dùng trong môi trường làm việc dưới dạng tự động hóa
  • Điều kiện để mức phơi nhiễm của một nghề tăng lên:
    • Tác vụ đó khả thi về mặt lý thuyết với AI và có tần suất sử dụng đáng kể trong Anthropic Economic Index
    • Được sử dụng trong ngữ cảnh liên quan đến công việc
    • Có tỷ lệ tự động hóa cao hoặc được triển khai qua API (tự động hóa được tính toàn trọng số, sử dụng mang tính tăng cường được tính nửa trọng số)
    • Tỷ trọng của các tác vụ chịu ảnh hưởng bởi AI trong toàn bộ công việc là lớn
  • Chênh lệch giữa mức bao phủ lý thuyết (màu xanh) và mức độ phơi nhiễm quan sát được thực tế (màu đỏ) là rất lớn; AI hiện còn kém xa năng lực lý thuyết
    • Nhóm nghề Máy tính & Toán học: mức bao phủ lý thuyết 94%, mức bao phủ thực tế 33%
    • Nhóm nghề Văn phòng & Hành chính: mức bao phủ lý thuyết 90%

Các nhóm nghề có mức phơi nhiễm cao nhất

  • Trong 10 nghề đứng đầu theo mức độ phơi nhiễm quan sát được, 3 vị trí đầu gồm:
    • Computer Programmers: mức bao phủ 75% (Claude được dùng rộng rãi trong lập trình)
    • Customer Service Representatives: các tác vụ chính trong lưu lượng API first-party đang có xu hướng tăng
    • Data Entry Keyers: tự động hóa nổi bật trong các tác vụ chính như đọc tài liệu nguồn và nhập dữ liệu, với mức bao phủ 67%
  • 30% lực lượng lao động có mức bao phủ bằng 0, tức các tác vụ chưa đạt ngưỡng tối thiểu
    • Ví dụ trong nhóm này: đầu bếp, thợ sửa xe máy, nhân viên cứu hộ bãi tắm, bartender, nhân viên rửa bát, nhân viên phòng thay đồ

Mối quan hệ giữa mức độ phơi nhiễm và triển vọng việc làm của BLS

  • Khi so sánh dự báo tăng trưởng việc làm theo nghề giai đoạn 2024–2034 của BLS với mức độ phơi nhiễm quan sát được, kết quả cho thấy mức phơi nhiễm càng cao thì triển vọng tăng trưởng càng yếu
  • Khi mức bao phủ tăng thêm 10 điểm %, dự báo tăng trưởng của BLS giảm 0.6 điểm % (theo hồi quy có trọng số mức việc làm)
  • Chỉ dùng thước đo β lý thuyết của Eloundou et al. thì không xuất hiện tương quan này → cho thấy mức độ phơi nhiễm quan sát được có thể là chỉ báo dự báo hữu ích hơn một cách độc lập

Đặc điểm nhân khẩu học của người lao động trong nhóm nghề phơi nhiễm cao

  • So sánh nhóm 25% có mức phơi nhiễm cao nhất với nhóm 0% ngay trước khi ChatGPT ra mắt (8–10/2022):
    • Xác suất thuộc giới nữ ở nhóm phơi nhiễm cao cao hơn 16 điểm %
    • Xác suất là người da trắng cao hơn 11 điểm %, còn xác suất là người gốc Á gần gấp đôi
    • Mức lương trung bình cao hơn 47%
    • Tỷ lệ có bằng sau đại học: nhóm không phơi nhiễm 4.5% so với nhóm phơi nhiễm cao 17.4% (chênh lệch gần 4 lần)

Kết quả phân tích tỷ lệ thất nghiệp

  • Lý do chọn tỷ lệ thất nghiệp làm chỉ số ưu tiên trong phân tích là vì nó phản ánh trực tiếp nhất trạng thái muốn đi làm nhưng không tìm được việc
  • Xét xu hướng tỷ lệ thất nghiệp từ năm 2016, trong giai đoạn COVID-19, tỷ lệ thất nghiệp của nhóm không phơi nhiễm (tỷ trọng nghề tiếp xúc trực tiếp cao) tăng mạnh hơn nhiều
  • Sau khi ChatGPT ra mắt, thay đổi tỷ lệ thất nghiệp của nhóm phơi nhiễm cao không có ý nghĩa thống kê (có tăng nhẹ nhưng không đủ để phân biệt với mức 0)
  • Ví dụ về các kịch bản mà framework này có thể phát hiện:
    • Nếu toàn bộ 10% nhóm trên cùng bị sa thải, tỷ lệ thất nghiệp của nhóm đó sẽ tăng từ 3% → 43%, còn tỷ lệ thất nghiệp toàn nền kinh tế tăng từ 4% → 13%
    • Kịch bản "đại suy thoái cổ cồn trắng" (tỷ lệ thất nghiệp của nhóm 25% trên cùng tăng gấp đôi từ 3% → 6%) cũng có thể được phát hiện bằng phân tích này

Dấu hiệu chậm lại trong tuyển dụng người trẻ

  • Brynjolfsson et al. (2025) phân tích rằng việc làm trong các nghề phơi nhiễm cao của lao động 22–25 tuổi đã giảm 6–16%, và nguyên nhân chủ yếu là giảm tuyển dụng hơn là tăng sa thải
  • Trong nghiên cứu này, bản thân tỷ lệ thất nghiệp của người trẻ trong các nghề phơi nhiễm cao vẫn đi ngang
    • Việc giảm tuyển dụng có thể không thể hiện trong tỷ lệ thất nghiệp: nhiều người trẻ mới gia nhập thị trường có thể không đăng ký nghề nghiệp trong CPS hoặc rời khỏi thị trường lao động hoàn toàn
  • Dùng dữ liệu panel CPS để theo dõi tỷ lệ có việc làm mới của nhóm 22–25 tuổi sau khi tách theo nghề phơi nhiễm cao/thấp
    • Từ năm 2024, tỷ lệ gia nhập các nghề phơi nhiễm cao bắt đầu giảm rõ rệt trên biểu đồ
    • Tỷ lệ có việc làm hàng tháng ở nhóm nghề phơi nhiễm thấp ổn định ở mức 2%, trong khi tỷ lệ gia nhập nhóm nghề phơi nhiễm cao giảm khoảng 0.5 điểm %
    • Ước tính trung bình cho giai đoạn sau ChatGPT: tỷ lệ có việc làm ở nhóm nghề phơi nhiễm cao giảm 14% so với năm 2022 (mức ý nghĩa thống kê chỉ vừa đạt ngưỡng)
    • Không quan sát thấy mức giảm tương tự ở nhóm lao động trên 25 tuổi
  • Tuy vậy, vẫn có những cách diễn giải khác: người trẻ không được tuyển có thể tiếp tục ở lại công việc cũ, chọn nghề khác, hoặc quay lại học tập

Hạn chế của nghiên cứu và kế hoạch sắp tới

  • Chỉ số của Eloundou et al. đang dùng hiện cần được cập nhật theo năng lực LLM ở thời điểm đầu năm 2023
  • Trong tương lai, nhóm nghiên cứu dự định tiếp tục phản ánh dữ liệu sử dụng Claude để cập nhật xu hướng mức bao phủ theo từng tác vụ và nghề
  • Theo dõi cách sinh viên mới tốt nghiệp có bằng cấp trong các lĩnh vực phơi nhiễm cao phản ứng với thị trường lao động sẽ là nhiệm vụ tiếp theo then chốt
  • Framework này có thể được mở rộng để áp dụng cho các dữ liệu sử dụng khác và bối cảnh của những quốc gia khác

1 bình luận

 
GN⁺ 2026-03-08
Ý kiến trên Hacker News
  • Tôi đã làm việc ở Big Tech suốt 10 năm qua rồi nghỉ việc cách đây một tháng
    Làm việc bên ngoài công ty khiến tôi có cảm giác năng suất tăng gấp 50 lần
    Nếu nhìn vào tác động của AI lên năng suất, LLM mạnh ở (1) viết mã boilerplate, (2) chuyển đổi mã giữa các ngôn ngữ, (3) học và tóm tắt khái niệm mới, (4) các việc đơn giản như viết tài liệu
    Nhưng ở các tập đoàn lớn, những việc như vậy không xảy ra thường xuyên. Phần lớn thời gian là dành cho họp hành và tích hợp hệ thống
    Lần duy nhất AI thực sự hữu ích là trong hackathon. Ngoài ra thì ngược lại còn làm tăng việc
    Ngược lại, khi làm việc độc lập thì tôi cảm nhận được mức tăng năng suất lớn ở cả bốn mảng. Cũng bớt phải lo vấn đề pháp lý hay lỗi triển khai hơn
    Cuối cùng, tùy vào “ai sử dụng” mà AI có thể là yếu tố thay đổi cuộc chơi, hoặc không

    • Công ty chúng tôi dùng AI cho gần như mọi công việc nội bộ
      Nhưng nếu trao cho AI root access với cả cuộc đời mình thì chỉ có thất vọng. AI luôn cần sự kiểm soát của kiến trúc sư
      Tôi để AI viết email, nhưng việc gửi là do tôi tự làm. Tôi cho phép nó truy cập dữ liệu, nhưng quyết định cuối cùng là do tôi đưa ra
      Nhờ bài học từ thời MongoDB mà tôi tiếp cận công nghệ mới một cách thận trọng. Hiện tại tôi tự làm wrapper bằng Elixir, và xây dựng tự động hóa bằng Ash framework và Phoenix
      Tôi dùng nhiều mô hình song song để không một công ty nào biết toàn bộ dữ liệu của mình. Bài toán thật sự là quyền riêng tư
    • Với tư cách là nhà sáng lập startup và từng làm thành viên giai đoạn đầu, tôi thấy những người chỉ từng trải qua môi trường FAANG thường không hiểu rõ năng suất dựa trên quyền sở hữu của các đội nhỏ
    • Tôi cũng phụ thuộc nhiều nhất vào (1) và (3). LLM giống như một dạng Stack Overflow tăng cường
      Nhưng ở doanh nghiệp lớn, viết mã chỉ chiếm khoảng 20% công việc, nên 80% còn lại vẫn là nút thắt cổ chai
    • Rốt cuộc, quy mô tổ chức càng lớn thì nút thắt càng đến từ chi phí điều phối
    • Khá thú vị, nhưng tôi tò mò không biết có đang tạo ra doanh thu hay không. Nếu không có doanh thu thì đó chỉ là năng suất cho sở thích cá nhân, khó gọi là năng suất của thị trường lao động
  • Tôi muốn hỏi những người nói rằng không cảm nhận được cải thiện năng suất nhờ AI là đang bị mắc ở đâu?
    Tôi đã mô tả workflow trong bình luận trước, và ngay cả với codebase legacy cũng đã cắt giảm được một nửa số bước
    Giờ thì tôi gần như không còn tự viết code, chỉ rà soát các thay đổi do LLM đề xuất. Kết quả tốt đến mức đáng sợ

    • Những công ty sa thải người là những công ty không có tầm nhìn. Tổ chức phi lợi nhuận của chúng tôi thậm chí còn đang tuyển dụng
      Nếu công việc đã nhanh hơn thì cứ làm được nhiều việc hơn. Chúng tôi hoàn lại doanh thu cho cộng đồng và tạo ra giá trị thực chất
    • LLM hữu ích khi viết mã boilerplate hoặc xác định điểm khởi đầu trong codebase xa lạ
      Nhưng với mã phức tạp thì ngược lại lại dẫn đến suy giảm chất lượng. Nếu muốn mã có thể bảo trì được thì tự làm vẫn tốt hơn
    • Trong bản phát hành này tôi đã triển khai tính năng bằng Claude Code và Codex, và kết quả là bùng nổ bug
      Giai đoạn triển khai ban đầu thì nhanh, nhưng có lẽ bước gỡ lỗi sẽ còn mất nhiều thời gian hơn hẳn
    • Tôi đã giao cho AI việc dọn dẹp feature flag, nhưng nó mất 15 phút để làm xong việc mà con người chỉ cần 3 phút
      Nó bỏ qua chỉ thị và làm rối tung việc dọn dẹp mã, khiến chi phí ngược lại tăng gấp 5 lần
      Dù vậy, có người nói từ tháng 12 đến nay nó đã cải thiện nên tôi định sẽ thử lại
    • Tỷ lệ thất bại quá cao. Chỉ cần vượt khỏi mức CRUD đơn giản là ảo giác và viết mã quá tay trở nên nghiêm trọng
      Nó vẫn chỉ dừng ở mức thay thế Stack Overflow
  • Tôi phụ trách vận hành và bảo trì nhiều hơn là viết mã
    Đến giờ AI gần như chưa tạo được ảnh hưởng nào đáng kể lên công việc của tôi. Ngược lại Docker mới là thứ tạo thay đổi lớn hơn nhiều

    • AI giống như công cụ tìm kiếm tốt của ngày xưa. Trong phát triển game thì gần như vô dụng
      Nó còn viết sai cả các hàm cơ bản, và thường xuyên mắc lỗi logic
    • Ở phía vận hành cũng tương tự. AI có thể viết email, nhưng toàn bộ quy trình thì vẫn y nguyên
      Những công nghệ như cloud, Terraform, Ansible đã tạo ra thay đổi lớn hơn rất nhiều
    • Điều này giống với nghịch lý năng suất (Productivity Paradox) của thập niên 80
      Như bài viết trên wiki, đây là giai đoạn công nghệ thì hiện rõ nhưng chưa phản ánh vào thống kê
    • Công ty chúng tôi nhờ đưa AI vào mà đã hoàn thành lộ trình 6 tháng chỉ trong vài tuần
      Giờ thậm chí còn đang cân nhắc cắt giảm PM và engineering manager. Đây là thay đổi lớn nhất trong 35 năm sự nghiệp của tôi
    • Tôi cũng thấy năng suất tăng lên nhưng mức độ mệt mỏi cũng cao hơn
      Vì là một NGO nhỏ nên nhờ AI chúng tôi xử lý được nhiều việc hơn với cùng mức kinh phí. Nhờ đó tốc độ học hỏi và chất lượng cũng được cải thiện
      Nhưng khối lượng công việc không hề giảm. Ngược lại còn phải làm nhiều hơn
  • Là một lập trình viên, năng suất của tôi đã tăng gấp đôi nhưng khối lượng công việc vẫn y nguyên
    Kỳ vọng cũng tăng theo, nên rốt cuộc chỉ là lịch trình bị nén lại

    • Tôi nhớ đến một câu nói nổi tiếng của dân đạp xe: “Nó không bao giờ trở nên dễ hơn, chỉ là nhanh hơn thôi”
    • AI không làm giảm việc, mà thay vào đó thay thế một đồng nghiệp
    • Chưa bao giờ việc phát triển vượt qua được backlog và nợ kỹ thuật
    • Về khái niệm liên quan, xem nghịch lý Jevons
    • Mục tiêu luôn là hoàn thành được nhiều nhất có thể trong quỹ thời gian cho trước
  • Dự án tôi đang làm hiện nay có quy mô mà nếu không có AI thì thậm chí tôi đã không dám thử
    Nhưng tôi vẫn không hoàn toàn tin đầu ra của LLM. Tôi còn ngại cả việc chạy SwiftLint
    Dù vậy, tốc độ dự án thực sự đã tăng rất mạnh. Thứ trước đây mất 2 năm thì giờ chỉ trong một tháng đã hoàn thành hơn một nửa

    • Tôi là một vibe-coder, và đã phát hành vài ứng dụng chỉ mình tôi dùng. Nếu làm một mình thì hoàn toàn khả thi
    • Tôi cũng không thể hoàn toàn tin LLM. Vì vậy tôi thích UX kiểu Cursor, nơi có thể tự mình rà soát diff
    • Tôi tò mò vì sao bạn không dùng tự động hóa bằng hook để mã có thể vượt qua lint
  • Tôi cho rằng tác động thực tế của AI không lớn đến vậy
    Người dùng AI tốt thì có năng suất nhỉnh hơn đôi chút, nhưng nếu để lộ ra điều đó thì khối lượng công việc tăng gấp 10 lần
    Thay đổi thật sự nằm ở lập trình viên indie hoặc freelancer

    • Các công ty dừng tuyển dụng và chỉ tăng ngân sách token, nhưng hiệu quả thì vẫn chưa rõ ràng
    • Nếu mọi người đều năng suất gấp 10 lần thì lẽ ra phải có ứng dụng native thay vì Electron. Nhưng thực tế không phải vậy
    • Tôi muốn chờ xem biến động số liệu sau tháng 12 năm 2025
  • Tôi không tin những gì các công ty bán sản phẩm AI nói

    • Thật buồn cười khi họ tự tạo ra các chỉ số phóng đại triển vọng dài hạn cho chính sản phẩm của mình
    • Họ đang nhắm tới IPO
    • Cuối cùng những công nghệ kiểu này sẽ đi đến chỗ trở thành công cụ cho người ra quyết định trong doanh nghiệp, chứ không phải cho đại chúng
  • Một đồng nghiệp ở bộ phận marketing chỉ dùng LLM được công ty phê duyệt (Gemini) để làm công việc giả vờ,
    còn việc thật thì xử lý bằng tài khoản cá nhân trên Claude
    Lý do là vì họ sợ công ty sẽ thu thập prompt để huấn luyện mô hình thay thế chính họ

    • Nhưng trên thực tế thì tài khoản cá nhân mới có khả năng bị dùng cho huấn luyện cao hơn. Nếu không phải gói trả phí đầy đủ thì không thể loại trừ prompt khỏi dữ liệu huấn luyện
  • Công ty đã ngừng tuyển junior
    Giờ giao những việc mà họ từng làm cho AI còn hiệu quả hơn
    Tuy nhiên đây chỉ là giai đoạn điều chỉnh tạm thời. Về sau khi hình thức chuyên môn thay đổi thì việc tuyển dụng sẽ lại được nối lại

    • Ngược lại, sẽ hợp lý hơn nếu tuyển thêm junior chi phí thấp nhưng giỏi dùng AI
      Vấn đề không phải là AI mà là các yếu tố kinh tế vĩ mô như cấu trúc doanh thu
  • Tôi nghi ngờ không biết có phải họ chỉ ước tính ảnh hưởng dựa trên tần suất xuất hiện trong log của Claude hay không
    Làm vậy chẳng khác nào người bán thuốc rởm khảo sát khách của chính mình rồi tuyên bố rằng “không cần bác sĩ”
    Cách diễn giải dữ liệu đứng trên một tiền đề méo mó hoàn toàn