- Tập trung vào chương thứ hai “Approaches to solutions” của bài báo năm 1983 “The ironies of automation” của Lisanne Bainbridge, bài viết khám phá những góc nhìn có thể áp dụng cho tự động hóa dựa trên AI
- Khi con người giám sát công việc do AI agent thực hiện, các giới hạn nhận thức trong tình huống cần phán đoán nhanh và chịu căng thẳng tạo thành cấu trúc rủi ro tương tự hệ thống điều khiển công nghiệp
- UI/UX của agent dựa trên LLM hiện nay không phù hợp để phát hiện lỗi, và cần học hỏi từ các nguyên tắc thiết kế điều khiển công nghiệp
- Do nghịch lý của đào tạo, tự động hóa càng thành công thì việc đào tạo liên tục và tốn kém cho người giám sát càng trở nên thiết yếu
- Trong kỷ nguyên AI agent, không chỉ giám sát đơn thuần mà còn đòi hỏi “năng lực lãnh đạo”, từ đó dẫn tới một dạng cấu trúc cộng tác người-máy mới
Giới hạn của tự động hóa AI và phán đoán của con người
- Trong hệ thống điều khiển công nghiệp, phản ứng trong vài giây là bắt buộc; còn tự động hóa công việc văn phòng tuy ít rủi ro tức thời hơn nhưng vẫn đòi hỏi phán đoán và can thiệp nhanh
- Khi AI tạo ra kết quả với tốc độ siêu phàm, để con người hiểu và kiểm chứng chúng thì cần mức hỗ trợ nhận thức tương đương
- Văn hóa doanh nghiệp thiên về hiệu suất và môi trường áp lực làm suy giảm năng lực phân tích của con người, khiến việc phát hiện lỗi càng khó hơn
- Lỗi trong kết quả AI có thể dẫn tới hậu quả nghiêm trọng như sự cố an ninh, nên cần thiết kế hệ thống giám sát ở mức độ tương tự điều khiển công nghiệp
Vấn đề UI tệ nhất
- Bainbridge cho rằng “trong những tình huống cần nhanh chóng nhận ra các sự kiện có xác suất thấp, cần có hỗ trợ nhân tạo”
- Điều này hàm ý cần tăng cường hệ thống cảnh báo để giảm vấn đề mệt mỏi khi giám sát
- Cách quản lý đội agent AI hiện nay là một giao diện kém hiệu quả khi buộc con người phải rà soát hàng trăm dòng kế hoạch
- Lỗi có thể hiếm nhưng mang tính chí mạng, nên cần thiết kế lại UI/UX xoay quanh việc phát hiện lỗi
- Cần áp dụng các nguyên tắc thiết kế trực quan và cảnh báo của hệ thống điều khiển công nghiệp
Nghịch lý của đào tạo
- Bainbridge nhấn mạnh tầm quan trọng của việc duy trì kỹ năng thủ công, chỉ ra rằng con người cần định kỳ trực tiếp vận hành hệ thống
- Mức độ tự động hóa càng cao thì sự suy giảm tay nghề của con người càng diễn ra nhanh
- Huấn luyện bằng mô phỏng khó tái hiện các tình huống lỗi bất ngờ, vì vậy cần đào tạo tập trung vào chiến lược tổng quát
- Giống như câu “thật trớ trêu khi kỳ vọng trí thông minh ở một con người được huấn luyện để làm theo chỉ thị”, người giám sát AI cũng phải liên tục rèn luyện năng lực ứng phó với các tình huống ngoại lệ
- Tự động hóa càng thành công thì chi phí đào tạo con người càng tăng, và không thể xử lý chỉ bằng logic cắt giảm chi phí đơn thuần
Thế lưỡng nan về lãnh đạo
- Giám sát AI agent không phải chỉ là theo dõi đơn thuần mà là vai trò lãnh đạo thông qua chỉ đạo, điều phối và phản hồi
- Con người phải quản lý kết quả một cách gián tiếp thay vì trực tiếp thực hiện, điều này đòi hỏi chuyển đổi sang phương thức làm việc mới
- Phần lớn người làm thực tế sẽ phải quản lý agent mà không có đào tạo về lãnh đạo, và lời khuyên kiểu “hãy viết prompt tốt hơn” là không đủ
- Cần có đào tạo lãnh đạo AI, với cấu trúc tương tự đào tạo lãnh đạo con người hiện có
- Cho đến khi các agent trong tương lai trở nên đủ tinh vi, việc tăng cường năng lực lãnh đạo cho người giám sát vẫn là điều bắt buộc
Kết luận: Nghịch lý thực sự của tự động hóa
- Như kết luận của Bainbridge, con người không bị áp lực thời gian là những người giải quyết vấn đề xuất sắc, nhưng dưới áp lực thì hiệu quả giảm mạnh
- Tự động hóa không loại bỏ khó khăn của con người, mà ngược lại còn đòi hỏi mức độ tinh vi kỹ thuật cao hơn và đầu tư nhiều hơn vào năng lực con người
- Những góc nhìn từ 40 năm trước vẫn còn nguyên giá trị trong kỷ nguyên AI agent, và cần tái thiết lập sự cân bằng trong hợp tác người-máy
- Sự tiến bộ của tự động hóa AI phụ thuộc không phải vào công nghệ mà vào việc thiết kế lại vai trò của con người
1 bình luận
Ý kiến trên Hacker News
Tôi rất thích phần tóm tắt bài báo Bainbridge năm 1983 mà tác giả đã tổng hợp
Tôi cũng từng thử áp dụng “nghịch lý” của tự động hóa công nghiệp vào AI agent, nhưng chưa từng diễn đạt được rõ ràng như vậy
Bản thân bài báo khá ngắn nhưng cô đọng nên khó đọc, và rất đáng để đọc song song với bản PDF gốc
Đặc biệt, câu “các hệ thống tự động hóa hiện tại được xây dựng trên kỹ năng của những người từng làm thủ công trước đây” chính là điểm cốt lõi
Nói cách khác, để dùng AI tốt thì cần những lập trình viên lành nghề, nhưng để đạt được trình độ đó thì lại phải tự lập trình trực tiếp — đây chính là nghịch lý đầu tiên
Một bài viết đầy insight nên tôi rất khuyến nghị đọc
Những sản phẩm văn hóa như nghệ thuật hay viết lách về bản chất không phải là giải quyết vấn đề mà là hành vi biểu đạt
Thế nhưng AI đang dùng loại dữ liệu này để huấn luyện, vừa thay thế lao động và phần thưởng của người sáng tạo, vừa làm ô nhiễm “nguồn tài nguyên chung” của dữ liệu huấn luyện
Cuối cùng hoặc là phải trả chi phí cho người sáng tạo, hoặc mô hình sẽ ngày càng xa rời thực tại văn hóa đương đại
Hiện tại chúng ta chỉ đang ở thời điểm của một vấn đề mang tính vòng lặp và chờ hậu quả xuất hiện
Sau đó vẫn phải dành một tỷ lệ thời gian nhất định cho “dự án thủ công” để giữ kỹ năng
Nhưng làm như vậy liệu có thực sự khiến tốc độ nhanh hơn và thế giới tốt hơn hay không thì tôi vẫn còn nghi ngờ
LLM đã đạt tới mức đáng kinh ngạc, nhưng không tạo ra những tầng trừu tượng hay paradigm mới mà chỉ sản xuất ra các sản phẩm phụ được làm khéo léo
Vì vậy con người cảm thấy ít cần phải tạo ra phương pháp luận mới hơn
Có lẽ một ngày nào đó LLM suy luận sẽ giải quyết được vấn đề này
Tự động hóa AI không loại bỏ khó khăn của con người mà chuyển nó sang nơi khác
Thậm chí còn khiến nó ít bị nhìn thấy hơn và làm rủi ro tăng lên
Cuối cùng dù con người có can thiệp thì vẫn cần rất nhiều điều chỉnh tiếp theo
Những công nhân thủ công ngày trước đã nghỉ hưu, còn người vận hành nhà máy ngày nay không có kinh nghiệm thao tác thủ công
Thay vào đó, họ có kỹ năng về việc ‘phải làm gì khi máy móc bị hỏng’
Nhiều hệ thống thậm chí không thể vận hành hoàn toàn thủ công, nhưng tự động hóa nhà máy vẫn thành công và nhờ đó sản phẩm trở nên rẻ hơn, dồi dào hơn
Bài viết nói về hai vấn đề phát sinh khi dùng AI agent
Thứ nhất, khi agent làm sai thì chuyên gia con người phải lập tức can thiệp, nhưng vì không còn trực tiếp làm việc nên chuyên môn bị mai một rất nhanh
Thứ hai, chuyên gia phải trở thành người quản trị hệ thống agent, nhưng vì đây là vai trò không quen thuộc nên họ cảm thấy bị xa lạ với công việc
Rốt cuộc, tự động hóa tuy tăng hiệu suất nhưng cũng khiến sự can thiệp của con người khó hơn, nên thay vì thay thế hoàn toàn thì nó lại làm độ phức tạp tăng lên
Trước đây tôi từng tự động hóa báo cáo Excel bằng PowerBI, nhưng trong vài tháng kết quả đã bị sai
Khi đã tự động hóa thì bản năng kiểm chứng biến mất, và việc lần theo lỗi trở nên khó hơn rất nhiều
Vì vậy tôi muốn nhấn mạnh rằng khi tự động hóa thì quy trình kiểm chứng nhất định phải được giữ lại
Thế hệ màn hình cảm ứng có thể dùng bình thường không vấn đề gì, nhưng khi có gì đó trục trặc thì thế hệ cũ lại có lợi thế hơn hẳn
AI cũng vậy, nếu nó không hoàn hảo thì cuối cùng vẫn cần sự can thiệp của chuyên gia
Chỉ là vai trò đó có lẽ sẽ xuất hiện hiếm hoi như thợ sửa ô tô
Dù tự động hóa có tiến triển thì kỹ năng con người vẫn luôn cần thiết
AI có thể đưa ra kế hoạch ổn trong hầu hết trường hợp, nhưng đôi khi lại chứa lỗi chí mạng, và việc bắt được chúng là phần việc của con người
Cuối cùng một lớp tự động hóa khác lại phủ lên nó, rồi trên đó lại mọc thêm một lớp nữa
Nhìn vào cấu trúc tuần hoàn này, tôi thấy có lẽ nên đọc lại Tư bản luận của Marx
Bài này khiến tôi nghĩ đến việc “máy tính cầm tay nhanh và chính xác, nhưng chúng ta vẫn phải học nguyên lý toán học”
Tự động hóa lập trình nằm trên đường găng nhiều hơn rất nhiều so với một máy tính cầm tay đơn thuần, nên nguy cơ mai một kỹ năng là rất lớn
AI không bao giờ từ bỏ bài toán, nên sự cần thiết của chuyên gia sẽ luôn tồn tại
Điều quan trọng là khả năng biết cần phải tính con số nào
Các lập trình viên trẻ thậm chí không thể tự viết những routine cơ bản, và gần như không còn ai xử lý được driver C nữa
Đây là một bài thú vị, nhưng điều đáng tiếc là trong thực tế, lập trình viên dường như chỉ được nhìn nhận như người đi bắt lỗi của AI
Trên thực tế, phần lớn thời gian tôi vẫn dùng để lập trình cho AI
AI không biết phải tạo ra cái gì, cũng không biết khi nào nên thay đổi cái hiện có
Cuối cùng khác với ngành sản xuất, trong lập trình con người vẫn phải thiết kế pipeline sản xuất
Ngành hàng không từ lâu đã phải đối mặt với nghịch lý tự động hóa kiểu này
Hệ thống lái tự động thực hiện phần lớn chuyến bay, nhưng phi công vẫn luyện hạ cánh thủ công hằng tháng
Nhờ vậy họ vừa duy trì kỹ năng vừa tận dụng được lợi ích của tự động hóa
Trong khi đó ngành phần mềm ưu tiên năng suất ngắn hạn nên không khuyến khích kiểu đào tạo này
Cá nhân tôi vẫn định tiếp tục code thủ công, nhưng để cả ngành cùng làm như vậy thì rất khó
Tham khảo thêm là ngay cả trong hàng không vấn đề này vẫn còn nguyên — ví dụ điển hình là vụ rơi Air France 447
Bài liên quan: The Long Way Down – Air France Flight 447
Bài báo của Bainbridge cũng thú vị, nhưng bài nói chuyện “Children of the Magenta” xuất hiện sau đó còn thực dụng hơn
Video YouTube nói về đào tạo phi công trong môi trường tự động hóa
Các chiến đấu cơ hiện đại (F-22, F-35, v.v.) được thiết kế để tập trung vào thực hiện chiến đấu hơn là điều khiển máy bay
Trước đây phần lớn thời gian huấn luyện là hạ cánh, nhưng giờ nhờ có máy tính hỗ trợ ổn định nên phi công tập trung vào phán đoán chiến lược
Trong lập trình cũng vậy, AI càng phát triển thì con người sẽ càng dành nhiều thời gian hơn cho phân tích vấn đề ở cấp chiến thuật
Nếu ví trợ lý code AI với các cấp độ tự động hóa SAE của ô tô thì sẽ dễ hiểu hơn
Hiện tại nó đang ở mức Level 2~3, nơi giám sát và trách nhiệm của con người vẫn còn cần thiết
Trước khi đạt tới tự động hóa hoàn toàn (Level 5), giai đoạn chuyển tiếp này chính là lúc nguy hiểm nhất
Cuối cùng do áp lực cạnh tranh mà tất cả либо sẽ tiến đến Level 4 trở lên, либо bị đào thải
Tôi thấy nghi ngờ với câu “trước khi được giao vai trò lãnh đạo thì người ta sẽ được đào tạo đầy đủ về năng lực lãnh đạo”
Thực tế hiếm khi như vậy
Bản thân tôi cũng đang cảm nhận được sự mai một kỹ năng
Phản xạ đầu tiên là dùng LLM, nên đây đã trở thành thời đại cần đến sự tiết chế có ý thức như tập thể dục hay ăn kiêng
Chỉ một số người mới có thể giữ được sự cân bằng đó tốt
Đây không phải vấn đề tiết chế mà là vấn đề giữ vững ngưỡng hiểu biết tối thiểu
Câu “nếu chưa ổn thì phải viết prompt tốt hơn” nghe quá quen thuộc
Đây chính là câu thể hiện kiểu đổ trách nhiệm sang người dùng AI hiện nay