- Chính phủ Mỹ đã công bố “Kế hoạch hành động quốc gia về AI (AAIAP)” nhằm phát triển và ứng dụng trí tuệ nhân tạo (AI) một cách an toàn và có trách nhiệm
- Đề ra 5 mục tiêu chiến lược lớn gồm mở rộng đầu tư cho nghiên cứu và phát triển AI, bảo đảm độ tin cậy và trách nhiệm, đào tạo nhân lực, tăng cường hạ tầng và khả năng tiếp cận dữ liệu, hợp tác toàn cầu
- Tập trung vào việc xây dựng nền tảng pháp lý và chính sách để AI vừa mang lại lợi ích xã hội và kinh tế, vừa giảm thiểu rủi ro
- Nhấn mạnh các biện pháp nhằm ngăn chặn việc lạm dụng hoặc sử dụng sai mục đích AI trong quân sự và phi quân sự, bảo vệ đạo đức và nhân quyền, đồng thời phục vụ an ninh quốc gia và lợi ích công cộng
- Thúc đẩy đồng thời đổi mới AI và thiết lập chuẩn mực thông qua hợp tác công - tư
Tổng quan về Kế hoạch hành động quốc gia về AI
- Chính quyền Mỹ cho rằng cần có một chiến lược tổng thể ở cấp quốc gia, xét đến ảnh hưởng của công nghệ AI đối với toàn xã hội
- Đưa ra định hướng chính sách nhằm đồng thời đạt được hai trục mục tiêu là khuyến khích đổi mới và kiểm soát rủi ro
1. Tăng cường đầu tư R&D và hạ tầng AI
- Mỹ sẽ mở rộng đầu tư R&D ở cấp liên bang để thúc đẩy sự phát triển của AI và nâng cao năng lực cạnh tranh toàn cầu
- Thúc đẩy mở rộng hạ tầng công phục vụ nghiên cứu AI như siêu máy tính, bộ dữ liệu chất lượng cao, công cụ mã nguồn mở
- Cung cấp cơ hội tiếp cận dữ liệu và tài nguyên tính toán để nhà nghiên cứu, startup và các nhóm thiểu số cũng có thể sử dụng
- Ở cấp quốc gia, ưu tiên hỗ trợ nghiên cứu ứng dụng AI theo các ngành cụ thể như y tế, khí hậu, nông nghiệp, năng lượng
- Mở rộng đầu tư R&D liên ngành vào khoa học cơ bản, độ tin cậy, an toàn và AI có đạo đức
2. Xây dựng hệ sinh thái AI đáng tin cậy và có trách nhiệm
- Chính phủ sẽ chủ động xây dựng các tiêu chuẩn về tính minh bạch, an toàn và khả năng giải thích của AI, sau đó lan tỏa sang khu vực tư nhân
- Bảo đảm bằng pháp luật và thể chế về tính công bằng của AI (không phân biệt đối xử, giảm bất bình đẳng), bảo vệ quyền riêng tư và tuân thủ đạo đức
- Tăng cường hệ thống kiểm thử và xác minh trước khi đưa vào sử dụng thực tế, bao gồm đánh giá rủi ro thuật toán và phân tích tác động
- Với các ứng dụng AI có mức độ rủi ro cao (ví dụ: y tế, tài chính, an toàn công cộng), sẽ áp dụng quy định và kiểm tra bổ sung
- Thiết lập quy trình xác định trách nhiệm và khắc phục nhanh chóng khi AI gặp sự cố hoặc bị lạm dụng
3. Phát triển nhân tài và lực lượng lao động AI
- Tăng cường toàn diện giáo dục hiểu biết về AI từ tiểu học đến đại học và đào tạo người lớn
- Mở rộng hỗ trợ để học sinh ở nhóm yếu thế và khu vực khó khăn cũng có thể tham gia giáo dục AI
- Mở rộng chương trình đào tạo tiến sĩ và chuyên gia AI cùng các chương trình tái đào tạo cho người đang làm việc (upskilling)
- Tăng cường năng lực AI trong chính phủ và cơ quan công, đồng thời hỗ trợ giao lưu và hợp tác với nhân lực khu vực tư nhân và công nghiệp
- Bao gồm các biện pháp về thu hút nhân tài AI, chính sách nhập cư và thúc đẩy tuyển dụng nhân tài quốc tế
4. Mở rộng khả năng tiếp cận dữ liệu và hạ tầng
- Xây dựng chính sách về bảo đảm, chia sẻ và khai thác dữ liệu chất lượng cao, công bằng và an toàn
- Mở dữ liệu công và bảo đảm liên kết với dữ liệu tư nhân cũng như khả năng tương tác
- Làm rõ các tiêu chuẩn về quyền riêng tư dữ liệu, bảo mật và đạo đức
- Hỗ trợ dùng chung hạ tầng như siêu máy tính, cloud cho nhà nghiên cứu và phát triển AI, doanh nghiệp, trường học và tổ chức phi lợi nhuận
- Tăng cường chuẩn hóa dữ liệu, quản lý chất lượng và hệ thống quản trị dữ liệu
5. Quản trị AI toàn cầu và hợp tác quốc tế
- Dẫn dắt việc thiết lập các tiêu chuẩn và chuẩn mực toàn cầu về đạo đức, an toàn và độ tin cậy của AI
- Tăng cường hợp tác về chính sách, công nghệ và nghiên cứu với G7, OECD, UN và các nước đồng minh
- Xây dựng liên kết quốc tế nhằm ngăn chặn việc vũ khí hóa AI, giám sát và lạm dụng theo hướng độc đoán
- Thúc đẩy chuẩn hóa AI toàn cầu, khả năng tương tác và bảo đảm tính di động của dữ liệu
- Mở rộng phát triển năng lực AI và hỗ trợ quốc tế cho các quốc gia kém phát triển và dễ bị tổn thương
Hệ thống thực thi và giám sát
- Văn phòng Chính sách Khoa học và Công nghệ Nhà Trắng (OSTP) sẽ chủ trì điều phối toàn bộ chiến lược
- Từng bộ ngành (quốc phòng, thương mại, giáo dục, năng lượng, y tế...) sẽ xây dựng và vận hành kế hoạch triển khai cụ thể
- Bảo đảm sự tham gia của các bên liên quan thông qua hội đồng công - tư, nhóm chuyên gia và thu thập ý kiến công dân
- Thiết lập lộ trình chi tiết theo từng mục tiêu, chỉ số hiệu quả và hệ thống kiểm tra, báo cáo định kỳ về tiến độ thực hiện
- Tăng cường tính minh bạch, bao trùm và trách nhiệm giải trình trong quá trình thực thi chính sách
Kết luận và nhiệm vụ sắp tới
- Đồng thời theo đuổi hai mục tiêu là thúc đẩy đổi mới AI và giảm thiểu rủi ro
- Nhấn mạnh rằng cùng với tiến bộ công nghệ, việc thiết lập các chuẩn mực đạo đức, pháp lý và xã hội là điều thiết yếu
- Năng lực dẫn dắt toàn cầu, hợp tác quốc tế, phát triển nhân tài, tăng cường quy định và quản trị là những nhiệm vụ cốt lõi trong trung và dài hạn
- Xây dựng quy định thực chất, giám sát liên tục và sự tham gia tích cực của mọi thành phần xã hội được xem là điều kiện để chính sách thành công
1 bình luận
Ý kiến Hacker News
Rõ ràng AI là một lĩnh vực cực kỳ quan trọng đối với tăng trưởng kinh tế, nhưng tôi muốn nhấn mạnh rằng năng lượng sạch cũng quan trọng không kém. Hiện tại cả hai lĩnh vực đều đang ở bước ngoặt quan trọng. Tuy nhiên, Mỹ thì muốn dẫn đầu trong AI, còn ở lĩnh vực năng lượng lại như thể không có chuyện gì xảy ra và né tránh thực tế. Thái độ này có nguy cơ khiến Mỹ đánh mất vị thế lãnh đạo kinh tế trong lĩnh vực năng lượng vào tay các quốc gia khác trong vòng 20 năm tới. Tệ hơn nữa, lập trường hiện tại của chính phủ có thể khiến các công ty năng lượng Mỹ bám víu vào cách làm cũ và cuối cùng có thể phá sản trong 10–20 năm tới. Đến lúc đó, Mỹ có thể phải đối mặt với tình huống phải cứu trợ họ vì lý do chiến lược
Thật tốt khi thấy việc khuyến khích AI mã nguồn mở và open-weight. Đặc biệt ấn tượng ở chỗ tài liệu làm rõ rằng open-weight và mã nguồn mở không phải là một
Nếu không có hỗ trợ thực tế, chẳng hạn như tài trợ, thì việc chính phủ chỉ khuyến khích thôi khó có thể xem là có ý nghĩa thực chất. Nhìn vào phần liên quan trong tài liệu này (xem file PDF) sẽ thấy gần như không có nội dung gì
Tôi thắc mắc mục tiêu lớn là bảo đảm ưu thế của Mỹ thì làm sao có thể song hành với chính sách open-weight. Khi trọng số được công khai, ai cũng có thể dùng công nghệ đó
Tôi cũng thắc mắc mối giao cắt giữa sự quan tâm của chính phủ đối với các mô hình “công bằng” và chính sách mã nguồn mở. Đặc biệt, cái gọi là “công bằng” theo cách chính phủ nghĩ tới lại có phần đáng sợ
Đây là một chính sách gần như vô nghĩa
Tất cả những chính sách này rốt cuộc đều xuất phát từ ham muốn kiểm soát. Không hề quan tâm đến lợi ích chung thực sự, độ chính xác hay tính chuẩn xác, mà chỉ nhằm để những người nắm quyền kiểm soát open weight và mã nguồn của mô hình, ngăn chặn những suy nghĩ, câu hỏi hay tư tưởng tự do không được phê chuẩn
Cá nhân tôi thấy điểm quan trọng nhất là họ đã đưa ra lập trường mạnh mẽ đối với các mô hình AI mã nguồn mở, open-weight. Lập trường này xung đột với một số quy định khác như EU AI Act. EU AI Act cũng không cấm mô hình open-weight, nhưng dù có ngoại lệ cho các dự án dưới FLOPS 10²⁵ thì môi trường pháp lý vẫn khá nặng nề đối với các dự án mở phi tập trung
Nhìn vào mục “khuyến nghị chính sách” sẽ thấy phần lớn chỉ là lời nói suông, không có nội dung thực chất
Có vẻ nó tập trung vào năng lượng không tái tạo và hệ tư tưởng do chính phủ áp đặt hơn là mã nguồn mở và năng lượng tái tạo. Tôi không biết cách diễn giải này là lạc quan ngây thơ hay là né tránh thực tế
Ở phần năng lượng, việc nói đến điện hạt nhân nhiệt hạch để cấp điện cho AI nhưng không hề nhắc đến năng lượng mặt trời nghe như một trò đùa
Xét về mặt kỹ thuật, điện mặt trời cũng là năng lượng nhiệt hạch từ ngoài vũ trụ được truyền đến dưới dạng photon, nên theo nghĩa rộng có thể xem là một dạng nhiệt hạch
Tôi tự hỏi cần bao nhiêu đất nếu muốn vận hành toàn bộ hạ tầng AI chỉ bằng điện mặt trời. Tôi muốn nói rằng điện mặt trời không thực tế, nhưng đồng thời cũng thực sự tò mò về điều đó
Có vẻ không có cách nào để ngăn các công ty AI chỉ sử dụng năng lượng tái tạo
Quê tôi đã lắp đặt điện mặt trời quy mô lớn trên đất nông nghiệp. Điện mặt trời thì tốt cho mái nhà dân dụng, nhưng khó dùng để vận hành trung tâm dữ liệu 24/7 nếu không có pin lưu trữ
Nhu cầu điện của AI và đường cong phát điện mặt trời không khớp nhau
Sau trang AI Action Page của Mỹ, có một chính sách tiếp theo đáng chú ý là PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT. Tài liệu này định nghĩa DEI là việc bóp méo sự thật về chủng tộc, giới tính, đa dạng theo kết quả, lý thuyết chủng tộc phê phán, người chuyển giới, thiên kiến vô thức, tính giao thoa, phân biệt chủng tộc có hệ thống, phân biệt đối xử và các khái niệm tương tự. Tài liệu cho rằng DEI làm tổn hại cam kết đối với sự thật và trở thành mối đe dọa đối với AI đáng tin cậy
Trên thực tế, gần như mọi mục tiêu của Action Plan đều xoay quanh việc thúc đẩy ứng dụng AI, nhưng chỉ mục tiêu cuối cùng lại ghi là “chống lại truyền thông tổng hợp trong hệ thống pháp luật”. Tôi thắc mắc điều này làm sao tương thích được khi phần lớn AI như LLM lại có chức năng chính là tạo ra nội dung tổng hợp
Tôi không rõ câu đầu là châm biếm hay nghiêm túc. Toàn bộ tài liệu mang cảm giác như một bản yêu cầu từ nhóm vận động hành lang trong ngành. Ví dụ việc LLM được dùng trong hệ thống pháp luật thì cũng giống như luật sư giàu kinh nghiệm giao cho luật sư trẻ soạn bản nháp. Vấn đề phát sinh khi người ta không kiểm tra bản nháp mà nộp thẳng lên tòa. Điều đó dẫn đến áp dụng lập luận pháp lý cẩu thả, trích dẫn án lệ sai sự thật và viện dẫn cho các lập luận sai
Có lẽ sẽ dễ hiểu hơn nếu đọc toàn bộ tài liệu bằng giọng của Patrick Bateman
Cũng có cách diễn giải cho rằng điều quan trọng nhất là giành được AGI trước. Ai kiểm soát AGI thì sẽ có sức mạnh thống trị thế giới
Phần này liên quan đến watermarking, tức cơ chế nhận diện và xác thực nội dung tổng hợp bằng AI. Chẳng hạn, cần xây dựng các tiêu chuẩn riêng để ngăn deepfake ác ý làm tổn hại công lý. Theo đó, các phương án chính sách được nêu ra gồm cung cấp công cụ đối phó deepfake cho tòa án và cơ quan tư pháp, xây dựng hướng dẫn benchmark pháp y và sửa đổi Federal Rules of Evidence
Có đoạn nói rằng “để chính phủ liên bang gia hạn hợp đồng với các nhà phát triển LLM, chỉ những hệ thống tạo ra kết quả ‘khách quan và không thiên lệch’ theo tiêu chuẩn mà chính quyền này công nhận mới được chấp nhận”. Tức là đầu ra AI phải phù hợp với chuẩn chân lý của chính quyền đương nhiệm
Trước đây khi tôi nêu mối lo kiểu này thì bị đánh giá tiêu cực. Có lẽ vì nó đi ngược bầu không khí lạc quan về LLM.
Tài liệu liên quan nói về các ví dụ trong đó khái niệm DEI hoạt động như một ràng buộc trong AI, và lập luận rằng sự ám ảnh với “sự thật” đe dọa chính sự tồn tại của AI đáng tin cậy
Cụm từ “không có top-down ideological bias” về cơ bản gần như đồng nghĩa với ý niệm “đúng đắn chính trị”
Nếu phải phục tùng kiểu “sự thật kiểu Mỹ” như vậy thì tôi thà rời khỏi ngành IT còn hơn. Ít nhất cũng may là EU AI Act giúp trì hoãn việc phải tiếp xúc với kiểu này
“Khách quan”, “không có thiên lệch từ trên xuống” nghe chẳng khác gì áp đặt niềm tin rằng 2+2=5 và chúng ta luôn ở trong chiến tranh với Đông Á
Tôi muốn chỉ ra rằng hầu hết các mục được liệt kê trong Action Plan như “nới lỏng quy định hành chính, triển khai AI tự do, khuyến khích mã nguồn mở, bảo vệ giá trị Mỹ, bảo đảm bộ dữ liệu khoa học cho AI, tăng tốc áp dụng AI trong chính phủ” đều mâu thuẫn với chính sách thực tế. Những động thái gần đây của chính phủ đi ngược hoàn toàn với các mục tiêu được nêu ở đây. Cá nhân tôi thấy toàn bộ chuyện này ở thời điểm hiện tại là một hướng đi nguy hiểm nên khó mà nghiêm túc đón nhận
Có vẻ như công thức thành công là không đặt ra quy định nào, nhưng vẫn theo đuổi các mục tiêu chính trị
Toàn bộ tài liệu gần như là một bản tuyên truyền kiểu “thực hiện lợi ích vĩ đại của nước Mỹ thông qua AI”
Có nói đến “nới lỏng quy định hành chính”, nhưng thực tế hiện giờ chẳng có quy định nào đối với việc thuê GPU và huấn luyện mô hình cả
Tóm lại, đây chỉ là một tuyên bố suông vô nghĩa. Rất ít người thực sự tin vào những cam kết không có hành động đi kèm
Phần lớn nội dung khiến tôi cảm thấy giống “tuyên truyền khẩu hiệu” kiểu Đảng Cộng sản Trung Quốc. Chỉ khác là ở Mỹ, chính phủ không có năng lực huy động đồng loạt mọi lĩnh vực như một quốc gia độc tài, nên kiểu tạo bầu không khí rỗng tuếch này sẽ khó phát huy tác dụng
Sau đại dịch, từ “kế hoạch” dường như chẳng còn nhiều ý nghĩa. Đó là vì sự bất tài ở cấp quốc gia. Tôi dự đoán những Action Plan kiểu này cuối cùng sẽ không tạo ra kết quả thực chất nào ngoài các bài phát biểu và giải ngân ngân sách
Nếu cứ thế này thì chỉ có các hợp đồng trị giá hàng triệu USD bị tiêu tốn mà không mang lại kết quả thực sự. Hệ tư tưởng bảo thủ là logic cho phép chỉ một tầng lớp nhất định được hưởng đặc quyền, còn chi phí y tế của dân thường bị coi là xa xỉ để rồi cắt giảm
Việc cố giải quyết vấn đề của thế giới thực chỉ bằng các chính sách trên giấy là căn bệnh kinh niên mà Mỹ, Anh và EU đã mắc phải từ lâu
Ở Canada, chỉ cần công bố chương trình của chính phủ trên đài quốc gia là đã có thể giành được sự ủng hộ của công chúng, dù không có triển khai thực tế hay hỗ trợ ngân sách. Chẳng khác gì Pravda
Có đoạn viết rằng “ngành y tế Mỹ chậm áp dụng AI vì thiếu niềm tin vào công nghệ, quy định phức tạp, và thiếu các tiêu chuẩn rõ ràng về quản trị và quản lý rủi ro, vì vậy cần một nỗ lực thống nhất ở cấp liên bang”, nhưng tôi nghi ngờ liệu cách tiếp cận kiểu “cứ làm trước rồi sửa sau” có phù hợp với y tế hay không. Trong y tế vốn đã có những tiêu chuẩn rõ ràng và nghiêm ngặt, nên không hợp với việc triển khai các hệ thống mang tính thử nghiệm
Tôi đã trải nghiệm rằng hệ thống y tế Mỹ thực tế đã ở sát bờ sụp đổ. Tôi cảm nhận rất rõ sự khác biệt giữa bác sĩ nông thôn thời thơ ấu của mình và hệ thống cấp cứu “kiểu fast food” hiện tại. Những lần khám gần đây chỉ toàn sự thờ ơ và kém năng lực từ nhân viên y tế. Mỗi lần đi khám xong tôi cũng không khá hơn, chỉ nhận thêm hóa đơn khổng lồ. Nha khoa cũng suy thoái trầm trọng vì bị private equity thâu tóm. Từ nay về sau, trừ khi có nguy cơ chết, tôi sẽ không tự mình tìm đến cơ sở y tế nữa
Điều trị bằng AI cần được kiểm chứng nghiêm ngặt, nhưng nếu đưa AI vào xử lý thanh toán/hành chính thì có thể tiết kiệm chi phí rất lớn. Một phần đáng kể chi phí y tế ở Mỹ là chi phí hành chính
Y tế Mỹ vốn đã rất mong manh, và hiện có hàng nghìn người tử vong do thời gian chờ khám, chẩn đoán sai và sự kém hiệu quả. Trong chẩn đoán, AI hiện đã vượt bác sĩ trong phần lớn trường hợp
Chiến lược “move fast and break things” cũng có thể tạo ra thay đổi tích cực trong y tế nếu lượng hóa rủi ro đúng cách. Nếu rủi ro của điều trị thử nghiệm không lớn hơn rủi ro tử vong do trì hoãn điều trị bệnh thường gặp, thì đổi mới nhanh có thể mang lại lợi ích dài hạn. Thực tế đã có nghiên cứu cho thấy AI vượt bác sĩ ở khoa cấp cứu
Hệ thống y tế Mỹ đã chạm giới hạn, nên khó mà tệ hơn được nữa; thậm chí nếu nó còn hỏng thêm thì kết cục có khi lại vẫn được xem là một sự cải thiện