- Trước sự gia tăng đột biến trong đầu tư trung tâm dữ liệu của các công ty AI toàn cầu, CEO IBM Arvind Krishna đã đặt nghi vấn rất lớn về tính sinh lời
- Ông cho biết theo mức chi phí hiện tại, việc xây dựng một trung tâm dữ liệu 1 gigawatt cần khoảng 80 tỷ USD, và các công ty lớn đang xúc tiến quy mô 20~30 gigawatt
- Trên toàn cầu, các khoản đầu tư vào hạ tầng AI với quy mô khoảng 100 gigawatt đang được triển khai, và ông tính toán tổng giá trị lên tới 8 nghìn tỷ USD
- Krishna đánh giá rằng khi tính đến khấu hao 5 năm của chip AI và chi phí vốn khổng lồ, sẽ cần lợi nhuận 800 tỷ USD mỗi năm, nhưng điều này thực tế là không thể
- Ông cho rằng với công nghệ hiện tại, khả năng đạt được AGI (trí tuệ nhân tạo tổng quát) chỉ ở mức 0~1%, đồng thời nhấn mạnh rằng chỉ riêng LLM là có giới hạn
Tranh cãi về làn sóng đầu tư mạnh vào trung tâm dữ liệu AI và tính sinh lời
- Các công ty AI lớn đang đổ hàng tỷ USD vào trung tâm dữ liệu trong cuộc đua AGI
- Meta gần đây trong báo cáo kết quả kinh doanh đã nhiều lần nhắc đến “capacity” và “AI infrastructure”
- Google công bố kế hoạch dài hạn xây dựng trung tâm dữ liệu đặt trong không gian
- Krishna phát biểu rằng “khả năng những khoản đầu tư này chuyển thành lợi nhuận là gần như không có”
- Ông lưu ý đây là “phép tính theo thời điểm hiện tại”, còn chi phí tương lai vẫn chưa chắc chắn
Phép tính chi phí và phân tích hiệu quả đầu tư của Krishna
- Ông giải thích rằng để xây dựng một trung tâm dữ liệu 1 gigawatt cần khoảng 80 tỷ USD
- Nếu một công ty theo đuổi 20~30 gigawatt thì sẽ phát sinh chi tiêu vốn (capex) khoảng 1,5 nghìn tỷ USD
- Trên toàn cầu, các khoản đầu tư với quy mô khoảng 100 gigawatt đang được triển khai, với tổng giá trị ở mức 8 nghìn tỷ USD
- Trong trường hợp này, cần 800 tỷ USD lợi nhuận mỗi năm mới chỉ đủ chi trả tiền lãi
- Ông khẳng định rằng “không có cách nào tạo ra mức lợi nhuận như vậy”
Khấu hao và rủi ro đầu tư
- Ông chỉ ra khấu hao 5 năm của chip AI là một rủi ro lớn
- Ông nói: “Sau 5 năm, phải bỏ chip đi và lấp đầy lại từ đầu”
- Nhà đầu tư Michael Burry cũng đã chỉ ra vấn đề khấu hao của Nvidia, qua đó châm ngòi cho đợt giảm giá cổ phiếu AI
- Krishna đánh giá cấu trúc khấu hao này sẽ khiến ROI (tỷ suất hoàn vốn đầu tư) xấu đi hơn nữa
Hoài nghi về khả năng đạt được AGI
- Krishna đưa ra xác suất đạt AGI với công nghệ hiện tại là 0~1%
- Ông nói rằng “nếu không có thêm đột phá công nghệ thì là điều bất khả thi”
- Ông cho rằng chỉ riêng LLM (mô hình ngôn ngữ lớn) là chưa đủ, và đề xuất cần kết hợp với ‘tri thức cứng’
- Ilya Sutskever của OpenAI cũng nhấn mạnh việc chuyển hướng sang nghiên cứu, nói rằng “thời đại scaling đã kết thúc”
Những góc nhìn hoài nghi khác trong ngành
- Marc Benioff bày tỏ thái độ hoài nghi khi mô tả nỗ lực theo đuổi AGI là “giống như thôi miên”
- Andrew Ng phát biểu rằng AGI là “điều đã bị thổi phồng quá mức”
- CEO Mistral Arthur Mensch xem AGI là một “chiến lược marketing”
Đánh giá cuối cùng của CEO IBM
- Krishna đánh giá rằng các công cụ AI hiện nay sẽ tạo ra giá trị ở quy mô hàng nghìn tỷ USD trong năng suất doanh nghiệp
- Tuy nhiên, ông nhấn mạnh rằng để đạt AGI thì cần những tiến bộ công nghệ vượt ra ngoài lộ trình LLM hiện tại
- Ông giữ lập trường thận trọng khi nói rằng “ngay cả như vậy thì khả năng cũng chỉ ở mức ‘có thể thôi (maybe)’”
7 bình luận
Tôi đồng ý rằng quy mô và kế hoạch đầu tư vào các trung tâm dữ liệu AI hiện tại là quá mức, nhưng kế hoạch thì vẫn chỉ là kế hoạch; trong bối cảnh không ai có thể dự đoán tốc độ và hướng phát triển của công nghệ, việc đưa ra một nhận định dứt khoát như vậy là rất rủi ro và có vẻ không phải là một quyết định tốt trên cương vị CEO.
(Trong một cuộc phỏng vấn nào đó) câu hỏi dành cho Chủ tịch SKT Choi Tae-won về việc ông có cho rằng AI là bong bóng hay không, cùng câu trả lời của ông, đã để lại ấn tượng.
Thật thẳng thắn.
Nhìn vào số tiền được đổ vào, có vẻ như việc tối ưu hóa sẽ được áp dụng cho mọi lĩnh vực có thể tối ưu hóa.
[Các chi phí điện năng, hiệu quả tham số của LLM, bộ nhớ đệm, v.v.] Có lẽ cuối cùng những thứ này sẽ khiến số tiền cần bỏ ra ít hơn dự kiến. Hừm hừm... lập trường bi quan về trí tuệ nhân tạo (~~ tuyệt đối không thể) lúc nào rồi cũng bị phá vỡ.
Ngay cả chỉ nhìn vào LLM thôi, với tôi nó cũng đã giống như một phép màu.
Xét về mặt số liệu thì đúng là vậy...
Nhưng ngoài LLM và trung tâm dữ liệu ra, có lẽ cũng không có gì đủ sức kéo nền kinh tế Mỹ nữa nhỉ.
Gần như y hệt suy nghĩ của tôi... Bọn tôi thì chỉ cần bán được thật nhiều bộ nhớ là xong thôi
Ý kiến trên Hacker News
Trích lời Steve Jobs rằng năm 1958 IBM đã bỏ lỡ công nghệ xerography, 10 năm sau lại phớt lờ minicomputer, và thêm 10 năm nữa thì đánh giá thấp Apple II
Nhìn việc CEO IBM hiện nói rằng “đầu tư vào trung tâm dữ liệu AI sẽ không sinh lợi”, có vẻ IBM vẫn chưa giỏi trong việc đọc vị tương lai
Tài liệu liên quan: Steve Jobs 1983 Keynote, Lịch sử phát minh của Xerox
Sau đó IBM PC (5150) đã hạ giá bằng cách dùng linh kiện thương mại, và đó chính là chìa khóa thành công
Wikipedia về IBM 5100
Apple II cũng gần như không có ảnh hưởng trong thị trường doanh nghiệp. Hơn nữa đây là chuyện từ 50 năm trước, tách biệt với cuộc thảo luận hiện nay về tỷ suất hoàn vốn (ROI) của đầu tư AI
CEO IBM nói rằng “chip AI phải bị vứt bỏ sau 5 năm”, nhưng đó có vẻ là một giả định quá chắc nịch
Nếu phần cứng vẫn ổn định sau 5 năm, thì vẫn có khả năng kiếm tiền bằng cách đưa các mẫu cũ vào vận hành giá rẻ
Tweet của Burry
Cuối cùng, chu kỳ 5 năm sẽ ảnh hưởng lớn đến quyết định đầu tư
Tôi cho rằng không thể hiện thực hóa toàn bộ khoản đầu tư vào trung tâm dữ liệu AI. Chỉ riêng nhu cầu điện năng cũng đã là một giới hạn
Gartner dự đoán chi tiêu AI toàn cầu năm 2025 sẽ đạt 1,5 nghìn tỷ USD
So với GDP toàn cầu (111 nghìn tỷ USD theo số liệu năm 2024), tôi thấy con số đó không quá mức
Tuổi thọ của đầu tư AI được ước tính vào khoảng 6~8 năm, và nếu không quá bi quan thì đây là quy mô hợp lý
Báo cáo của Gartner
Dữ liệu GDP của Ngân hàng Thế giới
Nếu dịch vụ LLM về cơ bản dùng chế độ phản hồi ngắn (dưới 200 token), đồng thời áp dụng prompt caching và định tuyến sang mô hình nhỏ hơn,
thì có thể giảm hơn 70% mức tiêu thụ năng lượng
Ở quy mô ChatGPT, tiền điện hàng năm là khoảng 50~100 triệu USD, nhưng với cách này có thể giảm xuống còn 5~10 triệu USD
Nếu EU hoặc California bắt buộc các chế độ như vậy, thì kinh tế trung tâm dữ liệu cũng sẽ thay đổi lớn
Cách đây 10 năm IBM từng đẩy mạnh “Watson” với hàng loạt quảng cáo như “Cognitive Finance”, nhưng giờ chẳng còn ai nhắc đến nữa
Có khi nào việc người khác dẫn dắt làn sóng AI hiện nay khiến họ khó chịu không
Trình diễn công nghệ thì ấn tượng, nhưng không có mô hình doanh thu thực tế
Tôi nhớ mình từng phải tự làm PoC để chứng minh rằng nó không khả thi
Dù vậy, xét vị thế của họ trên thị trường thì đây vẫn không phải là ý kiến có thể hoàn toàn bỏ qua
Lời CEO IBM rằng AI khó tạo ra lợi nhuận cũng có phần hợp lý
Theo NVIDIA, với mức điện năng 1GW có thể tạo ra 6.29×10^16 token mỗi năm,
mà nếu toàn bộ văn bản trên Internet chỉ ở mức 10^14 token thì chính dữ liệu có thể chạm trần
Trong cuộc thảo luận về AI hiện nay có ba yếu tố sợ hãi
IBM không hẳn có hiểu biết đặc biệt nào, mà chỉ đang phản ánh một phần của những nỗi sợ ấy
Tôi thấy đầu tư vào hạ tầng AI giống với đầu tư quá mức vào cáp quang thời bong bóng dot-com
Về dài hạn thì có giá trị, nhưng từng doanh nghiệp riêng lẻ có thể thất bại nặng nề
Tỷ lệ sử dụng và mô hình doanh thu quan trọng hơn số lượng GPU
IBM là công ty đã bỏ lỡ cơ hội trong phần cứng tiêu dùng, hệ điều hành và cloud
Lời CEO có thể đúng, nhưng không phù hợp để coi là chuẩn mực dự báo tương lai