3 điểm bởi GN⁺ 2025-09-23 | 1 bình luận | Chia sẻ qua WhatsApp
  • OpenAI công bố kế hoạch xây dựng trung tâm dữ liệu AI quy mô tối thiểu 10GW dựa trên hệ thống NVIDIA để chuẩn bị hạ tầng AI thế hệ tiếp theo
  • Trong quá trình này, NVIDIA cam kết sẽ đầu tư dần tối đa 100 tỷ USD cho mỗi đợt triển khai ở quy mô gigawatt
  • Hệ thống đầu tiên ở quy mô 1GW dự kiến sẽ đi vào vận hành trên nền tảng Vera Rubin vào nửa cuối năm 2026
  • Sự hợp tác lần này bao gồm đồng tối ưu hóa phần cứng - phần mềm giữa OpenAI và NVIDIA, đồng thời bổ trợ cho các hợp tác hiện có với Microsoft, Oracle, SoftBank và các đối tác Stargate
  • Đây được kỳ vọng sẽ trở thành bàn đạp quan trọng giúp OpenAI tiến tới AGI dựa trên hơn 700 triệu người dùng hàng tuần và mức độ chấp nhận toàn cầu của doanh nghiệp

Tổng quan về quan hệ đối tác

  • OpenAI và NVIDIA đã công bố thư bày tỏ ý định (LOI) cho một quan hệ đối tác chiến lược nhằm triển khai hệ thống quy mô tối thiểu 10GW
    • Mục tiêu là đảm bảo hạ tầng cho việc huấn luyện và vận hành các mô hình thế hệ tiếp theo của OpenAI
    • Được giới thiệu là một phần trong bước tiến từng giai đoạn hướng tới siêu trí tuệ
  • NVIDIA cho biết kế hoạch đầu tư tối đa 100 tỷ USD theo tiến độ triển khai, bao gồm mở rộng trung tâm dữ liệu và nguồn điện
  • Giai đoạn đầu tiên dự kiến sẽ được đưa lên trực tuyến trên nền tảng NVIDIA Vera Rubin vào nửa cuối năm 2026

Các phát biểu chính

  • Jensen Huang (CEO NVIDIA)
    • Nhắc lại lịch sử hợp tác 10 năm với OpenAI và nhấn mạnh hành trình dẫn tới bước đột phá ChatGPT
    • Phát biểu rằng: “Việc triển khai hạ tầng 10GW là cú nhảy vọt mở ra kỷ nguyên tiếp theo của trí tuệ”
  • Sam Altman (CEO OpenAI)
    • Nhấn mạnh rằng “mọi thứ bắt đầu từ compute”, và đây sẽ là nền tảng của nền kinh tế trong tương lai
    • Giải thích rằng OpenAI sẽ cùng NVIDIA thúc đẩy các đột phá AI mới và việc ứng dụng ở quy mô lớn cho con người và doanh nghiệp
  • Greg Brockman (Chủ tịch OpenAI)
    • Đề cập rằng OpenAI đã xây dựng AI được hàng trăm triệu người sử dụng trên nền tảng NVIDIA
    • Công bố kỳ vọng việc triển khai 10GW sẽ mở rộng giới hạn của trí tuệ và lan tỏa lợi ích công nghệ

Phạm vi hợp tác

  • NVIDIA được chỉ định là đối tác chiến lược về compute và mạng của OpenAI
  • Hai bên sẽ đồng tối ưu hóa các mô hình và phần mềm hạ tầng của OpenAI với phần cứng và phần mềm của NVIDIA
  • Dự kiến mở rộng sức mạnh cộng hưởng với mạng lưới hợp tác hiện có như Microsoft, Oracle, SoftBank và Stargate

Tình hình hiện tại và ý nghĩa đối với OpenAI

  • OpenAI hiện ghi nhận hơn 700 triệu người dùng hoạt động hàng tuần và đang được áp dụng rộng rãi trong các tập đoàn toàn cầu, doanh nghiệp vừa và nhỏ, và cộng đồng lập trình viên
  • Quan hệ đối tác này được đánh giá là nền tảng giúp tăng tốc sứ mệnh xây dựng AGI phục vụ toàn nhân loại
  • Hai bên có kế hoạch chốt các điều khoản chi tiết của quan hệ đối tác trong vài tuần tới

1 bình luận

 
GN⁺ 2025-09-23
Ý kiến trên Hacker News
  • Việc biểu thị theo đơn vị gigawatt thật sự rất đáng chú ý. Trong 3 năm qua đã có tranh cãi rằng tăng trưởng AI do các trung tâm dữ liệu gây ra đã đẩy vọt hóa đơn điện của hộ gia đình và doanh nghiệp nhỏ. Nếu 10GW tương đương lượng điện mà Chicago và New York cộng lại đang dùng, thì trong thực tế lưới điện và hạ tầng Mỹ đang ở tình trạng tệ hại, cần phải nghiêm túc bàn xem sẽ lấy nguồn điện này từ đâu. Chi phí đã bị đẩy sang cho các hộ gia đình để cung cấp điện giá rẻ cho trung tâm dữ liệu, nên sự bất bình đẳng này cũng là vấn đề. Việc giá điện dân dụng ở Mỹ tăng từ 13 cent lên 19 cent trong 5 năm, tức tăng 46%, hoàn toàn không công bằng cũng không bền vững. Điều tôi thắc mắc là: rốt cuộc 10GW này sẽ được cấp từ đâu, và ai sẽ gánh chi phí đó? Tham khảo thêm, khi nói về quy mô trung tâm dữ liệu thì người ta thường nói theo tiêu chí điện năng (watt), nhưng lần này con số lại được đưa ra từ góc nhìn của nhà cung cấp năng lực tính toán như Nvidia chứ không phải chủ sở hữu hay đơn vị vận hành trung tâm dữ liệu thuần túy. Điều đó cho thấy tiêu thụ điện, mở rộng lưới điện và gánh nặng chi phí đang là vấn đề trung tâm
    • Tôi làm trong ngành trung tâm dữ liệu. Nói quy mô trung tâm dữ liệu bằng mức tiêu thụ điện (ví dụ: 200MW) là tiêu chuẩn. Thiết bị compute có thể nâng cấp mỗi 5 năm, nhưng nhu cầu điện gần như cố định. Cuối cùng, đơn vị này cho thấy rất rõ rằng AI là hành vi tinh luyện năng lượng
    • Về nhận định “không công bằng cũng không bền vững”, so với Italy thì giá điện ở Mỹ chỉ bằng một nửa. Ở Mỹ, quốc gia giàu nhất thế giới, tôi không nghĩ đây là chuyện không thể vượt qua
    • Hạ tầng trung tâm dữ liệu luôn được phân bổ theo đơn vị watt. Từ con số đó sẽ suy ra mọi tính toán về tải CNTT, làm mát, v.v.
    • Công ty điện lực khi tăng giá bắt buộc phải trình lý do với cơ quan quản lý. Nguyên nhân chính khiến chi phí tăng là quá trình chuyển đổi sang năng lượng tái tạo. Không khó để buộc các trung tâm dữ liệu lớn tự gánh chi phí cần thiết. Tuy nhiên, việc tự sản xuất điện lại là vấn đề phức tạp hơn. Trước đây người ta từng lấy điện giá rẻ từ thủy điện sông Columbia, nhưng giờ đã bắt đầu cạnh tranh trực tiếp với nhu cầu dân dụng. Dù vậy, chi phí phát điện vẫn chỉ là một phần rất nhỏ trong tổng hóa đơn
    • Mức tăng 8% mỗi năm là lớn, nhưng cũng cần tính đến cú sốc nhiên liệu toàn cầu năm 2022. Ví dụ ở Australia, giá điện năm đó đã tăng gấp đôi. Xét trung bình dài hạn thì mức tăng khoảng 6% mỗi năm, chỉ nhỉnh hơn một chút so với tăng trưởng tiền lương 4%. Tiền điện vẫn chiếm tỷ trọng nhỏ trong thu nhập hộ gia đình. Phần lớn tác động được mức lương tăng hấp thụ. Dĩ nhiên với người thu nhập thấp thì có thể bị ảnh hưởng mạnh, nhưng với đa số thì không phải cú sốc lớn
  • Mọi cách diễn đạt trong thông cáo báo chí về “landmark strategic partnership” đều quá mơ hồ và đầy giọng quảng bá doanh nghiệp. Thực chất đây có vẻ chỉ là kiểu thông báo “một ngày nào đó chúng tôi sẽ làm điều gì đó rất ghê gớm”
    • Cổ phiếu Nvidia hôm nay tăng $6, nên có thể nói hiệu quả của thông báo này đã đạt được trọn vẹn. Về bản chất, đây là lời nhắn tới nhà đầu tư kiểu “chúng tôi sắp làm việc lớn, hãy rót thêm vốn”, và có vẻ nhiều nhà đầu tư đã phản ứng theo hướng đó
  • Tôi tò mò cụ thể “quy mô gigawatt của hệ thống Nvidia” nghĩa là gì. Tôi tự ước tính thử, có thêm GPT hỗ trợ, và có vẻ có thể gần tới 10 triệu máy. Quy mô đúng là khổng lồ
    • Mức này chắc chắn lớn đến phi lý. Ở cấp độ hệ thống, một H100 tiêu thụ khoảng 1~2kW, nên nếu lấy 2kW thì ra khoảng 5 triệu máy. Ví dụ một rack NVL72 có 72 chip, 120kW, tổng cộng tính cả làm mát là 2kW mỗi chiếc
    • Nói là “ở quy mô hàng triệu chiếc” cũng không sai. Số lượng thực tế phụ thuộc vào môi trường hạ tầng, và trên thực tế bộ tăng tốc chỉ chiếm một phần tổng điện năng, nhưng quy mô rõ ràng vẫn là hàng triệu chiếc
    • Trước khi xem bình luận tôi cũng thử tính nhanh, nếu lấy 600W mỗi GPU thì 10,000,000,000/600 = 16,66 triệu chiếc. Khi tính thêm nhiều yếu tố thì sẽ khác khá xa thực tế, nhưng đó là điểm khởi đầu tương đối. Chưa tính overhead, nhiệt thải, hiệu suất chuyển đổi, v.v.
    • Nếu tính 3MW cho mỗi 1.000 GPU thì 10GW tương đương khoảng 3,33 triệu chiếc
    • Tôi cũng muốn biết loại cáp và tổng chiều dài cáp cần để kết nối toàn bộ số GPU này là bao nhiêu. Cứ tưởng chỉ cần gắn vào rack kim loại, nhưng xem ảnh trung tâm dữ liệu thực tế thì thấy vô số dây màu xanh nối chằng chịt
  • Tôi có cảm giác công nghệ LLM (mô hình ngôn ngữ lớn) đã qua đỉnh rồi. Bây giờ nó giống quảng cáo máy sưởi không gian hơn, cứ làm như có bước tiến vĩ đại nào đó trong khi thực ra công nghệ đang chững lại. Chỉ là đang tạo ra những con ngựa nhanh hơn mà thôi. Thị trường lẽ ra phải kiểm soát hợp lý tình trạng này
    • Bong bóng AI rõ ràng có khả năng một ngày nào đó nổ spectacularly. Nhưng nói rằng hiện tại là đỉnh của LLM thì chẳng khác nào bảo Internet giai đoạn 99~01 đã là đỉnh cao cuối cùng. Trên thực tế sau đó còn có smartphone và nhiều đổi mới khác, còn LLM dựa trên văn bản cũng chưa hề đình trệ. AI không chỉ có văn bản, mà cả AI trong thế giới thực như xe tự lái cũng đang tiến bộ theo cấp số nhân
    • Ngay trong bong bóng dot-com cũng đã có cơn sốt cực lớn rồi crash mạnh, nhưng những công ty sống sót như Amazon sau đó trở thành gã khổng lồ. Tôi hy vọng cơn sốt AI lần này cũng sẽ để lại những thành quả có ý nghĩa như thế
    • Tôi nghĩ sắp có một đợt điều chỉnh thị trường. Tuy nhiên, cũng như Internet vẫn có giá trị sau cú sụp dot-com, tôi kỳ vọng giá trị dài hạn vẫn sẽ còn
    • Cách nhìn “đã đi quá xa” ở đây là theo nghĩa mọi kỳ vọng tích cực giờ đã được phản ánh hết vào giá
  • Nước là tài nguyên thiết yếu nhưng đang thiếu ở nhiều nơi. Đã nhiều lần có trường hợp trung tâm dữ liệu hút nước ngay trong lúc hạn hán. Tôi tự hỏi liệu EPA của Mỹ có còn lên tiếng về việc quản lý mức sử dụng nước của những dự án như thế này hay không
    • Nước ngầm vùng Trung Tây đang được dùng nhiều hơn cho sản xuất ethanol, còn ở California thì trồng hạnh nhân tiêu tốn nhiều hơn. Tác động của hai ngành đó tới tài nguyên nước lớn hơn nhiều, trong khi độ hữu ích thực tế lại thấp hơn trung tâm dữ liệu. Tôi muốn mọi người tập trung hơn vào những vấn đề thực sự nghiêm trọng
    • Vấn đề nước của trung tâm dữ liệu không quan trọng đến mức truyền thông mô tả. Một số khu vực có vấn đề cục bộ, nhưng trọng tâm vẫn là điện năng
    • Tôi tự hỏi liệu mức tiêu thụ nước của trung tâm dữ liệu trên thực tế có phải không lớn do dùng làm mát tuần hoàn, tức chỉ kiểu bơm nước chạy vòng quanh, chứ không phải tiêu hao nhiều hay không
  • Chẳng mấy ai nói về nhu cầu điện của những cơ sở khổng lồ như thế này. Hóa đơn điện tôi trả ở New Jersey cũng đã tăng hơn 50% theo PSEG. Người ta nói nhu cầu tăng vọt vì trung tâm dữ liệu, nhưng thực tế lại không áp biểu giá cao hơn cho trung tâm dữ liệu bài liên quan
    • Đợt tăng giá này là ví dụ cho thực tế chính trị ở New Jersey coi thường người tiêu dùng. Rồi các trung tâm dữ liệu cuối cùng cũng sẽ tập trung ở những nơi có giá điện cạnh tranh hơn
    • Chính quyền bang đã dung túng chuyện này. Họ hoàn toàn có thể từ chối đơn giản, nhưng lại cho phép
  • Google dùng 15TWh mỗi năm (khoảng 1,7GW), còn kế hoạch mới của OpenAI và Nvidia sẽ tiêu thụ gấp 5,8 lần mức đó (tức 5,8 Google). Ở quy mô này, sẽ có cơ hội khổng lồ cho các chip tính toán AI siêu tiết kiệm điện so với GPU hiện tại. Đã có nhiều hướng kỹ thuật được thử nghiệm nên rất đáng mong đợi
    • Tôi muốn biết ví dụ cụ thể về các chip AI siêu tiết kiệm điện đó. Nếu có con số về mức tiết kiệm điện thực tế thì sẽ rất hay
    • Chỉ riêng trung tâm dữ liệu này thôi cũng có thể tập hợp đủ sức mạnh tính toán để thực hiện tấn công 51% vào các đồng tiền mã hóa lớn. Nếu thị trường AI xẹp xuống sau khi bong bóng tan, đó có thể là một dạng bảo hiểm thú vị
  • Tôi chỉ đang lặng lẽ chờ bài phân tích vấn đề của Ed Zitron
    • Nếu lãnh đạo không thể đo thành quả bằng output, họ sẽ chuyển sang đo bằng input, và hiệu quả sẽ giảm. Việc buộc nhân viên quay lại văn phòng cũng là phần kéo dài của logic đó. Giờ đây với OpenAI và Nvidia, số gigawatt đầu vào đã trở thành thước đo thành công quan trọng hơn cả kết quả AI thực chất
    • Bài của chính Ed Zitron
    • Cũng có không ít người chịu lỗ lớn chỉ vì một dự báo bi quan của Ed Zitron
  • Có giả định rằng trung tâm dữ liệu này sẽ cần diện tích đất cỡ Monaco (740 acre), với mức 80kW/rack
    • Monaco cực kỳ nhỏ, cỡ nằm gọn trong công viên Tempelhofer ở nội đô Berlin
    • Thực ra cũng có thể mô tả là cỡ một nhà máy BYD
    • Monaco rộng 2 kilômét vuông. Nếu tính 1 mét vuông cho mỗi rack thì diện tích thực tế cần là 12 hecta, tức khoảng 17 sân bóng đá (theo phương án lắp một tầng). Tôi nghĩ cũng có thể xếp chồng trung tâm dữ liệu theo chiều dọc. Không biết có phải chỉ mình tôi đi tra diện tích Monaco không Wikipedia về Monaco Tự tính diện tích
    • Toàn bộ nước Mỹ có thể chứa 4,8 triệu Monaco
  • Lò phản ứng trên tàu ngầm hải quân Mỹ thập niên 1960 có công suất 78MW, vậy 10GW tương đương 128 tàu ngầm hạt nhân
    • Nói dễ hình dung hơn, đó là khoảng 2% mức tiêu thụ điện trung bình của toàn nước Mỹ, tương đương cả quốc gia Hà Lan với 18 triệu dân
    • Một nhà máy điện hạt nhân thường tối đa khoảng 2GW, còn trang trại điện gió ngoài khơi 1,5GW đã gần chạm giới hạn. Ngay cả hệ thống truyền tải DC 525kV cỡ lớn cũng chỉ truyền tối đa 2GW trên mỗi tuyến cáp. Chỉ riêng việc tăng thêm tải 10GW đã là cú sốc rất lớn với lưới điện và đòi hỏi đầu tư hạ tầng quy mô lớn. Chỉ cần đi hỏi mua cáp 525kV từ các tập đoàn lớn thôi cũng phải chờ sau năm 2030 mới có hàng
    • Mặt khác, nếu não người tiêu thụ khoảng 20W thì 10GW tương đương 500 triệu bộ não. So với cả côn trùng như ruồi cũng xử lý thông tin bằng mức năng lượng cực nhỏ, AI hiện tại như LLM có thể đang đi theo hướng hoàn toàn kém hiệu quả. Nếu một ngày nào đó xuất hiện cách làm hiệu quả hơn để lật ngược điều này, thì đống thiết bị hiện nay có thể sẽ mất giá trị, ha
    • Chỉ cần 10 lò phản ứng РБМК 1GW cực kỳ an toàn là đủ 10GW (không có nguy cơ nổ)
    • Một nhà máy điện thường cỡ 1GW, mà điện hạt nhân xây rất chậm nên cuối cùng khả năng cao vẫn sẽ là điện khí tự nhiên thôi