5 điểm bởi GN⁺ 2025-10-19 | 1 bình luận | Chia sẻ qua WhatsApp
  • OpenAI đang đối mặt với việc phải huy động hơn 400 tỷ USD trong 12 tháng tới
  • Khoản này nhằm đáp ứng các kế hoạch mở rộng quy mô lớn, bao gồm xây mới trung tâm dữ liệu lớn, hợp đồng chip AI, chi phí nhân sự và chi phí vận hành
  • Chi phí xây dựng một trung tâm dữ liệu riêng lẻ được ước tính từ 5 tỷ đến 60 tỷ USD, đồng thời OpenAI đặt mục tiêu có 33GW vào năm 2029250GW vào năm 2033
  • Với tốc độ và quy mô mở rộng này, việc thực hiện đã gần như không thể vì đã vượt quá giới hạn toàn cầu về tài chính và hạ tầng
  • Nếu theo đúng kế hoạch hiện tại, OpenAI sẽ gây áp lực rất lớn lên thị trường vốn toàn cầu, đồng thời tạo ra rủi ro nghiêm trọng cho nhà đầu tư và toàn ngành

Tổng quan

  • OpenAI phải huy động vốn với tốc độ chưa từng có để thực hiện các kế hoạch tham vọng về xây dựng trung tâm dữ liệu quy mô lớn, hợp tác chip tùy chỉnh và chi phí duy trì hoạt động
    • Trong riêng một năm tới, ít nhất 400 tỷ USD là cần thiết; đây cũng là gánh nặng đáng kể không chỉ cho OpenAI mà cho cả hệ thống tài chính toàn cầu
  • Có bất đồng quan điểm về các bài viết xem việc hợp tác chip tùy chỉnh 10GW và lời hứa triển khai hàng chục GW là “hợp lý và khả thi”
    • Tác giả cho rằng cần nâng chi phí dựng 1GW lên 50 tỷ USD, và phải tính vào tổng chi phí gồm cả tòa nhà, cơ sở hạ tầng điện và mạng lưới
    • Vì vậy, xét đến thời gian chuẩn bị tối thiểu 2,5 năm và dự phòng công suất điện, họ đánh giá lịch trình gần như không thể
  • Việc nâng ước tính cũ từ 32,5 tỷ USD/GW lên 50 tỷ USD/GW xuất phát từ nhu cầu chỉnh sửa tình trạng đánh giá thiếu chi phí chip, mạng lưới, hạ tầng phụ trợ và đóng góp của bên thứ ba
    • Ví dụ về giá/chỉ tiêu số lượng của GB200/Blackwell, việc mua Lancium, quy mô 8 dãy/50.000 GPU, v.v. đã đẩy chi phí lên

Kiểm tra mốc thời gian nửa cuối năm 2026

  • Broadcom: mục tiêu nửa cuối năm 2026 gồm tape-out chip suy luận, sản xuất hàng loạt và triển khai 1GW
    • Vị trí chưa xác định, chưa khởi công; 1GW IT cần 1.2~1.3GW điện tổng nên khả năng va chạm lịch trình rất cao
  • AMD: kế hoạch triển khai lần đầu MI450 1GW trong nửa cuối năm 2026
    • Để hoàn thành vào thời điểm đó, việc mua sắm trong năm trước, hợp đồng điện và khởi công phải diễn ra trước
  • NVIDIA: kế hoạch triển khai Vera Rubin 1GW trong nửa cuối năm 2026
    • Tương tự, địa điểm, điện, thi công phải đã được triển khai trước
  • Ngay cả khi tính rất thận trọng, vẫn cần trên 100 tỷ USD, và các giải pháp trả trước tiền mặt hoặc liên minh consortium quy mô lớn là không thể tránh khỏi

Hoài nghi về các tuyên bố về nhu cầu, lưu lượng và công suất

  • 8 tỷ MAU mỗi tuần có thể có tình trạng đếm trùng, và mục tiêu 250GW và 10 nghìn tỷ USD vào 2033không thực tế
    • Xét theo ước tính tải IT DC toàn cầu năm 2024 là 55GW, việc một công ty tăng công suất 5 lần trong 8 năm là chưa từng có trong lịch sử
  • Về năng lực sản phẩm, khi xét thành tích kém và bị giới hạn của các bản mới GPT-4.5, GPT-5, Sora 2, giá trị đầu ra so với lượng R&D đốt vào lò khổng lồ trở nên đáng nghi ngờ
    • Theo phân tích bên ngoài, trong khoản chi R&D 11~12 tỷ USD của giai đoạn 2024-2025, chi phí cho đào tạo mô hình thực sự sử dụng chỉ ở mức hạn chế

Các khoản vốn cần trong 12 tháng tới (ước tính của tác giả)

  • Broadcom 1GW: khoảng 50 tỷ USD
  • NVIDIA 1GW + mua chip: khoảng 50 tỷ USD
  • Chi phí compute 2026 (qua Oracle·CoreWeave·Azure·GCP): khoảng 40 tỷ USD
  • AMD 1GW + mua chip: khoảng 50 tỷ USD
  • Phát triển thiết bị cho người dùng: khoảng 0.5 tỷ USD
  • Hợp tác thiết kế CPU dựa trên ARM: khoảng 1 tỷ USD
  • Điều chỉnh các chi phí OPEX khác (bán hàng, marketing, lương, v.v.): khoảng 10 tỷ USD
    • Tổng cộng 391,5 tỷ USD ≈ 400 tỷ USD, nhu cầu chi tiền mặt lớn trước tháng 2/2026

Hạn chế tài chính và rủi ro cấu trúc

  • Trong bối cảnh chi tiêu R&D 6,7 tỷ USD2 tỷ USD S&M của nửa đầu năm 2025, dòng tiền vẫn tiếp tục chảy ra ngoài
    • Ước tính 9,2 tỷ USD chi cho compute trong nửa đầu năm 2026, so với doanh thu 4,3 tỷ USD, thể hiện cơ cấu biên âm
  • Có rủi ro về quản trị và hợp đồng: thời hạn chuyển từ phi lợi nhuận sang lợi nhuận cùng điều kiện trợ giúp 20 tỷ USD có điều kiện của SoftBank
    • Điều kiện chuyển nợ tháng 10/2026 của vòng gọi vốn 6,6 tỷ USD năm 2024 cũng là gánh nặng thêm

Tính khả thi của các thỏa thuận hạ tầng như Oracle/CoreWeave

  • Với hợp đồng 3 năm? 300 tỷ USD của Oracle (5 năm), ước tính cần IT 4.5GW
    • Stargate Abilene hiện chỉ có 200MW điện; nếu tính cả dự phòng, IT chỉ khoảng 130MW
    • Shackelford 1.4GW đang ở giai đoạn đầu xây dựng, mục tiêu có thể hoàn thiện dãy đầu tiên vào H2 2026 thì vận hành toàn phần cần hạch toán lại từ sau năm 2027
  • Với con số tối đa 900MW mà CoreWeave nêu vào cuối năm 2025, sai khác với tuyên bố “vận hành 2GW năm 2025” là rất lớn

Hạn chế của thị trường vốn, chuỗi cung ứng và lưới điện

  • Nguồn vốn cần có đã vượt mức 368 tỷ USD của toàn ngành VC toàn cầu năm 2024, và dù so với các thương vụ quỹ đầu tư tư nhân và thương mại toàn cầu, năng lực hấp thụ vẫn rõ ràng có giới hạn
  • Sự xuất hiện đồng thời của các nút thắt như máy biến áp, thép dẫn điện, hạ tầng HV, làm mát, dự phòng vận hành lưới điện và lao động lành nghề khiến va chạm tiến độ khó tránh
  • Chuỗi công bố này có xu hướng mang tính narrative cho động lực cổ phiếu và thương vụ, trong khi khả năng thực thi rất thấp

Kết luận

  • Với các rào cản đồng thời về thời gian, vốn, nguồn lực, quy định và điện, việc đạt đúng các cam kết lộ trình đến 2026 là cực kỳ khó
  • Trong 12 tháng tới, việc huy động 400 tỷ USD cũng đã gần như chạm trần khả năng hấp thụ của thị trường vốn toàn cầu, và nếu không hoàn thành, rủi ro mất niềm tin sẽ tăng lên
  • Bản chất là sự mất cân đối giữa các cam kết công suất phóng đại với nhu cầu, năng lực sản phẩm và dòng tiền mặt; cảnh báo rằng nếu không hiện thực hóa lại kế hoạch, củng cố quản trị và thiết kế lại cấu trúc vốn, sẽ không thể duy trì được tính bền vững

1 bình luận

 
GN⁺ 2025-10-19
Ý kiến Hacker News
  • Có ý kiến cho rằng dù tốc độ tăng trưởng của OpenAI rất ấn tượng, việc tăng thêm 100 triệu người dùng chỉ trong hai tháng không có nghĩa là toàn bộ nhân loại trên Trái Đất sẽ luôn sử dụng dịch vụ này. Ngược lại, cũng có thể lập luận rằng tốc độ tăng nhanh như vậy cho thấy tiềm năng để toàn nhân loại dùng thường xuyên. Tuy nhiên, cần cảnh giác vì đường cong tăng trưởng có thể có dạng chữ S, nên không phải là tăng trưởng hình học vô hạn mãi mãi

    • Việc tăng thêm 100 triệu người dùng trong hai tháng không phải là bằng chứng cho thấy mọi người trên thế giới đều luôn cần nó. Mức độ phổ biến và tính hữu ích là hai chuyện khác nhau. Dữ liệu về tác động của việc gia tăng sử dụng LLM lên các chỉ số như năng suất sẽ thuyết phục hơn. Thậm chí một số nghiên cứu còn cho thấy năng suất của lao động chuyên môn bị giảm. Xem nghiên cứu liên quan

    • Cá nhân tôi chỉ mới gần đây mới thử dùng ChatGPT thay cho tìm kiếm và dùng lặt vặt. Tìm kiếm truyền thống dạo này quá tệ, cảm giác như một võ sĩ quyền Anh đang sa sút đánh với một nhà vô địch 70 tuổi. Nếu một ngày nào đó thứ này chạy được trên laptop của tôi thì có lẽ nó sẽ trở thành một công cụ thực sự hữu ích

    • Nút thắt của OpenAI ban đầu chuyển từ GPU sang năng lượng. Nút thắt tiếp theo là “con người sinh học”. Cũng có câu đùa rằng chắc OpenAI rồi sẽ tìm ra cách tạo thêm loài người để duy trì tốc độ tăng trưởng

    • Về dài hạn, nếu AI đủ dùng được tích hợp sẵn vào hàng loạt sản phẩm như trình duyệt, OS, smartphone, trình xử lý văn bản..., thì thị trường AI độc lập cho đại chúng có thể sẽ co lại rất mạnh. Công cụ chuyên nghiệp, nghiên cứu tiên tiến hay công cụ lập trình vẫn sẽ còn nhu cầu, nhưng khó có thể xây dựng một công ty nghìn tỷ chỉ bằng những thứ đó

    • Thực tế chỉ khoảng 5% là người chịu trả $20 để đăng ký. Giống như VR hay AR, nếu miễn phí thì thỉnh thoảng dùng, nhưng không cần thiết đến mức phải tự bỏ tiền ra trả. Tôi nghĩ LLM đã trở thành hàng hóa phổ thông rồi

  • Nội dung bài viết cũng thú vị, nhưng trên thực tế mối đe dọa lớn nhất với OpenAI hay Anthropic là các mô hình mã nguồn mở. Những mô hình như deepseek, llama 3 đang đuổi theo rất nhanh, nên nếu có thể dùng chức năng gần tương đương với chi phí thấp hơn nhiều hoặc miễn phí trên chính GPU của mình, thì giá trị mà OpenAI đưa ra là gì vẫn còn đáng nghi. Cá nhân tôi có trả tiền cho OpenAI, nhưng thực ra là vì sự tiện lợi, và tôi thấy nó khá ổn cho việc như kiểm chứng toán học. Xét về mức giá, tôi vẫn nghi ngờ liệu nó có thật sự trở thành dịch vụ thiết yếu với doanh nghiệp hay không. Tất nhiên OpenAI tập hợp toàn những nhân tài hàng đầu và có đầu tư mạnh, nên cũng có thể tôi sai

    • Dù nói rằng mã nguồn mở như deepseek và llama 3 đang bắt kịp rất nhanh, việc huấn luyện các mô hình quy mô lớn vẫn cực kỳ tốn kém, và những gì đang được phát hành mã nguồn mở hiện nay về bản chất vẫn là các công ty thương mại chấp nhận chịu thiệt để nuôi hệ sinh thái mã nguồn mở. Tôi tự hỏi nếu các công ty này quyết định “đá đổ cái thang” để theo đuổi lợi nhuận thì sẽ có đối sách gì

    • Điều tác giả muốn nhấn mạnh là phải nhìn vào các con số thật một cách thực tế. Ngay cả việc tìm người xây và vận hành data center cũng mất rất nhiều thời gian. Lập luận là lịch trình mà bài báo đưa ra hiện tại là bất khả thi trong thực tế

    • Người ta đang bơm rất nhiều tiền trong ngắn hạn, nhưng tôi vẫn nghi ngờ nhu cầu thực sự đến từ đâu, và mô hình tự phục vụ kiểu “chạy llama trực tiếp trên GPU của mình” thực sự đóng góp bao nhiêu vào doanh thu. Có gì đó không thuyết phục lắm

    • Nếu muốn chạy deepseek, kimi hay glm nhanh trên GPU của mình, chỉ riêng phần cứng cũng cần ít nhất hơn $50,000. Muốn đạt hiệu năng tiệm cận OpenAI hay Anthropic thì cần hàng trăm GB VRAM tốc độ cao

    • Hầu hết mọi người dùng OpenAI là vì không rành IT. Ngoài đời gần như chẳng có người dùng phổ thông nào cài ad blocker. OpenAI đã có chỗ đứng trong nhận thức đại chúng. Nếu họ chèn quảng cáo như Google thì có lẽ vị thế còn mạnh hơn nữa, nhưng việc chọn hướng kinh tế bong bóng và lừa đảo đầu tư là một tính toán sai lầm

  • Mọi người cần bình tĩnh lại. Altman sẽ lo hết thôi. Sau 47 ngày nữa sẽ có sản phẩm ChatGPT 6 Recurd khiến tất cả kinh ngạc, tái chế lại model cũ thay vì làm model tốt hơn, đồng thời tự động mua thêm 10 gói ChatGPT 6 nên chạy còn tốt hơn nhiều. Sau đó tiếp tục nâng cấp nhanh hơn, với cấu trúc hiệu năng tăng thêm 1% lặp đi lặp lại. Người ta rất dễ đánh giá thấp tăng trưởng siêu hình học. Đến đầu năm 2026, họ sẽ bán được hàng nghìn tỷ giấy phép mà không bị giới hạn bởi số lượng khách hàng loài người. Altman còn đã chuẩn bị coin chuyên dụng cho tất cả chuyện này, hệ thống cho vay tự động, thậm chí cả giao dịch futures compute. Một thế giới hoàn toàn mới. Một tân thế giới mang tên ‘Alt/World!’

  • Tôi thắc mắc tại sao data center lại được đo theo đơn vị “gigawatt”. Vì sao không đo bằng hiệu năng tính toán thực tế như flops chẳng hạn? Thật ra tôi cũng nghĩ mình có thể làm một data center “1 GW” chỉ với một CPU 6502 và một đống điện trở

    • Lý do là vì công suất điện và làm mát mới là ràng buộc lớn nhất khi xây data center. Năng lực compute thay đổi rất nhiều theo thời gian, còn trên thực tế thì 1GW với chip mới nhất như GB200 có thể đạt khoảng 5 exaflops compute, tùy vào độ chính xác và các yếu tố khác

    • Gần đây tôi cũng có thêm kinh nghiệm vận hành HW/data center quy mô nhỏ, và nhận ra rằng không chỉ GPU mà cả switch, firewall, storage... đều ngốn rất nhiều điện và làm mát. Khi vượt qua một quy mô nhất định, ràng buộc cốt lõi không còn là compute tối đa, Hz hay GB, mà là bạn có thể cấp vào bao nhiêu điện và thải nhiệt ra ngoài nhanh đến mức nào. Ví dụ ở các cảng cũng có những dự án tiêu thụ lượng điện mặt trời dư thừa bằng các cụm điện trở công suất lớn. Vấn đề là kết nối an toàn vào lưới điện cao áp và thải nhiệt đi nhanh chóng

    • Vì đơn vị hiệu năng tính toán khác nhau tùy phần cứng và workload, gần như không thể có một thước đo phổ quát. Có thể xem công suất điện = xấp xỉ năng lực compute tối đa có thể đạt được tại thời điểm đó. Cách này cũng bao quát được rất nhiều biến số theo khu vực hay phương pháp làm mát

    • Tính nhẩm thì 1GW có thể chạy được khoảng 1,43 tỷ chip 6502

    • Đơn vị thực tế là “power” vì đó là đơn vị cuối cùng mà mọi chi phí đều quy về, từ hiệu suất compute, vốn đầu tư thiết bị cho tới khả năng mở rộng

  • Tôi muốn nhấn mạnh rằng hơn cả vốn ban đầu để xây data center, nhà cung cấp điện mới là ràng buộc thực sự của ngành này. Hiện tại lưới điện Bắc Mỹ đang thiếu nguồn cung rất nghiêm trọng. Cần có nghiên cứu sâu hơn về việc thực tế còn bao nhiêu điện dự phòng mà các data center quy mô lớn có thể dùng được, và khi nào mới có thể mở rộng thêm. Xây nhà máy điện là một công việc cực kỳ chậm chạp. Các kế hoạch đầu tư data center dường như phần lớn đều vận hành trên giả định rằng công suất điện sẽ “tự nhiên xuất hiện” như phép màu, hoặc rằng không có cạnh tranh nào tồn tại

    • Tôi gần như không hiểu nổi vì sao những chuyện này lại không được bàn tới nhiều hơn
  • Có vấn đề với luận điểm “OpenAI sẽ đốt $400 tỷ trong năm tới”. Thực tế không phải OpenAI trực tiếp đầu tư số đó, mà Oracle và các bên khác xây data center rồi OpenAI trả tiền thuê. Vì là hợp đồng thuê nên họ không cần ôm toàn bộ chi phí xây dựng ngay từ đầu. Ví dụ, OpenAI sẽ bắt đầu trả tiền thuê ở mức khoảng hơn $30 tỷ mỗi năm từ 2027/2028, và tăng dần trong 5 năm. NVIDIA và AMD cũng thu hồi phần đầu tư theo milestone hoặc theo việc triển khai chip, tức là các nhà cung cấp đang “đặt cược” vào tăng trưởng của OpenAI và cấp tín dụng cho họ. Cấu trúc này có thể rất khác thường và bất ổn, nhưng lập luận rằng “họ phải có sẵn ngay $400 tỷ tiền mặt” là sai. Câu hỏi thực sự là liệu doanh thu của OpenAI có thể tăng lên ít nhất $60~70 tỷ vào 2028~2029 hay không. Lập luận đó không đứng vững; rủi ro thực sự nằm ở tiến độ triển khai và tốc độ tăng trưởng doanh thu. Link tham khảo: CNBC - OpenAI data center, w.media - Hợp đồng thuê Oracle, CNBC - Hợp tác với Nvidia, TechCrunch - Cung cấp chip AMD

    • Ed Zitron với tư cách nhà phân tích đã đưa ra khá nhiều lập luận sai và lỗi thực tế. Ông ấy cũng có bài viết khăng khăng rằng “chi phí suy luận” đang tăng lên. Bài liên quan

    • WAU (người dùng hoạt động hằng tuần) của OpenAI hiện đang tăng khoảng 122,8% theo annualized rate, nhưng đã giảm so với mức 461,8% của 10 tháng trước. Nếu tốc độ tăng trưởng ổn định lại, đến cuối 2028 họ có thể đạt doanh thu hằng năm tối đa $104 tỷ và 6,4 tỷ WAU. Không thể chắc chắn các con số này, nhưng Oracle và Nvidia dường như phải giữ giá cổ phiếu của mình dựa trên giả định đó. Trên thực tế, tốc độ chậm lại đang ở mức khoảng 20% mỗi 2 tháng, nên đến khoảng thời điểm này năm sau có lẽ chỉ kỳ vọng được 1,2 tỷ WAU, và năm tiếp theo là 1,4 tỷ WAU. So với Google hay Facebook thì đây vẫn là mức thấp

    • Vì OpenAI đang “cầm cự bằng đi thuê”, nên trên thực tế rủi ro ngày càng được đẩy xuống các nhà đầu tư thứ cấp hoặc người dân, người tham gia quỹ hưu trí... xem Turtles all the way down

  • Khi nhìn vào Sora 2 và tranh cãi về hoạt hình, tôi nhận ra rằng một mùa anime truyền hình hoặc một bộ phim thông thường trung bình có thể được sản xuất với $10~20 triệu. Không rõ chi phí phát triển thực tế của Sora 2 là bao nhiêu, nhưng nếu nó ở quy mô hàng chục hay hàng trăm tỷ đô, thì số tiền đó có thể làm ra hàng nghìn bộ anime như thế. Dù chuyện này hơi xa LLM, tôi vẫn nghi ngờ liệu ngay cả khi AI thay thế nhân sự chuyên môn thì lợi ích thu được có thật sự hợp lý so với mức đầu tư hay không

    • Thật ra tôi nghĩ chi phí phát triển của Sora 2 sẽ thấp hơn rất nhiều, chứ không phải ở quy mô hàng tỷ

    • Tôi nghi ngờ liệu có thể thực sự sản xuất một “show” bằng Sora 2 hay không. Lúc nào cũng chỉ nghe nói về video ngắn, còn để làm thành một series chính thức thì có vẻ vẫn cần một bước nhảy công nghệ nữa

    • Với các công cụ như Sora hay Google Flow, trong tương lai cả người nghiệp dư cũng có thể tạo ra nội dung chất lượng chuyên nghiệp với chi phí thấp. Việc làm ra hàng nghìn bộ anime không còn là điều bất khả thi

    • Tôi nghĩ những khoản đầu tư siêu lớn như vậy chỉ hợp lý nếu chúng được bù đắp bởi thứ gì đó vượt ra ngoài ROI của một chatbot đơn thuần

  • Tôi tò mò không biết trên thực tế một lượng tiền lớn như vậy có thể được bơm vào nhà máy điện, data center, thiết kế và sản xuất silicon nhanh đến mức nào, liệu ngành hạ tầng rồi cũng sẽ trải qua một đợt đại điều chỉnh sau bong bóng tăng nóng, hay thật sự sẽ có một cuộc chuyển đổi ở tầm cách mạng công nghiệp. Cũng có lời mời cùng đồng sáng lập một startup hạ tầng hệ thống nhúng bảo mật cao

    • Tôi nghĩ ngoài tái chế vàng ra thì trong ngành công nghệ không tồn tại thứ gì thực sự gọi là “bền vững”
  • Có câu hỏi rằng vì sao Anthropic không có nhu cầu vốn tương tự

    • Anthropic kín tiếng hơn trong việc công bố chi phí. Ed Zitron hiện đang theo dõi rất sát chi phí GCP của họ

    • Đây là thảo luận liên quan tới việc xây “AGI”, nên tách biệt với dịch vụ hiện tại của Anthropic. Hơn nữa cũng không có gì đảm bảo rằng trí tuệ sẽ tăng vô hạn theo lượng compute

    • Có lẽ trên thực tế Anthropic cũng cần mức đầu tư tương tự. Chỉ là tác giả đang tập trung vào OpenAI mà thôi

    • Nếu đà tăng trưởng tiếp diễn, Anthropic rồi cũng sẽ cần đầu tư quy mô lớn

    • Có vẻ Anthropic dùng TPU chủ động hơn khi bị overflow. Đợt suy giảm hiệu năng gần đây của Claude là do bug liên quan đến TPU và khác biệt trong triển khai, và từ đó cũng có thể suy đoán phần nào về cách họ vận hành kết hợp Nvidia/TPU. Có vẻ vẫn chưa có thông tin rằng OpenAI đã triển khai weight lên hạ tầng của Google

  • Tôi muốn hỏi liệu mô hình capex của data center sẽ thay đổi thế nào nếu mục tiêu là 100% utilization, và capex efficiency quan trọng hơn node uptime hay availability. Tôi cho rằng tùy theo cách Nvidia điều chỉnh margin, vẫn còn dư địa để chi phí giảm xuống mức 1~2 chữ số phần trăm. Nếu OpenAI xây những data center độ tin cậy thấp hơn truyền thống ở các địa điểm rẻ tiền, thì kịch bản này có phần thực tế hơn. Dù vậy, có khả năng OpenAI sẽ đổ hơn $40 tỷ vào data center trước năm sau. Data center truyền thống cực kỳ nhạy cảm với availability, nhưng ở quy mô này có lẽ OpenAI sẽ không quá quan tâm đến uptime của rack hay uptime của toàn cơ sở

    • Những người đã trực tiếp tính toán các con số này vẫn muốn độ tin cậy cỡ Tier IV. Tôi chưa từng thấy trường hợp nào data center đào crypto kiểu “Tier 0” (độ tin cậy rẻ nhất) thực sự được chuyển đổi để dùng cho AI