8 điểm bởi GN⁺ 8 ngày trước | 5 bình luận | Chia sẻ qua WhatsApp
  • Khi trí tuệ AI bị hàng hóa hóa ngày càng nhanh, trong lúc mọi công ty lao vào cuộc đua mô hình tốt nhất, Apple với lượng tiền mặt khổng lồ dự trữ lại đang ở vị thế có lợi
  • OpenAI dù có định giá $300B vẫn cho thấy rủi ro của việc đầu tư hạ tầng mà không có mô hình doanh thu, với việc dừng dịch vụ Sora và hủy Stargate Texas
  • Nhờ 2,5 tỷ thiết bị đang hoạt động và kiến trúc xử lý on-device, Apple sở hữu một con hào là dữ liệu ngữ cảnh cá nhân và thiết kế đặt quyền riêng tư làm trung tâm
  • Mô hình open-weight Gemma 4 cho hiệu năng ngang Claude Sonnet 4.5 Thinking, cho thấy khoảng cách mô hình đang thu hẹp rất nhanh đến mức có thể chạy được cả trên laptop
  • Kiến trúc bộ nhớ hợp nhất của Apple Silicon cho phép chạy cục bộ các mô hình lớn, đồng thời framework MLX tạo nền tảng để mở rộng hệ sinh thái
  • Dù là chiến lược hay tình cờ, Apple hiện đã có được một lợi thế cạnh tranh mới trên nền tảng phần cứng và phần mềm được tối ưu cho kỷ nguyên AI

‘Con hào ngẫu nhiên’ của Apple, công ty đã “thua” trong cuộc đua AI

  • Trong xu hướng trí tuệ bị hàng hóa hóa, càng nhiều công ty tạo ra mô hình tốt hơn thì mô hình của đối thủ cũng càng nhanh chóng bắt kịp
    • Đầu tư huấn luyện quy mô lớn làm giảm chi phí của các mô hình thế hệ trước, và khoảng cách giữa mô hình frontier và mô hình mã nguồn mở đang thu hẹp nhanh chóng
    • Các mô hình mở mới nhất như Gemma4, Kimi K2.5, GLM 5.1 đã đạt mức có thể vận hành đủ tốt ngay trên phần cứng cá nhân
    • Trong khi đó, OpenAI và các công ty khác lại bị đặt dấu hỏi về tính bền vững do cấu trúc chi phí khổng lồ và mô hình doanh thu thiếu ổn định
  • Sự thay đổi này lại có lợi cho Apple, công ty từng bị gọi là ‘kẻ thua cuộc AI’
    • Apple có Siri từ rất sớm, nhưng sau khi ChatGPT ra mắt, vì không có mô hình frontier chủ lực cũng như không cam kết đầu tư compute ở quy mô $500B, hãng bị xếp vào nhóm “thua cuộc AI”
    • Trong khi các AI lab và Big Tech khác đốt tiền để giành vị trí số 1 trên benchmark mới nhất, Apple tích lũy tiền mặt chưa dùng đến và còn mở rộng mua lại cổ phiếu quỹ, từ đó giữ nhiều lựa chọn hơn

Chi tiêu quá mức và rủi ro của OpenAI

  • OpenAI sau khi huy động vốn ở định giá $300B đã vận hành dịch vụ video Sora với chi phí khoảng $15M/ngày nhưng doanh thu chỉ $2.1M, và cuối cùng phải dừng dịch vụ
  • Disney từng ký hợp đồng cấp phép 3 năm cho Sora để tạo nội dung nhân vật Marvel, Pixar, Star Wars, đồng thời xúc tiến đầu tư vốn cổ phần $1B vào OpenAI, nhưng việc Sora dừng hoạt động đã khiến khoản đầu tư $1B đổ vỡ
  • Về hạ tầng, OpenAI đã ký thư bày tỏ ý định không ràng buộc với Samsung và SK Hynix cho tối đa 900.000 wafer DRAM mỗi tháng (khoảng 40% sản lượng toàn cầu)
  • Micron nhìn thấy tín hiệu nhu cầu này nên đã đóng cửa thương hiệu bộ nhớ tiêu dùng Crucial tồn tại 29 năm để chuyển sang phục vụ khách hàng AI, nhưng khi Stargate Texas bị hủy, nhu cầu biến mất và cổ phiếu Micron lao dốc
  • Bất kể điểm benchmark hay quy mô hạ tầng ra sao, đây vẫn là một cuộc chơi mà chỉ một sai số nhỏ trong doanh thu kỳ vọng cũng có thể khiến người chơi bị loại

Từ trí tuệ sang năng lực

  • Giả định cốt lõi của các AI lab là năng lực mô hình thô (trí tuệ) và hạ tầng để vận hành nó sẽ tiếp tục là tài nguyên khan hiếm, nhưng các mô hình kém mạnh hơn lại đang nhanh chóng tiến tới trình độ của frontier model trước đây
  • Mô hình open-weight Gemma 4 của Google có thể chạy trên điện thoại, đạt 85.2% trên MMLU Pro và đứng ngang Claude Sonnet 4.5 Thinking trên bảng xếp hạng Arena
    • Đạt 2 triệu lượt tải chỉ trong tuần đầu
    • Mô hình từng là SOTA cách đây 18 tháng nay đã có thể chạy trên laptop và còn cải thiện theo từng quý
  • Khi chạy trực tiếp Gemma 4 trên AMD Ryzen AI Max+, kết quả cho thấy tốc độ token/giây và mức độ thông minh rất tốt, đủ để chuyển backend của công cụ cá nhân sang mô hình này mà không làm giảm chất lượng đầu ra
  • Anthropic đã nhận ra xu hướng này và nhanh chóng tung ra các công cụ thực dụng như Claude Code, Claude Cowork, Claude Managed Sessions để lock-in người dùng vào hệ sinh thái của mình
    • Logic cốt lõi: nếu bản thân mô hình không thể trở thành con hào, thì phải chiếm lấy lớp sử dụng và tăng chi phí chuyển đổi
    • Theo một phân tích, người dùng gói Max ($200) đang tiêu thụ lượng compute trị giá tới $27,000, cho thấy các lab đang duy trì nhu cầu bằng cách trợ giá
  • Apple gần như không chi nhiều cho hạ tầng AI hay trợ cấp lượng token người dùng tiêu thụ, nên nắm trong tay nhiều lựa chọn và đòn bẩy hơn so với các công ty khác

Context mới là tài nguyên cốt lõi

  • Khi trí tuệ trở nên dồi dào, context trở thành tài nguyên khan hiếm
    • Một mô hình có thể suy luận mọi thứ nhưng không biết gì về người dùng thì chỉ là công cụ phổ dụng
    • Để AI thực sự hữu ích trong đời sống hằng ngày, cần năng lực suy luận + context cá nhân (tin nhắn, lịch, mã nguồn, dữ liệu sức khỏe, ảnh, thói quen...)
  • Apple đã sở hữu context này thông qua 2,5 tỷ thiết bị đang hoạt động
    • Dữ liệu sức khỏe từ Apple Watch, ảnh trên iPhone, ghi chú, tin nhắn, lịch sử vị trí, hành vi ứng dụng, email, cảm nhận môi trường qua cảm biến thiết bị
  • Với xử lý on-device, có thể cung cấp toàn bộ context cho mô hình mà không cần đưa dữ liệu ra khỏi thiết bị
    • Định vị “Privacy. That's iPhone” có thể chuyển từ khẩu hiệu PR đơn thuần thành giá trị cốt lõi của sản phẩm
    • Việc giao hồ sơ y tế và 15 năm ảnh cho OpenAI khác về bản chất so với việc chỉ cho phép một mô hình chạy trong thiết bị được truy cập chúng
  • Thỏa thuận Gemini ($1B) mà Apple ký với Google là để xử lý những truy vấn cần suy luận ở cấp độ cloud, với chi phí chỉ ở mức làm tròn so với chi phí compute hàng tuần của OpenAI
    • Thứ Apple giữ lại bên trong: lớp context, stack on-device và hệ điều hành điều phối mọi thứ

Vì sao Apple Silicon phù hợp với AI

  • Như cơn sốt Mac Mini sau khi OpenClaw ra mắt đã cho thấy, Apple Silicon ban đầu không được phát triển cho AI mà cho hiệu quả, pin, nhiệt và thiết kế tích hợp phần cứng/phần mềm, nhưng cuối cùng lại chứng minh là kiến trúc tối ưu để chạy mô hình cục bộ
  • Thiết kế cốt lõi: bộ nhớ hợp nhất (Unified Memory)
    • Kiến trúc truyền thống gồm CPU và GPU là các chip riêng, có vùng nhớ riêng nên việc di chuyển dữ liệu chậm và tiêu tốn điện năng
    • GPU Nvidia nhanh trong phép toán ma trận, nhưng truyền dữ liệu giữa CPU và GPU qua bus PCIe lại là nút thắt cổ chai
    • Dòng Apple M/A đặt CPU, GPU và Neural Engine trên cùng một die và chia sẻ một vùng nhớ băng thông cao duy nhất, không có chi phí giao cắt bus, overhead truyền dữ liệu hay độ trễ đó
  • Suy luận LLM hiện bị nghẽn ở băng thông bộ nhớ chứ không phải compute
    • Điều quan trọng là tốc độ stream trọng số mô hình từ bộ nhớ vào đơn vị tính toán và dung lượng bộ nhớ để lưu KV cache
    • Vùng nhớ hợp nhất của Apple cung cấp truy cập trực tiếp băng thông cao cho mọi đơn vị tính toán cùng lúc
  • Kỹ thuật LLM in a Flash đặc biệt hiệu quả trên phần cứng Apple
    • Có trường hợp chạy Qwen 397B (mô hình 209GB) trên Mac M3 Max chỉ với 5.5GB RAM hoạt động ở tốc độ ~5.7 token/giây
    • Trọng số được lưu trên SSD và stream ở tốc độ ~17.5 GB/s; nhờ kiến trúc MoE (Mixture-of-Experts), mỗi token chỉ kích hoạt một phần các expert layer
    • ~5.000 dòng Objective-C và Metal shader cho việc chạy này do Claude viết

Động lực nền tảng và sự phổ biến kiểu App Store

  • Cũng như App Store, Apple không phải là bên tạo ra ứng dụng mà là bên xây dựng nền tảng nơi ứng dụng chạy tốt nhất, rồi hệ sinh thái tự đi theo
    • Các nhà phát triển nhắm đến iOS không phải vì Apple yêu cầu, mà vì cơ sở người dùng, công cụ và phần cứng nhất quán
  • Điều tương tự có thể xảy ra với suy luận cục bộ
    • MLX đã nổi lên như framework tiêu chuẩn de facto cho AI on-device
    • Các kiến trúc mô hình lớn như Gemma, Qwen, Mistral đều hỗ trợ MLX
    • Dù Apple không thắng cuộc đua mô hình, hãng vẫn có thể trở thành nền tảng de facto nơi các mô hình (hoặc agent) được vận hành
    • Cơn sốt Mac Mini sau hiệu ứng lan truyền của OpenClaw là một ví dụ cho khả năng đó

Là chiến lược hay may mắn

  • Chiến lược thiết kế tích hợp phần cứng/phần mềm của Apple đã là trọng tâm nhiều năm, và việc định vị quyền riêng tư, tập trung vào xử lý on-device, cũng như quyết định phát triển silicon riêng khi cả ngành còn phụ thuộc Nvidia và Intel đều là các lựa chọn rủi ro về mặt thương mại
    • Những quyết định này không được đưa ra vì AI mà vì chi phí và quản trị, nhưng rốt cuộc lại trở thành lợi thế trong kỷ nguyên AI
  • Những điều Apple có thể đã không dự đoán được:
    • Kiến trúc bộ nhớ hợp nhất lại phù hợp hoàn hảo với LLM
    • Các mô hình open-weight phát triển nhanh đến vậy
    • Việc stream mô hình 400B tham số từ SSD lại thực sự hoạt động
  • Một phần là may mắn, nhưng đó là kiểu may mắn chỉ đến với công ty đã xây dựng đúng nền tảng
  • Trong khi phần còn lại của ngành dành 3 năm lao vào cuộc đua mô hình tốt nhất, Apple lại đứng ngoài quan sát để xem thiết bị và hệ sinh thái của mình sẽ khớp với tương lai này ra sao
  • Siri vẫn còn những điểm hạn chế và chưa hoàn thiện, nhưng
    • với 2,5 tỷ thiết bị, toàn bộ context cá nhân, khả năng chạy mô hình cục bộ trên silicon chuyên dụng, và Gemini luôn sẵn sàng cho các truy vấn khó
    • cấu trúc suy luận dựa trên chi phí biến đổi thay vì CAPEX cố định khó có thể xem là vị thế bất lợi trong thời đại AI phổ cập
  • Kết luận, Apple vẫn có khả năng giữ một vị trí quan trọng trong tương lai lấy AI làm trung tâm
    • Dù là chiến lược hay ngẫu nhiên, điều cốt lõi là hãng đang đứng trên một nền tảng đúng đắn

5 bình luận

 

Nói hơi nhảm một chút là
bây giờ các công ty mô hình AI đang cạnh tranh đốt tiền,
nên chẳng phải Apple, bên chẳng làm gì cả, đang hưởng lợi to sao?

Đó chỉ là vì lúc này đang là xu hướng cạnh tranh quá mức giữa các mô hình LLM thôi,
nếu các mô hình AI đang ở giai đoạn ổn định/tăng trưởng thì Meta có điên đâu mà công khai Gemma.

Chính kinh nghiệm tích lũy từ việc phát triển và vận hành mô hình suốt thời gian qua mới là thứ trở thành vàng, rồi thành kim cương.

 
wang3281 8 ngày trước

Meta -> Google

Nhìn vào mức chi tiêu của Apple thì họ đâu có đứng yên. Đây cũng là một công ty thuận lợi để đạt được AI vật lý... Nvidia cuối cùng cũng đang đi theo hướng vật lý... Điều đáng nể là Google có đủ mọi thứ.

 

Có lẽ ý ở đây là dữ liệu cá nhân hóa rốt cuộc sẽ trở thành hào lũy quan trọng trong kỷ nguyên AI tiếp theo, và vì Apple đã sẵn có điều đó nên sẽ ở vị thế thuận lợi.

 
kimjoin2 8 ngày trước

Apple ơi, MLX cố lên

 
Ý kiến trên Hacker News
  • Theo tôi, Gemma4 làm khá tốt các việc như hỗ trợ liên quan đến code hay gợi ý lỗi, nhưng vẫn thiếu ở khả năng dùng công cụ phức tạp và mức độ hiểu ngữ cảnh kiểu chuyên gia
    Nếu được cải thiện thêm vài vòng nữa, đến cỡ Gemma6 mà có thể chạy hoàn toàn local trên Mac ở mức như Opus hiện tại, thì có lẽ chẳng còn lý do gì để dùng model đám mây nữa

    • Tôi cũng thấy tương tự. Ban đầu tôi thất vọng vì Gemma4 kém tương thích với coding agent hơn Qwen3.5, nhưng ở những mục đích khác thì khá ổn
      Vừa rồi tôi thấy tin Ollama 0.20.6 đã cải thiện khả năng gọi tool của Gemma4. Tôi sẽ ăn sáng xong rồi test lại
    • Nó gợi cảm giác na ná câu nói ngày xưa “640k là đủ rồi”
    • Kinh tế rốt cuộc là cạnh tranh. Có người có thể hài lòng khi kiếm được một cái rìu tốt, nhưng người khác thì đang lái xe ủi. Nếu vẫn hạnh phúc với cái rìu thì nghĩa là bạn đã đứng ngoài cuộc cạnh tranh rồi
    • Vậy là không chỉ mình tôi. Chất lượng của Gemma4 rất ấn tượng, nhưng khi dùng với opencode thì 9 trên 10 lần nó không ghi thay đổi vào file cho đúng
    • Thành thật mà nói, hiện giờ model local chưa hẳn là thứ bắt buộc cho tác vụ hiệu năng cao. Có thể dùng nhiều model mở khác nhau qua những nơi như OpenRouter, và chúng đã ở rất gần mức SOTA
      Nhiều nhà cung cấp cùng phục vụ một model và cạnh tranh giá/hiệu năng, nên rủi ro độc quyền cũng giảm đi
      Trên thiết bị của tôi có Gemma, nên các cuộc trò chuyện riêng tư hay tác vụ không liên quan đến lập trình đều có thể xử lý hoàn toàn offline
      Trong tình huống này, nếu là OpenAI hay Anthropic thì có khi họ sẽ dùng đủ kiểu mánh khóa chặt người dùng thiếu đạo đức, nhưng cuối cùng cũng sẽ không hiệu quả đâu
  • Tôi cho rằng định giá của OpenAI xuất phát từ giả định rằng AI sẽ vận hành giống như tìm kiếm
    Nhưng tìm kiếm là mô hình mà sản phẩm càng tốt lên khi người dùng ném thêm truy vấn vào, và Google trong thời gian dài thực sự là sản phẩm tốt nhất
    Trong khi đó, AI tách biệt giữa huấn luyện và suy luận, còn OpenAI thì sau các rạn nứt nội bộ đã bị đối thủ bắt kịp rất nhanh
    Giờ đây nó đã trở thành một cuộc chiến tiêu hao mà chỉ những bên đốt hàng tỷ USD mới cạnh tranh nổi, và khi khoảng cách giữa các model ngày càng thu hẹp thì năng lực phân phối sẽ quyết định thắng thua
    Google, Meta, MSFT, Amazon làm được điều đó, còn OpenAI thì không đủ lực tài chính

    • Giá trị của OpenAI không chỉ nằm ở việc thay thế tìm kiếm, mà còn ở khả năng trở thành một nền tảng bao trùm toàn bộ web
      Kỳ vọng rằng nó có thể bao trùm cả tự động hóa doanh nghiệp lẫn thay thế mạng xã hội là rất lớn, và thêm vào đó là giá trị tương lai bất định của khả năng đạt AGI
      Vai trò của Sam Altman là thổi phồng những kỳ vọng đó để tối đa hóa giá trị đầu tư
    • Đầu những năm 2000 thì không có đủ vốn và nhân lực để đối đầu Google, nhưng bây giờ cạnh tranh AI đang rất sôi động nên từ góc nhìn người dùng, đây là lợi ích ròng gồm giảm chi phí và tiến bộ nhanh hơn
    • Tôi cũng nghĩ vậy. Cuối cùng Google sẽ trụ vững, còn OpenAI và Anthropic nhiều khả năng sẽ bị MSFT hoặc Amazon thâu tóm vì khó khăn tài chính
      Việc Apple bắt tay với Google cũng có vẻ nằm trong cùng xu hướng đó
    • Thật đáng tiếc khi Google tự phá hỏng chất lượng tìm kiếm của mình. Các quyết định như bỏ toán tử + hay kiểm duyệt chính trị rất khó hiểu
    • Với tìm kiếm thực tế, có vẻ curation dữ liệu dựa trên RAG sẽ hiệu quả hơn là liên tục tạo model mới
  • Apple từ trước đến nay luôn dùng chiến lược chờ rồi bứt phá
    Trong lúc các công ty khác va vấp thử sai, họ xác định giới hạn của công nghệ rồi dẫn dắt thị trường bằng một sản phẩm hoàn thiện hơn

    • Đúng vậy. Lần này cũng thế, họ công bố ‘Apple Intelligence’ để trấn an thị trường, nhưng lại tiếp cận rất thận trọng mà không đầu tư quá mức
      Rất có thể vài năm nữa họ sẽ tung ra một sản phẩm thực sự hoàn thiện
    • Họ đã âm thầm cho thấy tiến bộ qua các tính năng như OCR on-device và sao chép/dán
    • Nhìn vào những ví dụ như Newton, Pippin, Vision Pro thì đây dường như là một mô thức lặp lại trong các nỗ lực thử nghiệm của Apple
    • Tôi không chắc từ sau iPhone năm 2007 đã có sản phẩm nào thực sự mang tính ‘bứt phá’ chưa. Watch là thứ gần nhất, nhưng cũng chưa hẳn
    • Bố mẹ tôi dùng Android để làm mấy việc như “xóa người trong ảnh”, còn iPhone của tôi thì vẫn mới ở mức “Siri, bắt đầu bấm giờ giúp tôi”
      Dù vậy tôi vẫn dùng iPhone vì không muốn giao dữ liệu cá nhân cho Google
  • Apple không phải công ty làm màn trình diễn chatbot cho nhà đầu tư, mà là công ty tập trung vào phần cứng tiêu dùng
    iPhone và tương lai là kính AR mới là trọng tâm, và machine learning on-device cần cho điều đó chính là lý do họ thiết kế chip như hiện nay
    Họ không có lý do gì để làm một sản phẩm cạnh tranh trực diện với OpenAI

    • Tính theo FY25, khoảng 25% doanh thu của Apple là dịch vụ, 50% là iPhone, phần còn lại là phần cứng. Chỉ riêng dịch vụ cũng đã ở quy mô khoảng 100 tỷ USD
    • Kính AR có lẽ không phải cú cược chính, mà gần hơn với một dự án nghiên cứu hoặc dự phòng
    • Nhiều người dùng iPhone không hẳn vì họ muốn iPhone, mà vì không muốn bị loại khỏi iMessage
  • Khi các công ty khác bỏ VR để xoay sang AI, tôi không hiểu vì sao Apple lại tung ra headset VR theo hướng ngược lại
    Giá đắt, thiếu nhà phát triển, lại còn chậm chân trong AI

    • Apple lúc nào cũng vào cuộc muộn, nhưng có thể họ đang tạo điều kiện để giảm giá
    • Tôi xem đó là chiến lược checkpoint để không bị tụt lại về mặt công nghệ. Nó là bước chuẩn bị để né bằng sáng chế và bảo vệ thương hiệu
    • Phần cứng cần thời gian để chín muồi. Có lẽ Apple đã làm prototype từ giai đoạn 2015~18
      Nếu kính AR được hiện thực hóa đúng nghĩa thì nó sẽ thành một nền tảng khổng lồ, và có vẻ Apple đang chờ đúng thời điểm để xuất hiện sau khi Meta thất bại
  • Điểm tuyệt nhất là mọi thứ đều chạy local. Dữ liệu không bị gửi ra ngoài
    Có lẽ giới sáng tạo cũng sẽ thiện cảm hơn với Apple AI. Họ dùng dữ liệu huấn luyện có đạo đức, lại không có phí thuê bao nên mang cảm giác như sở hữu cá nhân

    • Tôi tò mò vì sao mọi người nghĩ các nhà sáng tạo lại ghét AI đến thế
  • Tôi đã tắt Siri từ sau Sequoia, và tôi thích việc Apple không ép tôi bật lại nó
    Trong khi đó JIRA hay Slack cứ liên tục hiện các tính năng AI mới lên rất phiền

    • Tôi ghét kiểu các công ty nhồi nhét tính năng mới như tiếng ồn. Nhưng tôi còn ghét hơn chuyện đưa quảng cáo vào sản phẩm trả phí
      Ngay cả Apple mà còn đẩy quảng cáo tài trợ lên đầu App Store thì cũng có cảm giác hơi quá giới hạn
      Trên Android còn có lựa chọn như F-Droid, còn iOS thì khó tránh hơn
    • Vì lý do đó tôi đã xóa Google Maps. Phần tóm tắt do AI tạo ra che mất review nên rất bất tiện
      Amazon, Uber, Google Workspace và nhiều dịch vụ khác cũng đang ép AI theo kiểu tương tự
    • Điều khiến tôi bực hơn là việc Apple cứ liên tục ép cập nhật Tahoe.
      Thứ tôi muốn chỉ là một bản vá cho Sequoia, nhưng lúc nào Tahoe cũng bị chọn làm mặc định
      Thậm chí việc tích hợp Claude Code trong Xcode cũng chỉ dành cho Tahoe, thật vô lý
  • Việc tung ra MacBook Neo ở thời điểm này là một chiến lược tuyệt vời
    Trong lúc theo dõi cuộc đua AI, họ vẫn khóa chân được thế hệ người dùng tiếp theo vào hệ sinh thái Apple
    Neo tạo cảm giác như một chiếc iPod của thế hệ này

    • Nhưng đối thủ thực sự của Neo không phải thiết bị ảo của OpenAI, mà là Chromebook và laptop Windows
  • Nvidia đang hạn chế không cho GPU gaming được dùng trong datacenter,
    nên nếu Apple đe dọa thị trường AI local thì họ có thể sẽ tung ra card AI cho người tiêu dùng riêng
    Có lẽ rồi sẽ tới tương lai mà cùng một con chip được định giá khác nhau theo mục đích sử dụng

    • Theo bài viết trên Forbes, laptop Arm-based của Nvidia-Mediatek dự kiến sẽ ra mắt trong nửa đầu năm 2026
      Nếu hiệu năng NPU vượt Intel và AMD, đồng thời có thể tích hợp GPU cỡ RTX 5070 vào một form factor mỏng, thì cấu trúc của laptop gaming sẽ thay đổi hẳn
    • Việc tách biệt GPU chuyên nghiệp và tiêu dùng vốn đã có từ lâu
    • Intel và các công ty khác cũng có những giới hạn tương tự. Nhưng giá GPU còn phụ thuộc lớn vào dung lượng và băng thông bộ nhớ
      Bản tiêu dùng thì rẻ hơn nhưng bộ nhớ ít và chậm hơn
    • Rốt cuộc đây là chiến lược vừa nhắm đến thiện cảm của người tiêu dùng vừa tối đa hóa lợi nhuận
  • Apple chưa nhảy vào cuộc đua LLM. Điểm mạnh của họ là thiết kế lấy con người làm trung tâm
    iPod không phải máy nghe MP3 đầu tiên, iPhone cũng không có 3G, nhưng cả hai đều thành công
    Apple đã tập trung vào hiệu quả năng lượng và kiến trúc bộ nhớ hợp nhất, và đó là thiết kế hướng tới những sản phẩm tương lai như kính AR
    Những việc NVidia hay Intel không thể tự làm một mình thì Apple đã chuẩn bị từ trước bằng thiết kế tích hợp cả chip, bộ nhớ lẫn SSD
    Giống như khi họ từng đưa 64-bit ARM vào trước đây, hiện tại vẫn còn nhiều người đánh giá thấp ý nghĩa của điều đó
    GPU của NVidia có hiệu năng cao hơn 2~3 lần, nhưng tiêu thụ điện gấp 10 lần
    Apple cạnh tranh bằng hiệu suất trên giá thành, và đặc biệt phù hợp với các nhu cầu LLM local mang tính tức thời, cá nhân và đề cao quyền riêng tư