GeekNews Mới nhất Bình luận Lưu trữ
◀ Năm trước | ◁ Tháng trước | << Tuần trước | < Ngày trước | 2026-02-23 | Ngày sau > | Tuần sau >> | Tháng sau ▷
21
 

CXMT của Trung Quốc gây áp lực lên cuộc đua HBM4 của Samsung và SK bằng nguồn cung DDR4 giá chỉ bằng một nửa

(koreaherald.com)
CXMT đang dùng chiến lược DDR4 giá rẻ để mở rộng thị phần, tạo thêm áp lực lên Samsung và SK hynix ngay cả khi hai hãng vẫn dẫn đầu HBM4.
3 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
22
 

zclaw - Trợ lý AI cá nhân chạy trên ESP32 với 888KB

(github.com/tnm)
zclaw là trợ lý AI siêu nhẹ cho ESP32, cho phép kết hợp điều khiển GPIO, lập lịch và bộ nhớ bền vững bằng ngôn ngữ tự nhiên trong firmware dưới 888KiB.
10 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
23
 

Danh sách đen AI uBlock

(github.com/alvi-se)
Một danh sách đen mã nguồn mở cho uBlock Origin giúp chặn các trang trại nội dung do AI tạo và giảm ô nhiễm nội dung AI trong kết quả tìm kiếm.
6 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
24
 

Trang web hồi sinh các game multiplayer đã chết: GameDate

(gamedate.org)
GameDate là nền tảng cộng đồng giúp hồi sinh các game multiplayer cũ bằng cách tổ chức lại các phiên chơi và sự kiện theo khu vực, thời gian và kiểu chơi.
1 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
25
 

"Claws" theo cách Andrej Karpathy nói về nó

(simonwillison.net)
Claws là một lớp điều phối mới phía trên LLM agent, mở rộng lập lịch, ngữ cảnh, gọi công cụ và tính tự chủ của hệ thống AI.
6 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
26
 

Cách Taalas ‘in’ LLM lên trên chip

(anuragk.com)
Taalas khắc trực tiếp trọng số LLM lên chip ASIC để loại bỏ nút thắt bộ nhớ của GPU và đạt tốc độ suy luận 17.000 token/giây.
23 điểm bởi GN⁺ 2026-02-23 | 5 bình luận
27
 

Mọi công ty phát triển trợ lý AI giờ đây đều là công ty quảng cáo

(juno-labs.com)
Các công ty trợ lý AI đang chuyển sang mô hình quảng cáo, khiến suy luận cục bộ trên thiết bị trở thành cách duy nhất để bảo vệ dữ liệu riêng tư khỏi bị lạm dụng.
4 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
28
 

ntransformer - Engine suy luận NVMe-to-GPU chạy Llama 3.1 70B trên một RTX 3090 duy nhất

(github.com/xaskasdf)
Engine suy luận LLM C++/CUDA này dùng streaming trực tiếp NVMe-to-GPU và cache thích ứng 3 tầng để chạy Llama 70B trên một RTX 3090 duy nhất với tốc độ vượt trội so với mmap.
15 điểm bởi GN⁺ 2026-02-23 | 1 bình luận
GeekNews | Giới thiệu Điều khoản Quyền riêng tư Liên hệ
GeekNews là nền tảng tin tức công nghệ tuyển chọn các tin mới nhất về công nghệ và AI.