- Dải 5 GHz mang lại trải nghiệm tốt nhất khi dùng độ rộng kênh hẹp 20/40 MHz, nhưng các sản phẩm tiêu dùng lại mặc định dùng độ rộng kênh lớn từ 80MHz trở lên, gây nhiễu và tăng độ trễ
- Vì người tiêu dùng thích tốc độ cao, các nhà sản xuất/ISP lo ngại việc phát hành với cấu hình kênh hẹp sẽ khiến thứ hạng benchmark giảm, nên vẫn giữ kênh rộng
- Bản thân việc chạy bài kiểm tra tốc độ Wi‑Fi cũng tiêu tốn băng thông dùng chung của mạng, làm giảm độ phản hồi và khiến các thiết bị khác trong mạng gặp độ trễ và mất gói
- Wi‑Fi 8 (802.11bn) thế hệ tiếp theo của IEEE đặt mục tiêu cải thiện độ tin cậy và độ phản hồi thay vì tốc độ, nhưng có thể đến năm 2028 mới hoàn tất tiêu chuẩn hóa
- Ngay cả với phần cứng đang được triển khai hiện nay, chỉ cần thay đổi cấu hình cũng có thể cải thiện đáng kể
Tầm quan trọng của độ rộng kênh hẹp
- Mạng doanh nghiệp dùng độ rộng kênh 20MHz~40MHz để hỗ trợ vùng phủ rộng và nhiều thiết bị kết nối
- Cách này giúp có nhiều kênh hơn và tránh nhiễu đồng kênh (co-channel interference)
- Wi‑Fi trong nhà ở và doanh nghiệp nhỏ thực ra cũng không khác mạng doanh nghiệp nhiều: trung bình mỗi hộ gia đình ở Mỹ có 21 thiết bị Wi‑Fi
- Nhiều gia đình cần nhiều node mesh hoặc access point để có vùng phủ hiệu quả
- Tuy nhiên, router gia đình hoặc thiết bị do ISP cung cấp thường mặc định dùng từ 80MHz trở lên và chiếm tới 2/3 toàn bộ băng tần
- Một số thiết bị 2.4GHz chỉ cho phép 40MHz nên người dùng thậm chí không thể chỉnh hẹp hơn
Vấn đề của sự “ám ảnh tốc độ”
- Lý do của các cấu hình này là vì người tiêu dùng coi chất lượng Wi‑Fi = tốc độ, không tính đến các yếu tố khác
- Họ chỉ tập trung vào tốc độ thay vì các chỉ số trải nghiệm Internet quan trọng hơn như độ phản hồi và độ tin cậy
- Nhà sản xuất và ISP rất nhạy cảm với điểm số bài test tốc độ, nên giữ cấu hình mặc định là kênh rộng
- Nếu dùng kênh hẹp thì chất lượng cảm nhận thực tế có thể tốt hơn, nhưng con số tốc độ lại thấp hơn, làm dấy lên lo ngại tỷ lệ trả hàng sẽ tăng
- Kết quả là một cơ chế ám ảnh thông lượng tối đa hơn là độ phản hồi và độ ổn định vẫn tiếp diễn
Tác dụng ngược của kiểm tra tốc độ
- Wi‑Fi hoạt động theo cơ chế chia sẻ kênh vô tuyến (airtime contention), nên tại một thời điểm chỉ một thiết bị có thể truyền
- Vì vậy, khi chạy speed test trên một thiết bị, độ trễ và mất gói của các thiết bị khác sẽ tăng lên
- Kết quả thử nghiệm cho thấy khi một thiết bị khác trên cùng mạng chạy speed test thì độ trễ, jitter, và mất gói đều tăng
- Khi thực hiện cùng bài test qua kết nối có dây (ethernet) thì không có ảnh hưởng này
- Phần lớn thiết bị tiêu dùng đều tắt các tính năng giảm buffer bloat, khiến tình hình còn tệ hơn
- Chính các công cụ đo tốc độ hay hệ thống đo tốc độ tự động lại là một nguyên nhân lớn làm giảm chất lượng trải nghiệm thực tế của người dùng
Cách tiếp cận mới của IEEE 802.11bn (Wi‑Fi 8): chuyển trọng tâm sang độ phản hồi và độ tin cậy
- 68% hộ gia đình tại Mỹ đã gặp vấn đề Wi‑Fi trong 1 năm qua
- Tiêu chuẩn IEEE Wi‑Fi 8 (802.11bn) đang rời xa tư duy tôn sùng tốc độ trước đây để
- đặt mục tiêu vào độ tin cậy, độ trễ thấp (theo mốc phần trăm thứ 95), giảm thiểu mất gói, và khả năng hoạt động vững vàng trong môi trường có nhiễu
- Tuy nhiên, tiêu chuẩn này có thể phải đến năm 2028 mới được chốt cuối cùng
- Dải 6GHz mà Wi‑Fi 6E và 7 sử dụng có cung cấp kênh rộng hơn, nhưng
- mức độ phổ cập thiết bị còn thấp và không giải quyết được vấn đề cốt lõi là chia sẻ kênh
Giải pháp và đề xuất
- Không cần phải chờ Wi‑Fi 6E và 7 được phổ cập thực sự hoặc những lời hứa còn chưa thành hiện thực của Wi‑Fi 8
- Chỉ cần điều chỉnh cấu hình trên phần cứng đã được triển khai cũng có thể đạt hiệu năng tốt hơn rất nhiều
- Đơn giản là hãy ngừng theo đuổi thông lượng tối đa và tập trung vào độ phản hồi và độ tin cậy của Wi‑Fi
- Speed test là công cụ hữu ích, nhưng phụ thuộc quá mức vào nó lại làm chất lượng đi xuống
- Người dùng thực sự muốn độ phản hồi nhanh và độ ổn định, nhưng lại thiếu công cụ và dữ liệu để đo những yếu tố này
- Nhà sản xuất và ISP nên đưa vào các chỉ số đo mới để nhấn mạnh trải nghiệm mạng liên tục (Responsiveness & Reliability)
- Ngay cả với phần cứng hiện có, chỉ bằng vài thay đổi cấu hình đơn giản cũng có thể tạo ra môi trường Wi‑Fi ổn định hơn
2 bình luận
Ý kiến trên Hacker News
Sau khi thử nghiệm với hub UniFi, tôi nhận ra rằng lý tưởng nhất là cung cấp các kênh WiFi độc lập cho từng thiết bị; nhiễu rất nghiêm trọng nên ngay cả trong môi trường hiệu năng giảm nếu kênh không va chạm, kết quả vẫn tốt hơn nhiều. Ngoài ra, cách tốt nhất để làm môi trường không dây nhanh hơn là dùng WiFi càng ít càng tốt khi có thể; nối trực tiếp các thiết bị không di chuyển như TV bằng Ethernet sẽ giảm hiệu quả tình trạng tắc nghẽn và sụt tốc của WiFi
Lý tưởng nhất là mọi thiết bị ngoài smartphone và laptop không cố định trên bàn đều nên kết nối bằng Ethernet. Từ năm 2020, khi hội nghị truyền hình tăng nhiều, tôi đã đi dây Ethernet trực tiếp trong nhà và khả năng sử dụng cải thiện đáng kể
Thiết bị IoT thường dùng chipset WiFi chậm và các chuẩn cũ, nên gom riêng chúng vào một SSID chỉ 2.4GHz là cách hiệu quả. Làm vậy sẽ không để các thiết bị cũ/chậm làm ảnh hưởng đến sự thông thoáng của 5GHz. Ngoài ra, lắp thêm router không dây và dùng wired backhaul sẽ giúp các thiết bị kết nối hiệu quả tới AP gần nhất, khiến WiFi ổn định hơn nhiều. Sau khi chuyển toàn bộ thiết bị cố định trong nhà sang kết nối có dây và tinh chỉnh, chất lượng không dây cải thiện rất mạnh
iPhone/iPad cũng có thể kết nối bằng adapter Ethernet, và khi tải xuống dung lượng lớn thì làm việc nhanh hơn hẳn. Tuy nhiên, khá đáng tiếc là nhiều thiết bị điện tử tiêu dùng không hỗ trợ kết nối có dây. Trong các căn hộ đô thị đông đúc, không dây thực sự là một lựa chọn bất lợi, và cũng có bất tiện là nhiều thiết bị hiển thị các thiết bị mạng lân cận nhiều hơn mức cần thiết hoặc không thể tắt WiFi đúng cách một cách bất thường
Các Wi-Fi client nhàn rỗi, không có lưu lượng trên mạng, hầu như không ảnh hưởng đến chất lượng. Thứ thực sự gây vấn đề là các thiết bị đang hoạt động hoặc có nhiều lưu lượng nền như smart TV. Trong mạng IoT, tôi chặn Internet đối với phần lớn thiết bị để giảm lưu lượng nền. Nhìn chung, chỉ cần mở rộng vùng phủ AP, dùng wired backhaul, và thay bằng thiết bị tốt hơn (ví dụ: Ubiquiti/UniFi) cũng có thể cải thiện mạnh phần lớn vấn đề WiFi. Nếu dùng mesh WiFi thì nên dùng backhaul 6GHz, nhưng lưu ý là sẽ giảm phần nào phạm vi phủ sóng
Đi dây là giải pháp mạnh mẽ và triệt để nhất. Nhưng nếu bắt buộc phải tận dụng WiFi tích cực thì vẫn có thể tối ưu bằng cách dùng nhiều AP với backhaul chuyên dụng; tôi đã từng triển khai theo cách này để hơn 60 thiết bị có thể roaming mượt và giữ tốc độ cao. Tôi làm trên nền UniFi, nhưng thiết bị Eero PoE cũng cho hiệu năng tương tự
Một trong những nguyên nhân khiến WiFi xuống cấp là tính năng WiFi Direct của máy in như HP. Khi quét tín hiệu xung quanh, có thể thấy hơn 5 máy in của hàng xóm đang phát tín hiệu rất mạnh. Trong môi trường tòa nhà lớn, thực tế chỉ các kênh 6GHz được hỗ trợ trong WiFi 6e mới dùng được
Tôi không rõ từ bài viết thì nên áp dụng điều gì trong thực tế. Ý là ở nhà nên giảm độ rộng kênh sao? Có vẻ muốn thấy hiệu quả thực sự thì phải dùng khá nhiều WAP. So với độ rộng kênh, trong căn hộ v.v. thì khuyến nghị giảm TX power có lẽ thực tế hơn. Nhưng sẽ không phải ai cũng làm vậy, và tốt nhất là tuân theo giới hạn pháp lý. Các thiết bị cần hiệu năng cao vốn dĩ nên kết nối có dây. Nếu định đầu tư thời gian tối ưu WiFi thì wiisfi.com thực sự là tài liệu rất tốt
Ý chính là giảm độ rộng kênh 5GHz xuống 40Mhz và giữ 2.4GHz ở 20MHz thì độ tin cậy sẽ cao hơn. Nếu nhà sản xuất chỉ cần đặt mặc định tốt hơn thì sẽ có lợi cho toàn bộ người dùng, nhưng hiện nay router gia đình đa phần để mặc định độ rộng kênh quá lớn. Tất nhiên, nếu trong môi trường của bạn không có vấn đề thì cũng không cần phải đổi
Những thiết lập kiểu này chỉ đáng quan tâm khi có vấn đề. Trong đa số trường hợp, tài nguyên của WiFi hiện đại quá dồi dào nên khó cảm nhận khác biệt lớn; cùng lắm chỉ hơi chậm trong các lần truyền tệp dung lượng rất lớn cực kỳ hiếm hoi, nên tôi cũng không thấy cần đến mức phải bổ sung đi dây chỉ vì chuyện đó
Dùng 40MHz trên 2.4GHz đồng nghĩa chiếm một nửa tổng số kênh khả dụng, nên mức độ ô nhiễm kênh có thể nghiêm trọng hơn lợi ích tăng tốc. Nếu xung quanh lại có thêm thiết bị bừa bãi dùng kênh 8 hay 9, các băng còn lại cũng sớm bị ô nhiễm và ngay cả thiết bị IoT cũng chỉ bắt được tín hiệu một cách chật vật. Cùng một bố trí, chỉ với 20MHz cũng có thể đạt hơn 70Mbps, nhưng rồi có thể tụt xuống chỉ còn 30Mbps. Nếu nhiều người cùng dùng thì đến mức FaceTime cũng phải ép sang 5GHz hoặc tắt WiFi mới dùng nổi
Tôi cũng hay bị đứt kết nối WiFi trong phòng ngủ ở môi trường 5GHz 80MHz; hôm nay giảm ngay xuống 20MHz thì SNR tăng khoảng 5dB, nên kết nối phòng ngủ dùng lại được. Có tăng nhẹ độ trễ nhưng tôi cảm nhận rõ hiệu quả
Tài liệu được giới thiệu thật sự rất hữu ích, ước gì tôi biết sớm hơn
Đây là lời nhắc rằng việc tối ưu WiFi gần đây tập trung vào “cuộc đua thông số tốc độ” nhấn mạnh tốc độ tối đa trên giấy tờ, chứ không phải trải nghiệm thực tế của người dùng. Nó gợi nhớ đến “cuộc chiến megapixel” của máy ảnh số trước đây. Thực ra điều quan trọng trong sử dụng hằng ngày là độ phản hồi và độ tin cậy, nhưng những chỉ số này vừa khó định lượng vừa không hề được in trên bao bì sản phẩm. Trớ trêu thay, bản thân việc kiểm tra tốc độ lại có thể làm hiệu năng mạng tệ đi. Việc các router và ISP trong tương lai có cung cấp điểm số dựa trên cảm nhận sử dụng thực tế như độ phản hồi thay cho chỉ số tốc độ hay không vẫn còn chưa rõ. Về gốc rễ, đây là vấn đề văn hóa mạng; ngành này đã quá bám vào những con số để chiêm ngưỡng thay vì trải nghiệm tốt hơn
Apple đang đề xuất một cách đánh giá chất lượng mạng chính xác hơn thay vì chỉ đo tốc độ đơn thuần. Đó là đặc tả network-quality/goresponsiveness, và trên máy Mac gần đây đã tích hợp sẵn công cụ CLI
networkQuality. Công cụ này đo “round trips per minute” trong trạng thái nhàn rỗi và có tải. Nó dự đoán tốt hơn mức độ thoải mái Internet mà người dùng thực sự cảm nhận được (độ phản hồi nhanh, phản ứng tức thời), nên hữu ích thực tế hơn các speed test thông thườngVì “tốc độ” là thứ dễ đo nhất nên rốt cuộc mọi bên liên quan đều bị cuốn vào việc ám ảnh với tốc độ. Sau thời gian dài làm trong lĩnh vực mạng, cảm nhận của tôi là người dùng xem mọi vấn đề đều là do thiếu tốc độ, nhưng trên thực tế sau một mức nào đó thì nhiều khi chỉ còn là sự thỏa mãn về tâm lý
Trong nhóm làm việc IEEE 802.11bn (Wi‑Fi 8), mục tiêu của đặc tả cũng đang được định nghĩa lại, không còn là tăng tốc đơn thuần mà là độ tin cậy, độ trễ thấp (đặc biệt theo percentile thứ 95), giảm mất gói, vượt qua nhiễu/khả năng di động v.v. Tuy nhiên, theo kinh nghiệm trong ngành, tính năng mới không phải cứ sang thế hệ đó là được triển khai tử tế ngay; các tính năng cốt lõi của WiFi 6 phải đến WiFi 7 mới chạy ra hồn, còn tính năng của WiFi 7 thì phải đợi đến WiFi 8 mới thật sự phát huy. Vì thế, để các tính năng mà mỗi thế hệ đưa vào hoạt động ổn định thực sự thì thường phải chờ thêm một thế hệ nữa. Dù vậy, WiFi hiện nay vẫn đang tiến bộ đáng kể mỗi năm về hiệu năng thực tế vượt 1Gbps, thậm chí hơn 2.5Gbps, cũng như về độ tin cậy và hiệu quả
Có người nói rằng nhiều ISP, nhà sản xuất thiết bị và người tiêu dùng định kỳ chạy speed test tự động, và điều này thực sự ảnh hưởng tiêu cực đến trải nghiệm Internet của toàn bộ người dùng. Tôi khá bất ngờ trước nhận định đó, và tò mò vì sao họ lại cố tình tạo tải nhiều hơn mức cần thiết
Ví dụ có công ty tên SamKnows, công ty này thu thập dữ liệu hiệu năng từ hàng triệu hộ gia đình và gần đây đã được Cisco mua lại. Bài liên quan: Cisco công bố mua lại SamKnows
Phần lớn ISP chỉ chạy các bài speed test kiểu này trong mạng nội bộ của họ nên ít ảnh hưởng đến tải lưu lượng thực tế. Lý do là các con số được làm đẹp nhờ chỉ dùng lưu lượng nội bộ và không dùng tuyến ra ngoài, nên về phía doanh nghiệp cũng không có vấn đề gì. Thực tế, chính quản trị viên mạng của ISP tôi đã giải thích nguyên lý này cho tôi nên tôi mới hiểu
Thậm chí số người biết về speed test cũng cực kỳ ít, và tôi không nghĩ đa số người tiêu dùng có khả năng tự động hóa việc này để chạy định kỳ
Điều khiến tôi không hài lòng nhất với WiFi là roaming. Nhà tôi xây bằng tường dày (tối đa 120cm), nên gần như phòng nào cũng cần AP. Dù đã thử rất nhiều cách tối ưu, tôi vẫn chưa từng có trải nghiệm roaming liền mạch hoàn hảo. Sau khi đổi sang thiết bị TP-Link Omada thì có khá hơn trước, nhưng vẫn chưa đạt mức chuyển vùng không gián đoạn như điện thoại không dây DECT. Ví dụ, khi đang xem Twitch trong phòng rồi đi ra bếp, khoảng 30% khả năng video sẽ bị đứng hình; tệ hơn thì phải tắt bật lại WiFi mới chuyển được. Tôi đã thử mọi mẹo về kênh/chồng lấn v.v. nhưng đến giờ vẫn chưa thật sự hoàn hảo
Điện thoại không dây DECT dùng băng tần 1.9GHz nên so với WiFi 2.4GHz, tín hiệu ít bị suy hao bởi nước hơn và xuyên qua nhiều vật liệu tốt hơn. Vấn đề là nhiều người đặt sai vị trí bộ lặp WiFi/repeater hoặc dùng thiết bị rẻ tiền không có multi-radio. Nếu repeater hay thiết bị mesh chỉ có single radio thì tốc độ sẽ giảm một nửa ở mỗi hop. Ở vị trí vận hành ISP, tôi luôn thấy khách hàng tiết kiệm quá mức cho mạng không dây trong nhà, nên không dễ để giúp họ hiểu kết quả và nguyên nhân của điều đó
Tôi cũng sống trong một tòa nhà có cấu trúc tương tự nên rất hiểu nỗi khổ này, nhưng tôi gần như giải quyết được vấn đề bằng cách nối AP bằng wired backhaul, không để chồng lấn kênh, giới hạn 2.4GHz ở 20MHz và 5GHz ở 40MHz, tuyệt đối chỉ dùng các kênh 1, 6, 11 cho 2.4GHz, tránh các kênh DFS trên 5GHz, và nếu cần thì giảm công suất phát ở từng AP để chúng không chồng lấn từ xa. Với 2.4GHz, cũng có thể tắt hẳn trên một số AP tùy nhu cầu
Tôi dùng điện thoại DECT VoIP cho hầu hết các cuộc gọi và khá hài lòng
Chuẩn WiFi tiếp theo, 802.11bn (WiFi 8), có biệt danh là Ultra High Reliability (UHR), tham khảo: Wikipedia 802.11bn. Từ giờ, xu hướng là sẽ tích cực cân nhắc thêm các biến số ngoài tốc độ
Tôi đang dùng giga Wi‑Fi của KT, kênh băng tần được đặt là 80MHz, nên tôi thử đổi sang 40MHz rồi so sánh kết quả
networkQualitycủa macOS thì với tôi, khi đổi sang 40 thì cả độ phản hồi lẫn hiệu năng đều tụt hẳn.