- Nhấn mạnh trải nghiệm và tầm quan trọng của độc lập công nghệ và tự host
- Giải thích rằng sở hữu tên miền và tự vận hành blog mang lại lợi ích lớn cho sự nghiệp và sự phát triển bản thân về lâu dài
- Đề cập giá trị của cộng đồng và học hỏi khi chia sẻ kiến thức và mã nguồn của bản thân trong hệ sinh thái mã nguồn mở cởi mở
- Giới thiệu việc xây dựng Homelab và nhiều công cụ mã nguồn mở tự host khác nhau, đồng thời nhấn mạnh cảm giác tự do khi thực sự sử dụng chúng để thoát khỏi giới hạn của các dịch vụ dựa trên thuê bao
- Nhấn mạnh tác động tích cực của chia sẻ nội dung dựa trên Markdown và tinh thần mã nguồn mở đối với hệ sinh thái phần mềm cũng như việc nâng cao năng lực cá nhân
Mở đầu: giá trị của độc lập công nghệ và tự xây dựng
- Sau khi xem video PewDiePie cài đặt Arch Linux và tự làm các sản phẩm dựa trên mã nguồn mở, tác giả một lần nữa suy ngẫm về tầm quan trọng của tự host và độc lập công nghệ trong việc tạo ra những thứ của riêng mình
- Tên miền, blog và các dịch vụ do chính mình quản lý sẽ trở thành tài sản tích lũy theo thời gian về lâu dài, và điều đó có ý nghĩa lớn hơn nhiều so với việc chỉ chuyển đổi giữa các nền tảng
Sức mạnh của việc sở hữu tên miền và tự vận hành blog
- Với những ai bắt đầu viết lách mới hoặc đang cân nhắc tìm việc, tác giả khuyên trước tiên nên mua tên miền của riêng mình và vận hành blog
- Vì việc mất nội dung quý giá và tên miền thường lặp lại mỗi khi chuyển nền tảng, nên điều quan trọng là phải trực tiếp sở hữu tên miền và liên tục tích lũy nội dung tại cùng một địa chỉ
- Theo thời gian, backlink, các bài viết cũ và những khoản đầu tư tích lũy sẽ chuyển hóa thành độ tin cậy dài hạn
Trải nghiệm tự host và quá trình học hỏi của tác giả
- Tác giả tự host nhiều dịch vụ như blog, bộ não thứ hai, sách, danh sách đăng ký, đồng thời sử dụng GoHugo, Listmonk, Memberstack v.v.
- Tác giả dần xây dựng năng lực kỹ thuật thông qua việc thiết lập môi trường Homelab, SSH, sao lưu, quản lý ảnh, Gitea, proxy/tự động hóa chứng chỉ SSL v.v.
- Dù ban đầu có thể cảm thấy khó, nhưng việc học hỏi và cảm giác thành tựu trong suốt quá trình chính là phần thưởng lớn nhất
Giá trị của mã nguồn mở và cộng đồng
- Việc sử dụng và đóng góp cho phần mềm mã nguồn mở giúp hiện thực hóa độc lập công nghệ, và tác giả cũng công khai kiến thức cùng các công cụ của mình trên GitHub
- Trong trường hợp mã nguồn mở, nhiều người có thể tự do sử dụng thông qua các giấy phép khác nhau, đồng thời cơ hội nhận phản hồi từ cộng đồng và hợp tác cũng tăng lên
- Tác giả bắt đầu bị thu hút bởi hệ sinh thái mã nguồn mở thông qua trải nghiệm sử dụng công cụ BI mã nguồn mở, và hiện nay phần lớn hoạt động trực tuyến cũng như các bài viết về data engineering của tác giả đều dựa trên nền tảng đó
Linux và Linus Torvalds
- Linux là cốt lõi của các thiết bị số trên toàn thế giới, và nhờ việc Linus Torvalds không thương mại hóa nó nên nó mới có thể được phổ biến rộng rãi trên phạm vi toàn cầu
- Torvalds cũng phát triển git, và nó đã trở thành công cụ thiết yếu đối với mọi nhà phát triển phần mềm trên thế giới
- Khi công khai công việc của mình dưới dạng mã nguồn mở, bạn sẽ có được trải nghiệm học hỏi, phản hồi, đóng góp và kết nối từ người khác, qua đó không chỉ phát triển bản thân mà còn góp phần vào sự phát triển của cộng đồng
Lời cảm ơn và các công cụ mã nguồn mở
- Có một số công cụ mã nguồn mở mà tác giả thường xuyên sử dụng và luôn cảm thấy biết ơn
- Quartz: lựa chọn thay thế Obsidian Publish mã nguồn mở
- GoatCounter: công cụ phân tích lưu lượng truy cập website đã được ẩn danh
- Listmonk: hệ thống danh sách newsletter mã nguồn mở
- listmonk-rss: tự động gửi email khi viết bài blog
- Ví dụ về phần mềm mã nguồn mở được khuyến nghị cho Homelab:
- Paperless: số hóa và quản lý tài liệu
- PhotoPrism: quản lý ảnh tự host có tích hợp AI
- Pi-hole: chặn quảng cáo trên toàn bộ mạng
- Nginx Proxy Manager: định tuyến tên miền và tự động hóa SSL
- Audiobookshelf: máy chủ audiobook/podcast
- Calibre: quản lý ebook
- Syncthing: đồng bộ tệp phân tán
- Gitea: dịch vụ Git tự host gọn nhẹ
Thử nghiệm đầy đủ ngay cả với thiết bị giá rẻ
- Ngay cả khi không có máy chủ đời mới đắt tiền, bạn vẫn hoàn toàn có thể thiết lập Homelab chỉ với máy chủ client cũ và một hệ điều hành tốt
- Tác giả coi trọng niềm vui học hỏi và sự độc lập có được từ quá trình tự xây dựng và vận hành
Độc lập công nghệ và rủi ro nền tảng
- Thông qua việc tự xây dựng và host, bạn có thể thoát khỏi những rủi ro như thay đổi tính năng hay ngừng dịch vụ từ các dịch vụ lớn như Google, Apple
- Lợi ích thực sự của Tech Independence là giành được sự tự do để trực tiếp thiết kế và chỉnh sửa môi trường cũng như đặc tính của riêng mình
Kết lại và tầm quan trọng của Markdown
-
Tác giả nhấn mạnh niềm vui của mã nguồn mở, tự tạo ra mọi thứ và chia sẻ trải nghiệm, đồng thời cũng làm nổi bật việc toàn bộ nền tảng cho các giải pháp và hoạt động sản xuất nội dung đều được thống nhất bằng Markdown
-
Markdown bảo đảm khả năng tương thích giữa nhiều nền tảng khác nhau và trở thành công cụ tiêu chuẩn của văn hóa mã nguồn mở/chia sẻ tri thức
-
Có thể xem thêm blog về data engineering, ghi chú bộ não thứ hai, cuốn sách đang được viết công khai v.v. tại ssp.sh và GitHub
-
Tác giả luôn hoan nghênh việc chia sẻ trải nghiệm và thảo luận cùng độc giả
1 bình luận
Ý kiến trên Hacker News
Hơi ngại vì đây giống như tự quảng bá, nhưng tôi muốn nói rằng khi self-hosting thì thực tế không nhất thiết phải mua phần cứng mới. Những chiếc laptop cũ từng chậm đến mức không dùng nổi với Windows sau vài năm thì vẫn đủ hiệu năng để làm server Linux. Khả năng cao là trong nhà hoặc quanh bạn bè sẽ có vài chiếc laptop cũ bị bỏ xó, và tôi cũng đang dùng ổn cho hai người với một chiếc i3 sản xuất năm 2011, đến tận năm 2025 này vẫn chưa thấy cần nâng cấp. Laptop cũng có hiệu quả điện năng tốt khi ở trạng thái chờ, nên xét về lâu dài còn là lựa chọn hợp lý hơn desktop. Tôi nghĩ laptop là ứng viên tuyệt vời cho chiếc server đầu tiên của người mới self-hosting. (À, laptop không có UPS tích hợp, nên nếu định cắm 24/7 thì tôi khuyên nên tháo pin ra)
Bài viết về tái sử dụng phần cứng cũ
Xin thú nhận là chính bình luận này cũng đang được viết trên một chiếc Acer laptop 13 năm tuổi chạy Linux Mint XFCE. Tôi luôn thấy tiếc khi phải vứt thiết bị cũ đi, nên sau khi mua laptop mới, tôi nối máy cũ với TV phòng khách qua HDMI và gắn bộ bàn phím/trackpad không dây Logitech K400+ giá $25. Lướt web, YouTube, Netflix đều chạy ổn, thỉnh thoảng cần làm việc thì mở VS Code hoặc Thunderbird, thậm chí game indie trên Steam cũng chạy ngon bằng gamepad. Nếu Framework laptop vào được nước tôi thì kiểu tái sử dụng này chắc còn phổ biến hơn nữa, tiếc là nước tôi vẫn chưa được giao hàng
Ở khu tôi sống (một khu chung cư 250 hộ tại Thụy Điển), chuyện người ta vứt máy tính cũ ở khu rác điện tử là như cơm bữa. Mỗi lần dắt chó đi dạo tôi lại đi “trinh sát” vài lần mỗi ngày như nhân vật trong phim Mad Max vậy. Tôi ghép linh kiện từ nhiều máy khác nhau, cài debian, chạy docker container và dùng cho đủ thứ mục đích. Tôi còn từng tặng những con server Frankenstein như vậy cho bố mẹ, anh em họ và bạn bè. Thật sự đáng kinh ngạc khi người ta vứt đi nhiều thiết bị còn dùng tốt đến thế. Tôi cũng thường xuyên thấy laptop không có mật khẩu; đăng nhập Windows vào là đầy ảnh gia đình. Thỉnh thoảng còn nhặt được cả iPhone đời khoảng 5 năm trước mà vẫn đang mở khóa. Đúng là một thế giới kỳ lạ
Tôi cũng có một chiếc Mac-Mini đời 2012 ở nhà. Được tặng nên tôi không có ý định chuyển sang Mac, máy không quá mạnh nhưng hiệu năng vẫn ổn. Giáng sinh năm ngoái tôi bật lại thì ngay cả với OS mặc định nó cũng quá chậm, và sau khi cập nhật macOS thì gần như không thể dùng được nữa. Tôi làm theo YouTube, thay bằng SSD rồi cài Debian, dựng CasaOS (OS/UI homeserver nền web), từ đó thiết lập môi trường để truy cập từ ngoài qua Wireguard và stream nhạc bằng Navidrome. Tôi vẫn chưa hiểu rõ Docker, nhưng đang học dần đủ thứ như mapping PATH
Nếu bạn không ngại mua đồ cũ, hiện tôi đang dựng một Proxmox node với Threadripper thế hệ 3, 32 core/64 thread, 256GB ram, 2x10G, 2x2.5G, giao diện quản trị IPMI riêng 1G, 64 PCIe gen 4 lane với tổng chi phí dưới 2.000 euro
Với cấu hình thấp hơn RAID6/RAIDZ2 thì rủi ro mất dữ liệu khá lớn. Phần lớn laptop không có đủ cổng SATA/M.2 để làm cấu hình parity, nên nếu muốn độ chịu lỗi ở mức RAID thì cuối cùng vẫn sẽ cần phần cứng mới. Nếu tuân thủ nguyên tắc backup ra ít nhất 2 vị trí vật lý khác nhau, thì tốt nhất là có cả hai lớp bảo vệ
Tôi hiểu vì sao người ta muốn self-hosting, nhưng cũng hoàn toàn hiểu cảm giác không muốn làm. Self-hosting là việc phiền phức: phải cập nhật docker, có gì hỏng thì tự mình xử lý, và kể cả khi chạy được thì thường vẫn có cảm giác hơi thô ráp chứ không thật sự mượt. Hiện giờ danh sách công cụ self hosted thực sự vận hành tốt đến mức giúp tôi tiết kiệm thời gian là rất ít (đứng đầu là firefly); còn rất nhiều lần tôi cài đặt xong rồi nó hỏng, cuối cùng bỏ cuộc. Dạo này nếu có sản phẩm của công ty nào tôn trọng quyền riêng tư và giá cả hợp lý thì tôi cứ trả tiền dùng luôn
Tôi nghĩ Docker là nguồn gốc vấn đề. Docker thêm các tầng gián tiếp không cần thiết cho storage, networking v.v., mà khi cần cập nhật vì lý do bảo mật hay gì đó thì hoặc phải rebuild container, hoặc phải chờ người khác làm giúp. Nếu có thể, cứ bám vào những dịch vụ phát hành dưới dạng gói upstream của OS hoặc single binary (hay gặp ở các dự án viết bằng Go) thì về lâu dài sẽ dễ vận hành hơn
Tôi thắc mắc vì sao nhất thiết phải cập nhật Docker. Trường hợp của tôi là hơn một năm nay Docker vẫn chạy không cần cập nhật. Nâng cấp docker image mỗi tháng chỉ tốn chừng 15 phút. Với lại, thực tế là công ty thật sự tôn trọng quyền riêng tư thì cực hiếm, và cũng khó mà tin rằng họ sẽ giữ nguyên lập trường đó qua nhiều năm
Thực tế là ngay cả việc tìm được một công ty vừa tôn trọng quyền riêng tư vừa có giá tốt cũng đã cực kỳ khó
Tôi tò mò không biết bạn gặp vấn đề với dự án nào. Kinh nghiệm của tôi là nếu dự án đã cung cấp cả Docker Compose thì gần như đa số đều chạy ổn. Và tôi nghĩ hầu như công ty nào rồi cũng sẽ phản bội lòng tin vào một lúc nào đó. Vì vậy tốt hơn là đừng cho họ cơ hội để làm thế. Tôi đang self-hosting Home Assistant, và điểm đặc biệt là công ty này còn có cả cơ chế pháp lý để ngăn việc vận hành theo hướng bất lợi cho người dùng
Tôi self-hosting hầu hết những gì mình cần, nhưng trải nghiệm thực sự mang tính cảnh tỉnh gần đây là khi Internet bị chập chờn. Tôi tự hỏi mình
Kết luận là tôi cần lưu trữ tài liệu nhiều hơn, và NixOS gần như không dùng offline được nếu không tự có cache server — điều đó cực kỳ khó chịu. Kết quả của thử thách này là tôi nhận ra mình có thể self-hosting phần lớn những gì mình cần để dùng cả khi không có Internet, và trong môi trường đó năng suất của tôi thậm chí còn tăng rất mạnh
Tôi tự host "devdocs" và dùng zeal cho Linux (trình xem tài liệu offline), thấy giải quyết được khá nhiều vấn đề tài liệu offline.
devdocs github
trang chính thức của zealdocs
Mỗi lần có downtime tôi đều biến nó thành cơ hội mới để nhìn ra điểm yếu trong hệ thống của mình. Nếu đó là vấn đề từ upstream thì có khi không tránh được, nhưng miễn là có cách ứng phó thì tôi sẽ dựng các kịch bản cân bằng giữa chi phí và xác suất, và bản thân việc đó cũng thấy vui
Tôi là người từng đẩy chủ nghĩa offline này tới mức tối đa. Giai đoạn bị cắt Internet hoàn toàn lại là lúc năng suất làm việc của tôi cao nhất. Tôi có bash alias để lưu đệ quy toàn bộ website bằng wget, dùng yt-dlp để tải video mình muốn, giữ bản sao offline toàn bộ Wikipedia bằng Kiwix, email cũng được lưu local và hỗ trợ queue thư soạn offline, extension SingleFile giúp lưu từng trang riêng lẻ rất hiệu quả, còn Zeal là công cụ đáng khuyên dùng như một trình duyệt tài liệu mã nguồn mở
Tôi rất đồng cảm với vấn đề “NixOS không dùng offline được nếu không có cache riêng”. Với mọi phần mềm dùng package manager, nhất định phải có cache hoặc backup repository. Việc hệ thống chỉ hoạt động trọn vẹn khi tất cả cá nhân ở tận cùng cây dependency đều tiếp tục làm đúng vai trò của họ là điểm bất an nhất trong cách phát triển phần mềm hiện nay. Với phần mềm cho người dùng cuối, tôi thiên về các gói độc lập đã bao gồm toàn bộ dependency. Dù sao đó cũng là dạng cuối cùng được lưu xuống ổ cứng thực tế
Kiwix (giải pháp offline cho Wikipedia) và nhiều kiểu thiết lập jellyfin là những tài nguyên offline rất mạnh. Nhưng các distro như NixOS, Gentoo v.v. có xu hướng đòi hỏi kết nối Internet liên tục. Việc mirror toàn bộ package gần như là bất khả thi trong thực tế
Về lời khuyên “hãy mua domain trước”, thực ra domain chỉ là đi thuê chứ không thể thật sự mua. Chỉ cần hụt một lần thanh toán là bạn bị đá ra ngoài ngay. Sự phù du của danh tính online kiểu này khiến tôi thấy buồn đến lạ
Phần “domain chỉ là đi thuê” thì đúng nếu bạn dùng root zone/registry được ICANN phê duyệt, nhưng tôi đã tự vận hành một registry của riêng mình trong nhiều năm như một thử nghiệm, chia sẻ root zone tùy biến đó với người khác. Tôi còn thử dùng custom TLD để biểu diễn mọi hệ phân loại sản phẩm/dịch vụ trên thế giới trong tên miền, và nhờ vậy cảm nhận rất rõ tính mơ hồ và thiếu phù hợp của các TLD do ICANN quản lý
Đây là một dạng giới hạn kỹ thuật. Nếu tôi cấu hình mọi thiết bị của mình (tức các bên tiêu thụ tên miền) để công nhận bất cứ thứ gì được ký bởi một public key nhất định là “XorNot.com”, thì hoàn toàn có thể thay thế hệ thống hiện tại. Nếu có thêm hỗ trợ kỹ thuật, tôi nghĩ toàn bộ cấu trúc ngày nay thậm chí có thể bị thay bằng một “danh sách key-tên đáng tin cậy”
Đây là thời kỳ mà hệ sinh thái công cụ cho self-hosting đã tiến bộ rất nhiều. Ban đầu có thể bắt đầu bằng các thành phần được host sẵn, rồi thay dần từng phần bằng phiên bản tự host. Blog của tôi cũng self-host trên server tại nhà.
Phía trước tôi dùng Cloudflare Tunnel, nhưng trước đây cũng từng thử nginx+letsencrypt+public_ip, còn lớp lưu trữ dữ liệu thì có thể thay giữa Cloudflare R2, S3 hoặc NAS cục bộ (nếu qua FUSE thì cách truy cập cũng như nhau).
Ngược lại, tài nguyên thực sự bắt buộc phải thuê chỉ có domain (trông như mua nhưng thực ra là thuê) và kết nối Internet; còn phần lớn thành phần khác giờ đều là tùy chọn. Tất nhiên nếu tắt dịch vụ thì sẽ bất tiện, nhưng chức năng cốt lõi vẫn giữ được.
Thời nay đã dễ hơn trước rất, rất nhiều. Vào thập niên 90 đến đầu những năm 2000 thì khó mà tưởng tượng nổi một bộ công cụ như thế này.
Chỉ có điều kiện chống spam email là ngày càng khắt khe hơn là nhược điểm. Tới 8 năm trước tôi vẫn tự vận hành mail của mình, nhưng giờ thì dùng G Suite
Tôi nghĩ trọng tâm không phải là “có self-host hay không” mà là “có năng lực để self-host hay không”. Góc nhìn rằng khi thiếu kỹ năng hoặc không muốn trả chi phí thì có thể giao cho người khác làm là một cách tiếp cận bao dung hơn. Những người nói kiểu “trả tiền là xong” về lâu dài mới là bên đối mặt rủi ro lớn nhất. Doanh nghiệp ngày nay thiết kế cách giữ khách bằng cách lấy sự phụ thuộc công nghệ dài hạn làm con tin. Dù không quan tâm FOSS, khả năng rời bỏ nhà cung cấp vẫn là vấn đề cực kỳ quan trọng. Khi đã lock-in rồi thì bạn có thể bị đối xử bất hợp lý bất cứ lúc nào. Có rất nhiều công ty suy nghĩ hoàn toàn theo mô hình đó
Tôi đánh giá rất cao Zulip vì nó là dịch vụ hỗ trợ mã nguồn mở, tự host, cloud service và cả việc chuyển đổi qua lại giữa các hình thức đó
Trong thời đại đầy rẫy developer và chất lượng code có thể được tạo tại nhà bằng AI tăng theo mọi mức độ, self-hosting hoàn toàn có thể trở thành một xu hướng rõ rệt
Chỉ cần học nền tảng Linux cơ bản thôi, dù không thực sự cần, nhiều người vẫn bị self-hosting hấp dẫn bởi khoái cảm và cảm giác thành tựu khi “tự chạy dịch vụ của mình”.
Hiệu ứng lớn hơn là nó loại bỏ rủi ro rất thực tế rằng một ngày nào đó bạn bị đá khỏi nền tảng mà mình đang phụ thuộc hoàn toàn mà chẳng vì lý do gì. Nếu mất cả tài khoản Gmail thì với “người dùng phổ thông”, toàn bộ danh tính online, reset mật khẩu, thậm chí đăng nhập ứng dụng cũng có thể bị chặn, dẫn tới tình huống rất khó khăn. Trên Hacker News chắc chắn cũng có người sẽ gặp khốn đốn nếu mất tài khoản Gmail. Vì vậy tôi cho rằng ít nhất danh tính email phải thuộc sở hữu của chính mình. Nguyên tắc này nên được áp dụng lặp lại cho web hosting, AWS, Spotify, Netflix và mọi dịch vụ online khác; chỉ thay bằng “cloud host mới” thôi thì chưa giải quyết được vấn đề.
Việc cài mail server thì có rất nhiều thông tin và khá dễ, nhưng tôi thấy tiếc là tài liệu về quá trình tự vận hành thực tế (đặc biệt là vấn đề tương thích hay xử lý sự cố) lại không nhiều. Ví dụ nếu Google đưa server của tôi vào blacklist thì tôi phải liên hệ ai, có quy trình phản hồi theo error message hay không — trong thực chiến rất thiếu nơi để tìm trợ giúp. Cần có hướng dẫn về cách ứng phó đúng đắn với những yếu tố bất hợp lý từ bên ngoài như global IP block. Vấn đề không nằm ở các giao thức như DKIM hay DNS, mà là cần guideline xử lý với các đơn vị cung cấp khác khi vận hành dịch vụ thật
Cứ sở hữu domain của riêng bạn, gắn nó vào bất cứ nhà cung cấp email nào bạn muốn, rồi nếu có vấn đề thì chuyển ngay sang nơi khác là xong. Bản thân domain thì rẻ, và đáp án đúng là tuyệt đối không dùng địa chỉ email riêng của nhà cung cấp.
Nguyên tắc này đúng dù bạn tự vận hành mail server hay dùng dịch vụ thương mại. Hai chuyện đó là hai vấn đề khác nhau
Rủi ro đúng là có thật và rất rõ ràng, nhưng tôi không chắc đó có phải loại rủi ro thật sự xảy ra với số đông hay không. Lý do phần lớn người dùng Gmail đời đầu chọn nó là vì các phương án thay thế trước đó xuống cấp quá nhiều. Mail của ISP, mail trường học/công ty đều là dạng tài khoản có thể biến mất bất cứ lúc nào nếu cần. Self-hosting có thể “giải quyết một phần” vấn đề, nhưng nếu bạn không đủ khả năng duy trì bảo mật thì ngay cả mail server do chính bạn quản lý cũng không cho bạn toàn quyền kiểm soát. Còn rất nhiều thứ phải lo như gia hạn domain, và nếu lơ là thì ở đây bạn cũng mất tài khoản như thường. Tôi hiểu vì sao Gmail và một số ít nhà cung cấp lớn lại phổ biến đến vậy. Với đa số mọi người, đây vẫn là lựa chọn tốt hơn trong ngắn hạn lẫn trung hạn
Khi self-hosting tại nhà, tôi luôn tự hỏi rủi ro nào lớn hơn: HDD hỏng hay mất tài khoản Gmail. Một khi bắt đầu tự host, số việc cần lo tăng vọt: không gian đặt thiết bị, kế hoạch backup, quản lý cập nhật, rồi nếu tính đến mất điện trong lúc update/backup thì cuối cùng còn phải mua cả UPS. Mà bản thân tôi lại từng gặp UPS lỗi làm hỏng luôn ổ cứng NAS. Cuối cùng có quá nhiều việc phải làm nên thời gian tập trung cho cuộc sống thường ngày bị giảm đi
Tôi cho rằng self-hosting thậm chí còn có thể tạo ra rủi ro quan trọng hơn. Nếu mất local private key hoặc domain email chính thì coi như không thể phục hồi. 2FA và khôi phục tài khoản thuận tiện hơn rất nhiều khi dùng dịch vụ bên ngoài. Tôi không phản đối self-hosting, nhưng với đa số mọi người, lựa chọn an toàn hơn nhiều là đảm bảo có khả năng khôi phục tài khoản
Từ khi Arch Linux có trình cài đặt chính thức, tôi nghĩ thật khó để tiếp tục nói là nó quá khó. Nó vẫn bắt đầu từ command line, nhưng so với thời phải đau đầu tính toán block phân vùng phức tạp như trước thì nay đã dễ hơn rất nhiều
Ở nhà tôi đang quản lý cùng lúc một cụm Kubernetes 4 node trên pi và một mini PC Intel N150 bằng Portainer.
Trong số các công cụ vận hành mã nguồn mở, những công cụ dưới đây đã tạo ra khác biệt lớn về năng suất cho tôi (tất cả đều chạy trong môi trường container)