- YouTuber Jeff Geerling đã thử nghiệm xem có thể khôi phục nội dung của hình ảnh thư mục bị pixel hóa hay không và treo thưởng 50 USD
- Chưa đầy một ngày, 3 người tham gia đã xóa pixel thành công bằng các cách khác nhau
- Người dùng GitHub KoKuToru đã công khai toàn bộ repository, bao gồm deep learning và kỹ thuật tích lũy khung hình thực sự được dùng
- Làm mờ pixel trên video chuyển động nay rất dễ bị khôi phục nhờ sự phát triển của công nghệ AI
- Kết luận: để bảo vệ thông tin nhạy cảm, các cách như che bằng màu đồng nhất an toàn hơn pixel hóa
Bối cảnh của thí nghiệm gỡ pixel khỏi video
- Jeff Geerling đã hiển thị nội dung thư mục bị pixel hóa từ mốc 4:57 trong video YouTube của mình và chèn thông điệp kiểu “khôi phục được thì có thưởng”
- Ông đưa ra điều kiện trả 50 USD nếu đoán đúng nội dung đã bị pixel hóa trong video
- Chưa tới 24 giờ đã có 3 người thành công, mỗi người tiếp cận bằng cách hơi khác nhau
Họ đã khôi phục như thế nào?
- Cả ba đều sẵn sàng chia sẻ quá trình khôi phục — đây là văn hóa khá phổ biến trong cộng đồng thích reverse engineering
- Người dùng GitHub KoKuToru đã công khai toàn bộ repository
Thử nghiệm đầu tiên: cách brute force
- Thu thập các vùng trùng khớp trong khung cửa sổ rồi tích lũy dữ liệu pixel
- Dùng TensorFlow để gom thông tin từ nhiều khung hình và tạo ra một ảnh gần như có thể đọc được
- Do phải chỉ định vùng thủ công nên kết quả hơi loang lổ
Thử nghiệm thứ hai: trích xuất khung hình tự động + chỉnh bằng GIMP
- Dùng GIMP và ffmpeg để tự động phát hiện chính xác khung cửa sổ
- Tận dụng nhiều khung hình hơn để thu được một ảnh hoàn toàn có thể đọc được
Có cách nào phòng tránh không?
- Chỉ pixel hóa hoặc làm mờ là không phù hợp để bảo vệ thông tin nhạy cảm khi trong video có chuyển động
- Đặc biệt, cùng với sự phát triển của AI và mạng nơ-ron, các kỹ thuật xử lý ngược kiểu này đang trở nên rất nhanh và rất chính xác
- Ví dụ: có thể tách giọng nói sạch từ bản ghi âm có nhiều âm thanh trộn lẫn
- Video càng chuyển động nhiều thì càng có nhiều điểm dữ liệu để phân tích, và độ chính xác cũng tăng lên
- Tác giả cho rằng nếu người làm thí nghiệm không di chuyển cửa sổ Finder thì việc khôi phục có lẽ đã khó hơn
Vậy từ nay nên làm gì?
- Nếu muốn che giấu dữ liệu nhạy cảm, nên dùng mặt nạ màu đồng nhất thay vì pixel hóa hay blur
- Trực giác của con người có thể thấy blur tốt hơn, nhưng với AI thì không có khác biệt lớn
- Kết luận, cách bảo mật tốt nhất là đừng đưa thông tin không được phép lộ vào video ngay từ đầu
Tài liệu tham khảo
3 bình luận
Mười mấy năm trước, cứ hễ tập đoàn lớn giao đề tài là các thạc sĩ tiến sĩ lại lao vào viết luận văn về deblurring... giờ thì gần như chỉ còn là chuyện bấm một cái.
Xem video giải mã trên GitHub mà thấy thật sự sốc khủng khiếp.
Ý kiến trên Hacker News
Có ý kiến cho rằng vài năm trước, để làm việc này cần siêu máy tính và bằng tiến sĩ
Nhớ là 10 năm trước một đồng nghiệp đã làm việc tương tự cho một bản demo kỹ thuật thú vị
Cách kiểm duyệt ảnh chụp màn hình trên Windows-98
Có ý kiến cho rằng nếu cửa sổ Finder không di chuyển thì cách này đã không hoạt động
Những kỹ thuật như vậy đã được dùng từ lâu trong các lĩnh vực như thiên văn học
Bộ xáo trộn Bell Labs A-3 dùng đảo dải tần và chuyển vị theo thời gian thực, nhưng thất bại trên thị trường thương mại
Video "Thank you" của Lockpicking Lawyer đã bị làm mờ nhưng không thực sự chặn thông tin
Có lời khuyên từ chuyên gia rằng nếu muốn kiểm duyệt thì hãy loại bỏ thông tin
Có người thắc mắc liệu việc thêm nhiễu ngẫu nhiên vào phiên bản pixel hóa có thể khiến phương pháp này không còn dùng được hay không
Có đề xuất thử "AV-8500 Special" của Nhật Bản từ thập niên 90