- Sau khi phân tích 15 thành thừa số nguyên tố bằng máy tính lượng tử vào năm 2001, hiện tượng tưởng như không có tiến triển nào được giải thích
- Mạch để phân tích 21 thành thừa số nguyên tố cần nhiều cổng vướng víu hơn 100 lần so với khi phân tích 15
- Sự khác biệt này đến từ độ phức tạp của phép nhân modulo có điều kiện và các tối ưu hóa đặc biệt chỉ áp dụng cho 15
- Sửa lỗi lượng tử và giới hạn phần cứng cũng làm rào cản để tiến tới phân tích 21 càng cao hơn
- Phần lớn các báo cáo về việc phân tích 21 cho đến nay đều dùng mẹo mà không thực hiện phép nhân theo đúng nghĩa thực sự
Vì sao máy tính lượng tử vẫn chưa thể phân tích 21 thành thừa số nguyên tố
Vì sao sau khi phân tích 15 thành thừa số nguyên tố vẫn chưa xuất hiện việc phân tích 21
- Năm 2001 đã có thí nghiệm dùng máy tính lượng tử để phân tích 15 thành thừa số nguyên tố
- Đến năm 2025 vẫn chưa có trường hợp thành công nào với phân tích 21 thành thừa số nguyên tố
- Từ điểm này, đã lan truyền nhận thức rằng máy tính lượng tử hoàn toàn không có tiến bộ nào
- Tuy nhiên, khi so sánh mạch phân tích 15 và 21 thành thừa số nguyên tố, có một lý do còn đáng kinh ngạc hơn nhiều
Khác biệt về cấu trúc giữa mạch phân tích 15 và mạch phân tích 21
- Mạch phân tích 15 thành thừa số nguyên tố được triển khai chỉ với 21 cổng lượng tử (21 cổng vướng víu)
- Gồm 6 cổng vướng víu qubit (các cổng CNOT và CPHASE) và
- 2 cổng Toffoli (mỗi cổng được phân rã thành 6 cổng vướng víu), tổng cộng thành 21 cổng vướng víu
- Mạch phân tích 21 thành thừa số nguyên tố cần 191 CNOT, 369 Toffoli, tổng cộng 2405 cổng vướng víu
- Tạo ra gánh nặng số cổng vướng víu lớn hơn 115 lần so với khi phân tích 15
- Kích thước mạch không chỉ tăng 25% hay gấp đôi, mà đắt hơn hơn 100 lần
- Ngay cả khi tính đến mức độ tối ưu hóa mạch, chênh lệch đến 500 lần cũng có vẻ hoàn toàn khả thi trong thực tế
Vì sao lại xuất hiện khác biệt lớn như vậy
- Trong mạch phân tích thừa số lượng tử (thuật toán Shor), chi phí chi phối là phép nhân modulo có điều kiện
- Với số N có n bit, cần nhiều lần thực hiện phép nhân modulo lên bộ tích lũy theo điều kiện
- Trong trường hợp 15, trong 8 phép nhân có điều kiện thì 6 phép có thể xử lý như nhân với 1 (không phải làm gì)
- Phép nhân đầu tiên có thể triển khai gần như miễn phí vì đầu vào là 1
- Phép còn lại thứ hai cũng có thể xử lý rẻ bằng hai CSWAP
- Kết quả là thực tế chỉ cần trả chi phí cho 2 phép
- Cấu trúc này là tính chất đặc biệt chỉ có ở 15, nơi có nhiều phép nhân gần như với 1 nên gánh nặng giảm đi rõ rệt
- Nhưng với 21 thì tất cả các phép nhân đều không phải 1 và giá trị cũng đa dạng nên phép nào cũng phát sinh chi phí
- Cả 8 phép nhân đều tốn chi phí, khiến mức tăng không chỉ là 4~5 lần mà thành 20~100 lần
- Các phép nhân như nhân 4 hay 16 không có cấu trúc có thể triển khai bằng CSWAP (hoán đổi có điều kiện)
- Độ phức tạp của phép nhân khác nhau theo từng phép, và không dễ tối ưu hóa
Giới hạn thực tế của phần cứng và sửa lỗi
- Việc phân tích 15 thành thừa số nguyên tố trong quá khứ (2001) được triển khai bằng máy tính lượng tử NMR, vốn có nhiều giới hạn về khả năng mở rộng
- Hơn nữa, nhu cầu về sửa lỗi lượng tử cũng tăng lên
- Nếu số lượng cổng tăng gấp 100 lần thì tỷ lệ lỗi cũng phải thấp hơn 100 lần
- Trên thực tế, thậm chí còn có thể cần số qubit tăng gấp 100 lần, khiến tổng chi phí tăng tới 10.000 lần
Tranh cãi quanh các nỗ lực phân tích thừa số và những kết quả sai lệch
- Gần đây, một số bài báo tuyên bố đã thành công trong việc phân tích 21 thành thừa số nguyên tố bằng máy tính lượng tử, nhưng
- trên thực tế, nhiều trường hợp đã lược bỏ phần thực hiện phép nhân của thuật toán hoặc đơn giản hóa mạch vì biết trước kết quả
- Nếu không thực hiện phép nhân thật sự, thì không thể coi đó là phân tích thừa số
- Đây là các kết quả mang tính hình thức, bỏ qua khác biệt bản chất giữa việc chỉ "tìm chu kỳ" và phân tích thừa số
- Một số bài báo còn công khai dùng mẹo, và thậm chí đã xuất hiện các bài báo châm biếm về hướng nghiên cứu đó
- Có nhiều bài báo châm biếm như thí nghiệm tái tạo kỷ lục vô địch phân tích thừa số
- Các benchmark như Variational factoring vẫn tiếp tục xuất hiện dù không có cơ sở cho khả năng mở rộng quy mô
Chỉ dấu nào mới phản ánh đúng tiến bộ của máy tính lượng tử
- Ở thời điểm hiện tại, phân tích thừa số không phải benchmark chính để đo tiến bộ của máy tính lượng tử
- Vượt qua 15 là chi phí tăng bùng nổ nên rất khó kiểm chứng theo hướng thực tiễn
- Thay vào đó, việc đưa sửa lỗi lượng tử vào sử dụng (ví dụ: cải tiến surface code) hoặc
- thay đổi kiến trúc phần cứng để giải quyết bài toán scaling (ví dụ: thay thế liên tục các nguyên tử trung hòa)
- mới là các điểm quan sát quan trọng hơn để cho thấy tiến bộ thực chất
1 bình luận
Ý kiến Hacker News
Nguyên nhân là vì cho đến nay người ta còn chưa từng thực sự phân tích thừa số một số nhỏ hơn theo đúng nghĩa. Nếu chương trình chỉ hoạt động khi quá trình biên dịch đã phải biết sẵn đáp án, thì đó không phải là phân tích thừa số thật sự mà chỉ đơn thuần là "in ra số 3"
Tôi tò mò cần bao nhiêu quantum gate để thật sự phân tích thừa số một số có ý nghĩa về mặt mật mã. Tôi cũng muốn biết liệu có con đường thực tế nào để trong thế kỷ này xuất hiện một máy tính lượng tử đủ hữu dụng hay không
Bài báo 'Replication of Quantum Factorisation Records with an 8-bit Home Computer, an Abacus, and a Dog' rất thú vị (đọc bài báo)
Tôi quan tâm đến kích thước mạch và tính khả thi khi phân tích thừa số các con số có ý nghĩa về mặt mật mã như RSA1024
Tôi tự hỏi liệu một ngày nào đó máy tính lượng tử có thể nhắm tới post-quantum RSA hay không (bài báo liên quan). Cũng có quan điểm cho rằng các phép toán RSA thông thường (tạo khóa, mã hóa, giải mã) có lợi thế bất đối xứng trước thuật toán Shor, nên chỉ cần dùng khóa đủ lớn là được. Điều này tạo ra hiệu ứng hơi giống câu đố Merkle, đồng thời thêm điều kiện rằng kẻ tấn công bắt buộc phải dùng máy tính lượng tử. Tôi từng tạo thử một khóa công khai RSA cỡ gigabit (tệp khóa). Định dạng là: 4 byte little-endian cho số byte của khóa, tiếp theo là khóa, rồi nghịch đảo của khóa (mod theo 256^bytes). Số mũ công khai là 3
Tôi thấy lỗi chính tả "error corection" khá buồn cười
Tôi khó hiểu đoạn "chi phí mạch gấp 500 lần so với factor-15". Tác giả đã đưa ra trường hợp 115 lần rồi, vậy tại sao tối ưu hóa thêm lại dẫn tới kết quả tệ hơn?
Tôi tự hỏi liệu ý chính của bài viết này có phải đang gợi ý rằng nhu cầu mạch Big-O cho phân tích thừa số bằng Schorr là siêu đa thức hay không
Lý do triển khai công nghệ mật mã PQ (hậu lượng tử) không nhất thiết là vì tin chắc QC sẽ sớm xuất hiện. Thời điểm QC ra đời vẫn bất định tùy theo tốc độ phát triển công nghệ. Mục tiêu của công nghệ mật mã là tìm ra các phương pháp gần như không thể bị phá vỡ ngay cả trên lý thuyết; và nếu một con đường tấn công là khả thi về mặt lý thuyết thì cũng có khả năng khả thi về mặt vật lý, nên phải chuẩn bị trước. ECC và RSA đã có con đường lý thuyết bị tấn công, nên dù chưa có thiết bị thực tế thì vẫn được xem là có thể bị phá. Vì vậy chuẩn bị trước khi chưa có QC là một cách nhìn hoàn toàn hợp lý. Ngược lại, với SHA2, AES, ChaCha... hiện chưa thấy con đường tấn công thực tế, nên chưa có kế hoạch thay thế ngay. Mật mã không phải ứng dụng duy nhất, hay thậm chí quan trọng nhất, của QC. Vẫn có kỳ vọng rằng những đột phá còn chưa biết trước có thể xuất hiện trong nhiều lĩnh vực như hệ vật lý, gấp cuộn protein, machine learning...