- LLM có vấn đề mang tính cấu trúc là không thể tách biệt mã và dữ liệu, nên dễ bị tấn công prompt injection
- Đặc biệt, khi đồng thời được cấp quyền truy cập dữ liệu bên ngoài, quyền đọc bí mật nội bộ và quyền liên lạc với bên ngoài, cái gọi là bộ ba chết người (lethal trifecta) có thể xuất hiện và dẫn tới thiệt hại nghiêm trọng
- Các kỹ sư AI cần tư duy như kỹ sư cơ khí; thay vì cách tiếp cận mang tính quyết định luận, cần chấp nhận sự bất định của các hệ thống xác suất và chừa ra biên độ an toàn
- Cũng như các kỹ sư thời Victoria đã để dư địa bằng cách thiết kế dư thừa để đối phó với tính bất định của vật liệu, các hệ thống AI cũng cần đưa vào giới hạn an toàn, mức chấp nhận rủi ro và tỷ lệ lỗi
- Cũng như những cây cầu trong thế giới vật lý có giới hạn tải trọng, đã đến lúc các hệ thống AI cũng cần chuẩn mực đặt ra các giới hạn rõ ràng và biên độ an toàn
Vấn đề bảo mật mang tính bản chất của LLM
- Các mô hình ngôn ngữ lớn có một khiếm khuyết cấu trúc là không thể tách biệt mã và dữ liệu
- Vì vậy chúng dễ bị tấn công prompt injection
- Kẻ tấn công lừa hệ thống làm theo những chỉ thị mà lẽ ra nó không được làm theo
- Trong một số trường hợp, điều này chỉ tạo ra kết quả gây bối rối, chẳng hạn khiến tác nhân hỗ trợ khách hàng nói chuyện như cướp biển
- Trong những trường hợp khác, nó có thể gây ra thiệt hại mang tính hủy hoại nghiêm trọng hơn nhiều
Bộ ba chết người (Lethal Trifecta)
- Tác động tồi tệ nhất xảy ra khi hình thành "bộ ba chết người"
- Ba thành phần gồm
- Quyền truy cập vào dữ liệu không đáng tin cậy
- Khả năng đọc thông tin mật quan trọng
- Khả năng giao tiếp với thế giới bên ngoài
- Khi doanh nghiệp cố gắng cung cấp cho nhân viên các trợ lý AI mạnh mẽ và trao đồng thời cả ba quyền này, các vấn đề nghiêm trọng gần như là không thể tránh khỏi
- Không chỉ kỹ sư AI mà người dùng thông thường cũng cần học cách sử dụng AI an toàn
- Việc cài đặt sai tổ hợp ứng dụng có thể vô tình tạo ra đủ ba yếu tố này
Cần thay đổi tư duy của kỹ sư AI
Tư duy như kỹ sư cơ khí
- Kỹ thuật AI tốt hơn là tuyến phòng thủ ưu tiên hàng đầu
- Các kỹ sư AI cần suy nghĩ như những kỹ sư xây dựng các công trình như cầu
- Nhận thức rằng công việc cẩu thả có thể cướp đi sinh mạng con người
Bài học từ kỹ thuật thời Victoria
- Những công trình vĩ đại của nước Anh thời Victoria được xây bởi các kỹ sư không thể hoàn toàn chắc chắn về đặc tính vật liệu
- Sắt thời đó thường có chất lượng thấp do năng lực yếu kém hoặc gian lận
- Vì thế, các kỹ sư chọn sự thận trọng và tích hợp tính dư thừa thông qua thiết kế quá mức cần thiết
- Kết quả là họ tạo nên những kiệt tác trường tồn hàng thế kỷ
Vấn đề của ngành bảo mật AI hiện nay
- Các nhà cung cấp bảo mật AI hiện nay không suy nghĩ theo cách đó
- Lập trình truyền thống là mang tính quyết định luận
- Lỗ hổng bảo mật được xem là lỗi cần sửa
- Sửa xong thì nó biến mất
- Các kỹ sư AI đã quen với lối tư duy này từ khi còn đi học
- Vì vậy họ hành xử như thể chỉ cần thêm nhiều dữ liệu huấn luyện hơn và các system prompt thông minh hơn là có thể giải quyết vấn đề
Cách tiếp cận phù hợp với hệ thống xác suất
Giới hạn của dữ liệu huấn luyện và prompt
- Dữ liệu huấn luyện và các prompt thông minh hơn đúng là có thể giảm rủi ro
- Các mô hình mới nhất và thông minh nhất giỏi hơn các mô hình đời cũ hoặc nhỏ hơn trong việc phát hiện và từ chối yêu cầu độc hại
- Nhưng chúng không thể loại bỏ hoàn toàn rủi ro
- Không giống phần lớn phần mềm, LLM là hệ thống xác suất
- Đầu ra được quyết định bởi việc lựa chọn ngẫu nhiên trong số các phản hồi khả dĩ
- Vì vậy, cách tiếp cận an toàn mang tính quyết định luận là không phù hợp
Mô phỏng kỹ thuật của thế giới vật lý
- Cách tốt hơn là học theo các kỹ sư trong thế giới vật lý
- Học cách làm việc cùng những hệ thống không thể dự đoán
- Thay vì chống lại những hệ thống thất thường mà không thể đảm bảo luôn vận hành đúng như ý định, hãy học cách làm việc cùng chúng
- Thoải mái hơn với tính không thể dự đoán bằng cách đưa vào biên độ an toàn, mức chấp nhận rủi ro và tỷ lệ lỗi
Chiến lược thiết kế dư thừa trong kỷ nguyên AI
- Dùng mô hình mạnh hơn mức cần thiết
- Giảm nguy cơ bị lừa thực hiện hành vi không phù hợp
- Áp đặt giới hạn số lượng truy vấn mà LLM có thể nhận từ các nguồn bên ngoài
- Điều chỉnh theo mức rủi ro thiệt hại từ các truy vấn độc hại
- Nhấn mạnh khả năng thất bại an toàn
- Nếu hệ thống AI cần truy cập bí mật, hãy tránh trao cho nó toàn bộ chìa khóa của vương quốc
Sự cần thiết của việc đặt ra giới hạn an toàn
- Trong thế giới vật lý, cầu có giới hạn tải trọng
- Dù không phải lúc nào cũng được hiển thị rõ ràng cho người lái xe, nó vẫn tồn tại
- Điểm quan trọng là: các giới hạn này chừa ra một khoảng an toàn đáng kể trong phạm vi chịu đựng thực tế mà tính toán cho rằng cây cầu có thể chịu được
- Giờ đây, thế giới ảo của các hệ thống AI cũng đã đến lúc cần được trang bị tương tự
- Việc thiết kế các hệ thống có giới hạn an toàn rõ ràng và có dư địa là điều thiết yếu
1 bình luận
Ý kiến trên Hacker News