4 điểm bởi GN⁺ 2025-05-03 | 1 bình luận | Chia sẻ qua WhatsApp
  • Một nhà phát triển xAI đã làm lộ khóa API LLM riêng tư trên GitHub, khiến bất kỳ ai cũng có thể truy cập các mô hình nội bộ trong suốt hai tháng
  • Khóa này có quyền truy cập hơn 60 LLM, bao gồm bản phát triển của Grok và các mô hình được huấn luyện bằng dữ liệu của SpaceX và Tesla
  • GitGuardian đã cảnh báo từ hai tháng trước nhưng khóa vẫn còn hiệu lực, và chỉ bị gỡ khỏi GitHub sau khi đội bảo mật xác nhận
  • Việc quản lý thông tin xác thực lỏng lẻo này không chỉ làm tăng nguy cơ rò rỉ thông tin phát triển nội bộ mà còn hàm chứa khả năng xảy ra tấn công chuỗi cung ứng hoặc prompt injection
  • Đồng thời, cũng xuất hiện dấu hiệu cho thấy tổ chức DOGE đang đưa dữ liệu của chính phủ liên bang vào AI, làm dấy lên thêm lo ngại về bảo mật AI trong hệ sinh thái của Musk

Khóa API LLM nội bộ của xAI bị lộ trên GitHub

  • Một nhà phát triển của xAI, công ty AI của Elon Musk, đã vô tình công khai khóa API dùng để truy cập LLM nội bộ trên GitHub
  • Khóa này có quyền truy cập vào các LLM được tối ưu riêng cho SpaceX, Tesla và Twitter/X

Con đường rò rỉ khóa và cảnh báo bị phớt lờ

  • Philippe Caturegli của công ty tư vấn bảo mật Seralys là người đầu tiên công khai thông báo vụ lộ khóa trên LinkedIn
  • GitGuardian đã nhận biết khóa này qua bài đăng đó, rồi gửi email cảnh báo dựa trên kết quả giám sát GitHub liên tục của họ
  • Dù đã cảnh báo vào ngày 2 tháng 3, đến ngày 30 tháng 4 khóa vẫn còn hiệu lực, và chỉ sau khi đội bảo mật biết chuyện thì kho lưu trữ mới bị xóa

Tác động của khóa bị lộ

  • GitGuardian cho biết khóa này có thể truy cập các mô hình công khai và không công khai của Grok
    • Ví dụ: grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector v.v.
  • Khóa này có thể truy cập ít nhất hơn 60 LLM chưa công bố và đã được fine-tune

Cảnh báo từ các chuyên gia bảo mật

  • Carole Winqwist, CMO của GitGuardian, cảnh báo rằng kẻ tấn công có thể dùng khóa này để thực hiện các mối đe dọa như
    • prompt injection
    • thao túng LLM
    • dẫn tới tấn công chuỗi cung ứng
  • Vụ rò rỉ này được xem là ví dụ cho thấy thiếu giám sát bảo mật nội bộ và thất bại trong quản lý vòng đời khóa tại xAI

Liên hệ với cơ quan chính phủ và những lo ngại lớn hơn

  • chưa có bằng chứng cho thấy khóa bị lộ kết nối trực tiếp với dữ liệu chính phủ, nhiều khả năng các mô hình liên quan đã được huấn luyện bằng dữ liệu nội bộ của SpaceX, Twitter và Tesla
  • Trong khi đó, DOGE (Department of Government Efficiency) do Musk dẫn dắt đã bắt đầu đưa dữ liệu của chính phủ liên bang Mỹ vào AI
    • phân tích dữ liệu của Bộ Giáo dục bằng AI
    • triển khai chatbot GSAi cho công chức liên bang
    • có dấu hiệu dùng AI để giám sát mức độ ủng hộ chính quyền Trump
  • Điều này đồng nghĩa với việc củng cố một cấu trúc trong đó các đơn vị vận hành hệ thống AI có thể kiểm soát dữ liệu nhạy cảm, từ đó làm tăng rủi ro rò rỉ

Kết luận và cảnh báo bảo mật

  • Thông tin xác thực nội bộ bị phơi bày trong thời gian dài là ví dụ cho thấy các lỗ hổng trong kiểm soát truy cập của nhà phát triển và vận hành bảo mật nội bộ
  • Caturegli đánh giá đây là lời cảnh báo cho thấy cần siết chặt hơn việc quản lý an ninh vận hành

1 bình luận

 
GN⁺ 2025-05-03
Ý kiến trên Hacker News
  • Dù GitGuardian đã cảnh báo nhân viên xAI về việc lộ API key từ gần hai tháng trước, key đó vẫn còn hiệu lực

    • xAI đã yêu cầu GitGuardian báo cáo vấn đề thông qua chương trình bug bounty của HackerOne, nhưng vài giờ sau kho lưu trữ GitHub chứa API key đã bị gỡ xuống
    • Việc đội ngũ bảo mật chuyển hướng báo cáo sang chương trình HackerOne là điều đáng ngạc nhiên
    • Dù sao thì thật may là cuối cùng thông tin đã đến được tay người có thể xử lý vấn đề
  • Việc lộ LLM dữ liệu của SpaceX có thể là nguồn gốc của một vi phạm ITAR nghiêm trọng

  • Đây là sự bất tài ở mức tuyệt đối

    • Không chỉ lập trình viên mà mọi tổ chức đều phải liên tục quét để phát hiện rò rỉ API key
    • Một lần thất bại thực chất là nhiều lần thất bại chồng lên nhau
  • Việc Elon tuyển dụng dựa trên "năng lực" đúng là quá rõ ràng

  • Tôi còn tò mò hơn về mục đích sử dụng của mô hình cá nhân tweet-rejector

  • Điều gây sốc nhất là các quan chức chính phủ đã nói với một số nhân viên chính phủ Mỹ rằng DOGE đang dùng AI để giám sát liên lạc của ít nhất một cơ quan liên bang

    • Tôi hiểu rằng không thể kỳ vọng có sự riêng tư ở nơi làm việc, nhưng việc người sử dụng lao động về bản chất giám sát tội phạm tư tưởng thì thật kinh khủng
    • Chẳng phải bất đồng quan điểm mới là điều lành mạnh sao?
  • Thật dễ thấy các nhà báo đã nhầm tưởng rằng nếu có API key của LLM thì họ có thể bơm dữ liệu vào đó

    • Mọi người vẫn chưa hiểu LLM hoạt động thế nào và nghĩ rằng có thể huấn luyện nó chỉ bằng cách tương tác ở cấp API
  • Ý ở đây là cựu lập trình viên AI

  • [đã xóa]

  • [đã xóa]

  • [đã báo cáo]