Một lỗ hổng bảo mật nghiêm trọng đã được phát hiện trong ChatGPT, cho phép tin tặc cài đặt thông tin sai lệch và hướng dẫn độc hại vào bộ nhớ dài hạn của thiết bị người dùng. Điều đáng lo ngại là lỗ hổng này có thể bị khai thác để đánh cắp tất cả dữ liệu người dùng trong thời gian dài.
Nhà nghiên cứu bảo mật Johann Rehberger lần đầu phát hiện ra lỗ hổng này và báo cáo với OpenAI vào tháng 5 năm 2023. Tuy nhiên, ban đầu OpenAI coi đây là vấn đề an toàn chứ không phải vấn đề bảo mật, vì vậy họ không yêu cầu điều tra lỗ hổng được báo cáo. Không bỏ cuộc, Rehberger sau đó đã nghiên cứu và tạo ra bằng chứng khái niệm về cách khai thác lỗ hổng để đánh cắp dữ liệu người dùng. Điều này đã thu hút sự chú ý của OpenAI và họ đã phát hành bản vá một phần vào đầu tháng này.
Lỗ hổng nằm ở tính năng bộ nhớ dài hạn của ChatGPT, được triển khai rộng rãi vào tháng 2 năm 2024. Tính năng này cho phép ChatGPT lưu trữ thông tin từ các cuộc trò chuyện trước đó và sử dụng làm ngữ cảnh cho tất cả các cuộc trò chuyện trong tương lai. Điều này cho phép mô hình ngôn ngữ AI nhận dạng thông tin như tuổi, giới tính và quan điểm của người dùng mà không cần phải nhập lại trong mỗi cuộc trò chuyện.
Trong suốt ba tháng nghiên cứu, Rehberger đã chứng minh rằng thông tin ghi nhớ có thể được tạo ra và lưu trữ vĩnh viễn trong ChatGPT thông qua lệnh nhắc nhở – một thủ thuật buộc các mô hình AI phải làm theo hướng dẫn từ các nguồn nội dung không đáng tin cậy như email, bài đăng trên blog hoặc tài liệu tự động tạo.
Theo cách này, nhà nghiên cứu đã có thể đánh lừa ChatGPT tin rằng một người dùng cụ thể đã 102 tuổi, sống trong Ma trận và tin rằng Trái đất phẳng. Những ký ức giả này có thể được cấy vào thông qua các tệp được lưu trữ trên Google Drive hoặc Microsoft OneDrive, tải lên hình ảnh hoặc duyệt một trang web như Bing—tất cả đều có thể được tạo ra bởi một kẻ tấn công có ác ý. Tuy nhiên, khi báo cáo được gửi đến OpenAI, họ đã bác bỏ nó như một vấn đề bảo mật, không phải là vấn đề riêng tư.
Bằng chứng về việc đưa lệnh độc hại vào ChatGPT để đánh cắp dữ liệu người dùng
Nhưng sau đó Rehberger đã đưa ra một bằng chứng khác cho thấy ứng dụng ChatGPT MacOS gửi một bản sao của tất cả dữ liệu đầu vào và đầu ra giữa người dùng và ChatGPT đến một máy chủ do tin tặc kiểm soát. Thủ thuật này rất đơn giản—người dùng chỉ cần yêu cầu ChatGPT xem một liên kết web có chứa hình ảnh độc hại và sau đó tất cả dữ liệu sẽ được gửi đến trang web của kẻ tấn công.
Mặc dù OpenAI đã phát hành bản vá để ngăn chặn việc lạm dụng bộ nhớ nhằm đánh cắp dữ liệu, nhà nghiên cứu cho biết nội dung không đáng tin cậy vẫn có thể thực hiện các cuộc tấn công chèn mã độc nhanh chóng để lưu trữ thông tin dài hạn do kẻ tấn công đưa vào.
Để bảo vệ bản thân, người dùng nên chú ý trong các phiên ChatGPT để phát hiện dấu hiệu của những ký ức mới được thêm vào và thường xuyên kiểm tra những ký ức đã lưu trữ. OpenAI cũng đã cung cấp hướng dẫn về cách quản lý bộ nhớ và những ký ức cụ thể được lưu trữ trong đó.
Phát hiện này nhấn mạnh tầm quan trọng của việc liên tục cải thiện tính bảo mật của các mô hình AI tiên tiến như ChatGPT. Khi các công nghệ này được sử dụng rộng rãi hơn, việc bảo vệ dữ liệu và quyền riêng tư của người dùng trở nên cấp thiết hơn bao giờ hết.
Link nguồn: https://cafef.vn/sau-3-thang-may-mo-nha-nghien-cuu-bao-mat-tim-duoc-cach-nhiem-doc-cho-chatgpt-an-trom-du-lieu-nguoi-dung-chi-bang-vai-cau-lenh-18824092617251926.chn