Được xác định là CVE-2024-37032, lỗ hổng này được công ty bảo mật đám mây Wiz gọi là Probllama. Sau khi tiết lộ có trách nhiệm vào ngày 5 tháng 5 năm 2024, vấn đề đã được giải quyết trong phiên bản 0.1.34 phát hành vào ngày 7 tháng 5 năm 2024.
Ollama là dịch vụ đóng gói, triển khai và chạy cục bộ các mô hình ngôn ngữ lớn (LLM) trên các thiết bị Windows, Linux và macOS.
Về cốt lõi, vấn đề liên quan đến việc sàng lọc trường hợp thử nghiệm không đầy đủ và dữ liệu đầu vào dẫn đến lỗ hổng truyền tải đường dẫn, cho phép kẻ tấn công khai thác nó để tùy ý ghi đè lên các tệp trên máy chủ và cuối cùng dẫn đến RCE. Lỗ hổng này yêu cầu tác nhân đe dọa gửi các yêu cầu HTTP độc hại đến máy chủ API Ollama để khai thác thành công.
Nó lạm dụng API “/api/pull” – được sử dụng để tải xuống các mô hình từ cơ quan đăng ký chính thức hoặc từ kho lưu trữ riêng tư – để phân phát tệp kê khai mô hình độc hại có chứa tải trọng (tệp/đoạn mã). /dữ liệu độc hại) truyền tải đường dẫn trong trường 'thông báo'.
Sự cố này có thể bị lạm dụng không chỉ để làm hỏng các tệp tùy ý trên hệ thống mà còn để thực thi mã từ xa bằng cách ghi đè tệp cấu hình (“etc/ld.so.preload”) được liên kết với trình duyệt. liên kết động (“ld.so”) để bao gồm một thư viện chia sẻ độc hại và khởi chạy nó mỗi khi bất kỳ chương trình nào được thực thi.
Mặc dù nguy cơ thực thi mã từ xa giảm đáng kể trong cài đặt Linux mặc định do máy chủ API kết nối với localhost, nhưng điều này không đúng đối với việc triển khai Docker, nơi máy chủ API cho phép truy cập công khai. tuyên bố.
Nhà nghiên cứu bảo mật Sagi Tzadik cho biết: “Vấn đề này cực kỳ nghiêm trọng trong quá trình cài đặt Docker, vì máy chủ chạy dưới dạng `root` và lắng nghe `0.0.0.0` theo mặc định – cho phép khai thác lỗ hổng này là từ xa”.
Vấn đề phức tạp hơn nữa là việc thiếu xác thực vốn có liên quan đến Ollama, từ đó cho phép kẻ tấn công khai thác các máy chủ có thể truy cập công khai để đánh cắp hoặc giả mạo các mô hình AI và máy xâm nhập. máy chủ suy luận AI tự lưu trữ.
Điều này cũng yêu cầu các dịch vụ đó phải được bảo mật bằng phần mềm trung gian như proxy ngược được xác thực. Wiz cho biết họ đã xác định được hơn 1.000 trường hợp Ollama được công khai trên internet lưu trữ nhiều mô hình AI mà không có bất kỳ biện pháp bảo vệ nào.
Sự phát triển này diễn ra khi công ty bảo mật Protect AI cảnh báo hơn 60 lỗ hổng bảo mật ảnh hưởng đến nhiều công cụ AI/ML nguồn mở khác nhau, bao gồm các vấn đề nghiêm trọng có thể dẫn đến tiết lộ thông tin. thông tin, truy cập trái phép vào các tài nguyên bị hạn chế, leo thang đặc quyền và kiểm soát hoàn toàn hệ thống.
Nghiêm trọng nhất trong số này là CVE-2024-22476 (điểm CVSS 10.0), một lỗi tiêm SQL trong phần mềm Intel Neural Compressor có thể cho phép kẻ tấn công tải xuống các tệp tùy ý từ hệ thống máy chủ. Nó đã được giải quyết trong phiên bản 2.5.0.
Link nguồn: https://cafef.vn/phat-hien-lo-hong-rce-nghiem-trong-trong-cong-cu-co-so-ha-tang-ai-cua-ollama-188240626071707225.chn