Trong thời đại số, trí tuệ nhân tạo (AI) và chatbot AI như ChatGPT ngày càng trở nên phổ biến và được ứng dụng rộng rãi trong công việc. Tuy nhiên, bên cạnh những lợi ích mà AI mang lại, việc sử dụng công nghệ này cũng tiềm ẩn nhiều rủi ro, đặc biệt là trong lĩnh vực an ninh mạng. Ông Sebastian Gierlinger, chuyên gia an ninh mạng kiêm Phó Chủ tịch Kỹ thuật tại Storyblok, công ty chuyên về hệ thống quản lý nội dung với các khách hàng lớn như Netflix, Tesla và Adidas, đã chia sẻ những điều cần thiết. Hãy cẩn thận khi tương tác với AI.
Theo ông Sebastian Gierlinger, có tới 75% công ty hiện chưa có chính sách cụ thể về sử dụng AI. Nhiều doanh nghiệp thậm chí còn cấm nhân viên sử dụng AI tại nơi làm việc. Tuy nhiên, điều này dẫn đến việc nhân viên sử dụng tài khoản cá nhân cho mục đích riêng. Họ có thể vô tình cung cấp dữ liệu bí mật của công ty cho ChatGPT hoặc các nền tảng tương tự mà không hề biết. Ví dụ: một nhân viên tài chính muốn phân tích ngân sách có thể tải dữ liệu công ty hoặc khách hàng lên ChatGPT, do đó vô tình tiết lộ thông tin bí mật.
Ông Gierlinger nhấn mạnh người dùng cần phân biệt rõ ràng giữa các chatbot AI khác nhau. Cá nhân ông tin rằng OpenAI và chuỗi cung ứng của họ luôn nỗ lực đảm bảo an ninh mạng và dữ liệu người dùng không bị rò rỉ. Tuy nhiên, các chatbot AI tự phát triển, thường được tìm thấy trên các trang web của hãng hàng không hoặc phòng khám, tiềm ẩn nhiều rủi ro hơn do có thể thiếu đầu tư vào bảo mật. Ví dụ: người dùng có thể cung cấp thông tin sức khỏe cá nhân cho chatbot trên trang web của bác sĩ. Nếu dữ liệu bị rò rỉ, thông tin nhạy cảm này có thể bị khai thác.
Cũng giống như khi sử dụng mạng xã hội, người dùng cần thận trọng với những gì mình chia sẻ với chatbot AI. Các công ty công nghệ có thể sử dụng dữ liệu này để đào tạo các mô hình AI tiếp theo. Nếu bạn chia sẻ thông tin quá cụ thể, người khác có thể khai thác thông tin đó thông qua chatbot. Ông Gierlinger đưa ra ví dụ về việc ông sử dụng ChatGPT để tìm kiếm gợi ý du lịch. Nếu bạn cung cấp thông tin quá chi tiết, công ty công nghệ có thể sử dụng dữ liệu này và chatbot có thể tiết lộ thông tin cá nhân của bạn cho người khác. Điều này cũng đúng với việc chia sẻ thông tin tài chính. Tuy chưa có trường hợp nào rò rỉ thông tin nhưng đây là nguy cơ tiềm ẩn mà người dùng cần lưu ý.
Để đảm bảo an toàn thông tin, người dùng nên tuân thủ chính sách sử dụng AI của công ty. Tại Storyblok, ông Gierlinger cho biết công ty có danh sách thông tin tuyệt mật không thể tải lên bất kỳ mô hình chatbot hay AI nào, bao gồm thông tin về lương, nhân viên và hiệu quả tài chính. Storyblok cũng có chính sách riêng về việc sử dụng AI trong lập trình. Theo đó, AI như Copilot của Microsoft không chịu trách nhiệm về bất kỳ dòng mã nào được tạo ra. Tất cả mã do AI tạo ra phải được các lập trình viên kiểm tra trước khi đưa vào kho của công ty. Ông Gierlinger cũng khuyên người dùng, nếu băn khoăn có nên chia sẻ thông tin nào với AI hay không, hãy tự hỏi liệu mình có đăng thông tin đó lên Facebook hay không. Nếu câu trả lời là “không”, đừng chia sẻ với chatbot AI.
Link nguồn: https://cafef.vn/chuyen-gia-an-ninh-mang-chia-se-nhung-dieu-tuyet-doi-khong-nen-tam-su-voi-chatgpt-neu-khong-muon-linh-hau-qua-188240611134123441.chn