Sợ ChatGPT
Khi được yêu cầu viết một email lừa đảo, ChatGPT tỏ ra rất có đạo đức khi dạy cho người dùng một bài giảng nghiêm khắc về mức độ nguy hiểm của lừa đảo.
Công cụ gọi lừa đảo là “hoạt động độc hại và bất hợp pháp nhằm đánh lừa các cá nhân cung cấp thông tin nhạy cảm như mật khẩu, số thẻ tín dụng và thông tin cá nhân”, đồng thời bổ sung rằng nó được lập trình để “tránh tham gia vào các hoạt động có thể gây hại cho cá nhân hoặc cộng đồng “.
Tuy nhiên, nó cũng cho thấy công cụ trí tuệ nhân tạo miễn phí đang làm mưa làm gió trên toàn thế giới hoàn toàn có khả năng tạo ra một bài báo lừa đảo, thuyết phục ai đó tải xuống phần mềm độc hại nguy hiểm. .
Các chuyên gia lo ngại ChatGPT – và trí tuệ nhân tạo nói chung – có thể trở thành công cụ để những kẻ lừa đảo và tin tặc ở nước ngoài viết những bài báo lừa đảo hiệu quả hơn, tránh những lỗi ngữ pháp trước đây khiến người dùng cảnh giác.
Các chuyên gia cho biết các email do AI tạo ra cũng có nhiều khả năng vượt qua các bộ lọc email của phần mềm bảo mật hơn.
Nhưng các chuyên gia nói rằng không nên đổ lỗi cho AI. Randy Lariar, giám đốc dữ liệu lớn, AI và các hoạt động phân tích tại công ty an ninh mạng Optiv cho biết: “Nó không tốt hay xấu. Nó chỉ là một công cụ giúp người tốt và kẻ xấu làm việc”. họ đang làm cho nó dễ dàng hơn và ít tốn kém hơn.”
Mặc dù các công ty an ninh mạng từ lâu đã quảng cáo AI và máy học như một công cụ thay đổi cuộc chơi để tăng cường bảo vệ trực tuyến tự động và giúp lấp đầy khoảng trống trong lực lượng lao động của ngành, nhưng việc tăng tính khả dụng của loại công nghệ này thông qua các công cụ như ChatGPT sẽ chỉ giúp bọn tội phạm dễ dàng thực hiện hơn. ra nhiều cuộc tấn công mạng hơn.
Ngoài ra, người dùng công nghệ sẽ cần cẩn trọng với những thông tin mà họ cung cấp cho AI, bởi một khi họ cung cấp thông tin đó, thông tin đó sẽ trở thành một phần trong cơ sở dữ liệu khổng lồ của ChatGPT và họ sẽ có rất ít hoặc không kiểm soát được thông tin được chia sẻ với ai hay cách thức chia sẻ thông tin đó. thông tin được chia sẻ sau đó được sử dụng.
Mặc dù có các biện pháp bảo vệ tích hợp để ngăn chặn tội phạm mạng sử dụng ChatGPT cho các mục đích bất chính, nhưng chúng vẫn chưa hoàn hảo.
Người ta có thể nhờ cụ viết đơn xin tị nạn hoặc gợi ý một điểm hẹn lãng mạn. Nhưng ai đó cũng có thể sử dụng ChatGPT để viết thư giả nhằm lừa ai đó trúng giải độc đắc Xổ số Bang New York.
Nguy hiểm trong tương lai
Mặc dù những lo ngại về quyền riêng tư dữ liệu đối với AI không phải là mới, nhưng cuộc tranh luận về việc sử dụng công nghệ AI trong một số lĩnh vực đã nổ ra trong nhiều năm.
John Gilmore, người đứng đầu bộ phận nghiên cứu của Abine, công ty sở hữu DeleteMe, một dịch vụ giúp mọi người xóa thông tin khỏi cơ sở dữ liệu, cho biết những lo lắng về các mô hình ngôn ngữ như ChatGPT có thể không rõ ràng nhưng ngày càng trở nên đáng chú ý.
Gilmore lưu ý rằng người dùng không có bất kỳ quyền nào liên quan đến những gì ChatGPT thực hiện với dữ liệu mà công cụ thu thập từ họ hoặc người mà công cụ chia sẻ dữ liệu đó.
Khi việc sử dụng AI lan rộng sang các lĩnh vực khác, mọi thứ ngày càng trở nên khó minh bạch hơn và người dùng cần phải có những quy tắc nhất định.
Ví dụ: không bao giờ được nhập thông tin bí mật hoặc độc quyền vào các ứng dụng hoặc trang web AI, cũng như không được phép yêu cầu trợ giúp về những thứ như đơn xin việc hoặc biểu mẫu pháp lý.
Gilmore nói: “Mặc dù có thể rất hấp dẫn khi nhận được lời khuyên dựa trên AI vì những lợi ích ngắn hạn, nhưng bạn nên lưu ý rằng trong quá trình này, bạn đang cung cấp nội dung cho người khác”.
Lariar của Optiv cho biết, do sự mới lạ của các mô hình ngôn ngữ AI, vẫn còn rất nhiều điều phải quyết định khi nói đến tính hợp pháp và quyền của người tiêu dùng.
Ông so sánh các nền tảng AI dựa trên ngôn ngữ với sự phát triển của ngành phát trực tuyến video và âm nhạc, dự đoán rằng một loạt vụ kiện sẽ được đệ trình trước khi mọi thứ được giải quyết.
Trong khi đó, AI dựa trên ngôn ngữ sẽ không biến mất. Về cách bảo vệ chống lại những người sẽ sử dụng nó cho mục đích xấu, Lariar cho biết giống như mọi thứ về bảo mật, điều này sẽ bắt đầu với những điều cơ bản.
Ông nói: “Đây là hồi chuông cảnh tỉnh cho tất cả những ai không đầu tư vào các chương trình bảo mật cần thiết. Các biện pháp bảo vệ ngày càng trở nên lỏng lẻo, dễ bị tấn công và lừa đảo. AI sẽ ngày càng trở nên lỏng lẻo. tăng”.
Link nguồn: https://cafef.vn/mot-dieu-dang-so-khac-ve-chatgpt-lua-dao-qua-tai-tinh-20230219135621738.chn