Thời gian gần đây, tại nhiều địa phương xuất hiện đối tượng sử dụng trí tuệ nhân tạo, giả mạo khuôn mặt, giọng nói của người khác (Deepfake) để thực hiện lừa đảo chuyển tiền khiến một số người dân sập bẫy.
Theo chuyên gia Vũ Thành Thắng, Giám đốc cấp cao mảng Trí tuệ nhân tạo Công ty An ninh mạng thông minh SCS, Deepfake là công nghệ trí tuệ nhân tạo (AI) có khả năng làm giả video, giọng nói của người khác. , sau đó sử dụng đoạn video giả mạo này để gọi điện cho người thân, bạn bè của đối tượng này nhằm mục đích lừa đảo chuyển tiền trong những trường hợp khẩn cấp như bị tai nạn, cấp cứu, cần tiền gấp.
Phương thức lừa đảo Deepfake phổ biến là kẻ lừa đảo sẽ sử dụng Zalo, Facebook của nạn nhân để nhắn tin, thậm chí chủ động gọi video call bằng Deepfake để vay tiền từ bạn bè hoặc người thân.
Anh Thắng chia sẻ, những đoạn phim này thường rất ngắn với mục đích cho bạn bè hoặc người thân của nạn nhân xem qua rồi tắt đi với lý do sóng điện thoại kém.
“Mấu chốt của thủ đoạn lừa đảo này là làm cho người thân của nạn nhân tin rằng bạn bè, người thân của họ đang gặp khó khăn và cần tiền gấp. Với cách thức này, những người không để ý, những người trung tuổi chỉ nhìn lướt qua hình ảnh cuộc gọi video cũng có thể sập bẫy của những kẻ lừa đảo”, ông Thắng nói.
Những nguy cơ mới của lừa đảo dựa trên AI
Theo chuyên gia Vũ Thành Thắng, chúng ta đang sống trong bối cảnh của cuộc cách mạng công nghiệp, công nghệ 4.0 mà AI, Big data… là tâm điểm của cuộc cách mạng này. Trí tuệ nhân tạo đang phát triển nhanh chóng và dễ dàng tiếp cận với mọi người nói chung, tội phạm nói riêng. Điều đó sẽ làm tăng rủi ro lừa đảo dựa trên AI mới.
Cẩn thận với các video ngắn, mờ, yêu cầu chuyển tiền
Mặc dù hình thức lừa đảo của Deepfake rất tinh vi nhưng theo chuyên gia Nguyễn Minh Tân, Phó Giám đốc Rikkei AI, hiện năng lực tính toán của các ứng dụng Deepfake chưa hoàn hảo nên các clip do AI tạo ra thường có dung lượng nhỏ. thời gian ngắn, chất lượng âm thanh, hình ảnh không cao.
Ông Tan chỉ ra một số dấu hiệu nhận biết cuộc gọi Deepfake như khuôn mặt ít biểu cảm hơn, cơ thể ít cử động hơn, cách nói chuyện không hoàn toàn giống người thật. Đặc biệt, hầu hết các video do Deepfake tạo ra đều chỉ có phần trên của cơ thể và hầu như không có cảnh quay ngang, quay mặt, không có hành động xoa mặt hay lấy tay che mặt.
Tuy nhiên, ông Tân cũng cho rằng, người dùng khó phát hiện chi tiết dưới góc độ công nghệ. Vì vậy hãy luôn cảnh giác với những đường link lạ, những yêu cầu vô lý.
Ngoài ra, các cá nhân hoặc tổ chức có thể phát hiện ra rằng một số phần mềm hoặc nền tảng nhất định có khả năng phát hiện ra rằng đó là sản phẩm của Deepfake. “Cập nhật thông tin về các hình thức lừa đảo sử dụng công nghệ hiện nay cũng là cách tăng cường khả năng phòng chống gian lận”, ông Tân nói.
Chuyên gia Vũ Thanh Thắng khuyến cáo người dùng khi nhận được cuộc gọi video có dấu hiệu bất thường như hình ảnh rất ngắn, nhòe kèm theo yêu cầu chuyển tiền thì cần bình tĩnh. Trong trường hợp này cần tiến hành một số biện pháp xác minh lại như hỏi người liên hệ về các mối quan hệ trước đó, xác nhận những thông tin xung quanh mà tội phạm không trả lời được.
“Nếu có chuyển tiền cũng cần kiểm tra thông tin tài khoản, nếu tài khoản không có thông tin người thân thì cũng cần xác nhận lại bằng nhiều hình thức khác. Với cách làm này, kẻ gian hay tội phạm mạng sẽ lộ ra nhiều vấn đề và chúng ta dễ dàng phát hiện ra sự giả mạo”, ông Thắng nói.
Link nguồn: https://cafef.vn/canh-giac-voi-nhung-cuoc-goi-deepfake-188230406092738356.chn