Theo Cục An toàn thông tin, tội phạm mạng thường sử dụng các cuộc gọi video Deepfake để mạo danh một cá nhân và vay số tiền lớn từ người thân, bạn bè của họ cho những trường hợp khẩn cấp.
Cụ thể, đối tượng giả mạo/chiếm đoạt tài khoản người dùng mạng xã hội và liên lạc với người thân trong danh sách bạn bè để nói rằng họ bị kẹt xe khi đi du lịch nước ngoài và cần tiền gấp.
Sau đó, đối tượng sử dụng công nghệ Deepfake (công nghệ ứng dụng trí tuệ nhân tạo để tạo ra các video có hình ảnh, khuôn mặt nhân vật giống hệt hình ảnh người mà đối tượng muốn mạo danh) và thực hiện tấn công. quay video call (ảnh) để nạn nhân tưởng rằng đang nói chuyện với người thân và nhu cầu vay tiền là có thật nên chuyển tiền cho các đối tượng.
Trước thực trạng trên, Cục An toàn thông tin khuyến cáo người dùng có thể sử dụng công cụ AI để nhận dạng Deepfake nhằm giảm thiểu khả năng thành công của các vụ lừa đảo như Intel FakeCatcher, Microsoft Video Authenticator…
Đối với video deepfake, một số công cụ giúp xác định các chuyển động không khớp giữa miệng và lời thoại. Một số công cụ phát hiện lưu lượng máu bất thường dưới da bằng cách phân tích độ phân giải của video vì khi tim bơm máu, tĩnh mạch của con người sẽ đổi màu. Người dùng có thể phát hiện Deepfake nhờ vào hình mờ đánh dấu tác giả.
Đặc biệt, Cục An toàn thông tin khuyến cáo người dùng đặc biệt cảnh giác, không cung cấp thông tin cá nhân như căn cước công dân, tài khoản ngân hàng, mã OTP và không chuyển tiền cho người lạ qua điện thoại. , mạng xã hội, website có dấu hiệu lừa đảo.
Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, nên sử dụng các phương thức xác thực khác như gọi điện thoại truyền thống hoặc sử dụng các kênh liên lạc khác để xác nhận lại.
Link nguồn: https://cafef.vn/canh-bao-gia-tang-lua-dao-bang-cong-nghe-deepfake-188240502105327342.chn