PV: Trước đây, khi gặp những tình huống đáng ngờ khi trao đổi trên mạng xã hội, nhiều người thường xác minh bằng video call, nhưng nghe nói cách này đã bị công nghệ “Deepfake” vô hiệu hóa?
– PC Hiếu: Có lẽ bạn đã từng xem một video hoặc hình ảnh mà một nhân vật có một số dấu hiệu lạ như: khuôn mặt thiếu cảm xúc và hơi “đơ” khi nói hoặc tư thế trông lúng túng, thiếu tự nhiên hoặc hướng đầu và cơ thể của họ trong video không nhất quán. . Nó có thể là một video giả mạo khuôn mặt. Người dùng nên dừng lại để suy nghĩ.
Ngoài ra, bạn cũng có thể thấy màu da của nhân vật trong video không đều, ánh sáng lạ và bóng không đúng chỗ. Điều này có thể làm cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh không khớp với hình ảnh, có nhiều tiếng ồn bị mất trong clip hoặc clip không có âm thanh.
Anh Ngô Minh Hiếu (Hiếu PC) nói về thủ thuật giả mặt khi gọi video
+ Anh ấy đã có một trường hợp Bạn có thực sự mất tiền sau khi nhận cuộc gọi video dàn dựng không? Xin ông cho biết thủ đoạn mà các nhóm lừa đảo công nghệ cao thường sử dụng trong trường hợp này?
– Đã có một số trường hợp được ghi nhận tại Việt Nam bị lừa đảo bằng công nghệ Deepfake. Cụ thể, kẻ lừa đảo lập nick ảo hoặc hack nick thật, tìm kiếm nạn nhân trên mạng xã hội để nhắn tin, vay tiền… Khi nạn nhân gọi video để xác minh mình, bọn lừa đảo sử dụng cuộc gọi video soạn sẵn. . Nếu nạn nhân không tỉnh táo sẽ bị chúng vượt mặt.
+ Làm thế nào để nhận biết các cuộc gọi video giả mạo, thưa ông?
– Hiện nay, công nghệ AI và đặc biệt là Deepfake được sử dụng để phục vụ cho những mục đích tốt đẹp đã bị một số thành phần sử dụng cho mục đích xấu như lừa đảo, giả mạo, bôi xấu thậm chí là bịa đặt. tin đồn. Để tránh bị lừa, tốt nhất người dùng nên tỉnh táo, khi bất ngờ có ai đó trên mạng xã hội trong danh sách bạn bè hỏi vay tiền hoặc gửi link lạ thì nên bình tĩnh, xác minh, xác thực. mọi thứ.
Hãy chủ động xác thực bằng cách gọi đến một số điện thoại trực tiếp hoặc cuộc gọi video trong ít nhất 1 phút, sau đó giả vờ hỏi những câu hỏi riêng tư mà chỉ bạn và người kia biết. Bởi vì Deepfake sẽ không thể giả mạo một cuộc trò chuyện thực trong thời gian thực với độ chính xác cao. Vì dù sao đi nữa, cảm xúc hay biểu cảm của AI hay Deepfake cho đến thời điểm này vẫn chưa thể bắt chước giống như người thật.
Một dấu hiệu gian lận quan trọng là tài khoản của người nhận không phải là tài khoản của người thực hiện cuộc gọi. Và thường thì kẻ gian sẽ ngắt giữa chừng, báo mất tín hiệu, tín hiệu yếu…
+ Nhu cầu chia sẻ hình ảnh, clip lên mạng xã hội của mọi người là rất lớn, làm thế nào để không bị kẻ xấu lợi dụng?
– Người dùng hạn chế chia sẻ thông tin cá nhân, clip lên mạng xã hội và luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao. Cần nâng cao nhận thức về lừa đảo. Nếu cẩn thận, bạn có thể bóp méo âm thanh trước khi chia sẻ lên mạng xã hội, tránh trường hợp bị kẻ gian lợi dụng cắt ghép, chỉnh sửa âm thanh rồi sử dụng vào mục đích xấu.
+ Xin cảm ơn thầy!
Link nguồn: https://cafef.vn/cach-nhan-biet-chieu-ghep-mat-giong-noi-giong-het-nguoi-than-de-lua-dao-188230327194002756.chn