Tai nạn ảo
Eddie Cumberbatch đang ngồi trong căn hộ ở Chicago vào tháng 4 thì nhận được một cuộc gọi khẩn cấp từ cha mình. Ngay khi nghe thấy giọng nói, Eddie, một TikToker 19 tuổi, đã biết có chuyện gì đó không ổn.
Người cha hỏi liệu Eddie có nhà không và mọi thứ có ổn không. “Đó là một cách kỳ lạ để bắt đầu cuộc gọi,” Eddie nói với Insider.
Sau khi Eddie nói rằng anh ấy đã ở nhà và an toàn, người cha hỏi liệu anh ấy có bị tai nạn xe hơi không. Eddie cảm thấy bối rối – anh ấy không những không bị ô tô đâm mà còn không lái xe trong sáu tháng qua. Cha anh cảm thấy nhẹ nhõm, nhưng Eddie bối rối: Tại sao anh lại nghĩ mình bị tai nạn xe hơi?
Cha anh giải thích rằng ai đó đã gọi điện thoại cố định về nhà của anh từ một số điện thoại nước ngoài. Khi ông của Eddie bắt máy, có vẻ như Eddie đang ở đầu dây bên kia.
“Eddie” này nói rằng anh ta bị tai nạn xe hơi và cần tiền ngay lập tức. May mắn thay, cha anh đã nghi ngờ cuộc gọi. Khi người cha nghe ông ngoại nói về vụ việc qua điện thoại, ông đã ngay lập tức gọi điện cho Eddie để xác minh.
Anh biết Eddie không thể đòi tiền – hơn nữa, Eddie thậm chí còn không có xe hơi ở Chicago. Cuộc gọi tới Eddie thật đã xác nhận rằng “Eddie” kia là một kẻ lừa đảo.
Gia đình của Eddie là mục tiêu của một vụ lừa đảo mới đáng sợ. Những kẻ lừa đảo đã sử dụng giọng nói nhân tạo của Eddie để moi tiền những người thân yêu của anh.
Mạo danh ai đó để ăn cắp tiền không phải là mới. Nhưng công nghệ đang làm cho những trò lừa đảo mạo danh trở nên nguy hiểm hơn.
Những kẻ lừa đảo đang bắt đầu sử dụng trí tuệ nhân tạo để gia tăng các vụ lừa đảo “tai nạn gia đình”, trong đó những kẻ lừa đảo thuyết phục các đối tượng rằng thành viên gia đình của họ đang gặp khó khăn về tiền bạc hoặc khai thác thông tin cá nhân.
Trong một cuộc khảo sát vào tháng 4 đối với người trưởng thành ở 7 quốc gia do công ty phần mềm bảo mật toàn cầu McAfee thực hiện, 1/4 số người được hỏi cho biết họ đã gặp phải một số kiểu lừa đảo bằng giọng nói. AI cho biết – 1/10 cho biết nó đã được nhắm mục tiêu cá nhân, trong khi 15% cho biết điều đó đã xảy ra với những người quen.
Chỉ với một khoản phí nhỏ, vài phút và kết nối internet, kẻ xấu có thể “vũ khí hóa” AI để trục lợi. Các báo cáo từ McAfee cho thấy, trong một số trường hợp, những kẻ lừa đảo chỉ cần ba giây âm thanh để phiên âm giọng nói của một người. Và với các nền tảng truyền thông xã hội, thật dễ dàng tìm thấy một phần tiếng nói của ai đó để tận dụng.
Trong khi Eddie và gia đình có thể tránh được trò lừa đảo, nhiều nạn nhân khác không may mắn như vậy.
Khó bắt kẻ lừa đảo
Trong một sự cố bi thảm, Richard Mendelstein, một kỹ sư phần mềm tại Google, đã nhận được một cuộc gọi giống như tiếng kêu cứu của con gái Stella.
Anh ta được hướng dẫn rút 4.000 đô la tiền mặt như một khoản thanh toán tiền chuộc. Chỉ sau khi gửi tiền đến một trung tâm chuyển tiền ở Mexico City, anh mới biết mình đã bị lừa và con gái anh vẫn an toàn ở trường trong suốt thời gian đó.
Trước đây, kẻ gian chỉ sử dụng các mẫu giọng nói chung chung không phù hợp với độ tuổi và giới tính của trẻ. Những kẻ lừa đảo nhắm mục tiêu vào các bậc cha mẹ đang hoảng loạn khi họ nghe thấy âm thanh của một đứa trẻ đang sợ hãi, ngay cả khi giọng nói đó không thực sự khớp với giọng nói của con họ.
Nhưng với AI, giọng nói ở đầu bên kia của điện thoại giờ đây có thể nghe giống như thật một cách kỳ lạ.
Tờ Washington Post đưa tin vào tháng 3 rằng một cặp vợ chồng người Canada đã bị lừa 21.000 đô la sau khi nghe thấy giọng nói do AI tạo ra giống hệt giọng nói của con trai họ.
Trong một trường hợp khác, những kẻ lừa đảo đã sao chép giọng nói của một cô gái 15 tuổi và đóng giả những kẻ bắt cóc để cố lấy khoản tiền chuộc 1 triệu USD.
Là một người sáng tạo trực tuyến với hơn 100.000 người theo dõi trên TikTok, Eddie biết rằng các tài khoản giả mạo bắt chước anh ấy chắc chắn sẽ xuất hiện.
Một ngày trước cuộc gọi lừa đảo, một tài khoản giả mạo của Eddie xuất hiện trên Instagram và bắt đầu nhắn tin cho gia đình và bạn bè của anh ấy. AI đang đưa các kế hoạch lên một tầm cao mới.
“Chụp ảnh tôi và đăng lên Instagram là một chuyện,” Eddie nói. “Nhưng cố gắng sao chép giọng nói của tôi thực sự là điều kỳ lạ nhất mà tôi có thể nghĩ đến và nó khiến tôi sợ hãi.”
Eddie đã gọi điện cho những người còn lại trong gia đình để cảnh báo họ về trò lừa đảo và tạo một video TikTok về trải nghiệm của anh ấy để nâng cao nhận thức.
Hầu hết chúng ta có thể nghĩ rằng mình sẽ nhận ra giọng nói của người thân trong tích tắc. Nhưng McAfee phát hiện ra rằng khoảng 70% người trưởng thành được khảo sát thiếu tự tin trong việc phân biệt giữa giọng nói nhân bản và giọng nói thật.
Một nghiên cứu năm 2019 cho thấy não bộ không ghi nhận sự khác biệt đáng kể giữa giọng nói thật và giọng nói do máy tính tạo ra. Ngoài ra, ngày càng có nhiều người nói lên tiếng nói thật của họ với những kẻ lừa đảo: McAfee cho biết 53% người trưởng thành đã chia sẻ dữ liệu giọng nói của họ trực tuyến hàng tuần.
Cho dù đó là một vụ bắt cóc, cướp, tai nạn xe hơi hay đơn giản là bị mắc kẹt ở đâu đó mà không có tiền để về nhà, 45% số người tham gia khảo sát của McAfee cho biết họ sẽ tin tưởng ai đó ở đó. ở đầu dây bên kia, đặc biệt nếu giọng nói đến từ người yêu, cha mẹ hoặc con cái.
Sau khi hoạt động thành công, rất khó để bắt được những kẻ lừa đảo bằng giọng nói. Các nạn nhân chỉ có thông tin hạn chế và cảnh sát khó kiểm soát phạm vi vì những kẻ lừa đảo bằng giọng nói hoạt động từ khắp nơi trên thế giới.
Với thông tin tối thiểu và nguồn lực cảnh sát hạn chế, hầu hết các trường hợp đều không được giải quyết. Ở Anh, cứ 1.000 trường hợp gian lận thì chỉ có 1 trường hợp bị buộc tội.
Link nguồn: https://cafef.vn/con-bi-dam-xe-roi-hay-chuyen-tien-ngay-chi-tiet-bat-thuong-trong-loi-keu-cuu-giup-nguoi-cha-thoat-bay-ke-lua-dao-trong-phut-chot-188230715103706558.chn