Khi đôi tai không còn đáng tin…
Hãy tưởng tượng bạn vừa trở về nhà sau một ngày dài làm việc và chuẩn bị ngồi ăn tối với gia đình thì đột nhiên điện thoại di động của bạn đổ chuông. Ở đầu dây bên kia là một thành viên trong gia đình, có thể là cha mẹ, con cái hay một người bạn lâu năm. Một người thân đang gặp tai nạn khẩn cấp và cầu xin bạn gửi tiền cho họ ngay lập tức.
Bạn không hiểu gì cứ thử hỏi vài câu để lấy thông tin. Đầu dây bên kia dừng một chút rồi bắt đầu chậm rãi trả lời, đưa ra lý do mơ hồ và giọng điệu khác thường.
Tuy nhiên, bạn chắc chắn đó là người thân của mình bởi giọng nói đó không lẫn vào đâu được. Hơn nữa, số điện thoại chính xác là của một người quen. Lo lắng và muốn trấn an người thân, bạn nhanh chóng gửi tiền vào tài khoản ngân hàng vừa được cung cấp.
Sáng hôm sau, bạn gọi lại hỏi xem người thân thế nào sau sự việc đêm qua. Người họ hàng trả lời rằng mọi thứ đều ổn và tự hỏi bạn đang đề cập đến điều gì.
Bạn choáng váng và lờ mờ nhận ra mình đã bị lừa bởi công nghệ tinh vi. Không có người thân nào gọi cho bạn tối qua, chỉ có kẻ gian sử dụng công nghệ giả giọng nói (Voice Deepfake) và biến bạn thành nạn nhân của một hình thức lừa đảo mới. Hàng ngàn người đã bị lừa theo cách này vào năm 2022.
Tỷ lệ người dùng nhận ra giọng giả chỉ là 57% – Ảnh: Shutterstock
Làm thế nào để giả giọng?
Vài năm trở lại đây, hầu hết người dùng đều biết đến video sử dụng công nghệ Deepfake để giả mạo khuôn mặt của người nổi tiếng thông qua thuật toán có khả năng thay thế đặc điểm nhận dạng của một cá nhân bằng đặc điểm nhận dạng của một người. khác. Các video deepfake tinh vi đến mức mọi thứ trông y như thật mà không ai nghi ngờ. Giờ đến lượt công nghệ giả giọng nói (Voice Deepfake).
Theo HowToGeek, Voice Deepfake là một khái niệm giả mạo giọng nói bằng thuật toán, tạo ra các tổ hợp giọng nói mới không thể phân biệt được với giọng nói thật của con người.
“Nghĩ đơn giản cũng giống như ứng dụng Photoshop, nhưng cho giọng nói,” Zohaib Ahmed, CEO của Resemble AI nói về công nghệ nhân bản giọng nói mà công ty đang phát triển.
Tuy nhiên, Photoshop dở thì rất dễ bị phát hiện, còn với âm thanh Deepfake, một công ty bảo mật tiết lộ tỷ lệ người bình thường có thể xác định một đoạn âm thanh là giả hay thật chỉ là 57%, không hơn gì việc tung ra đoạn âm thanh là bao. đồng xu may mắn? Ngoài ra, nhiều bản ghi âm giọng nói được lấy từ các bản ghi âm cuộc gọi chất lượng thấp hoặc được ghi trong môi trường ồn ào. Giọng nói Deepfake Nó dễ gây nhầm lẫn cho khán giả hơn. Chất lượng âm thanh càng tệ thì càng khó phát hiện bản ghi là giả.
Tổng số tiền các nạn nhân bị lừa đảo bằng giọng nói lên tới 11 triệu USD vào năm 2022 – Ảnh: AP
Để giả giọng cũng không hề đơn giản. Công việc này đòi hỏi rất nhiều nguồn lực cũng như trình độ năng lực kỹ thuật nhất định. Bất cứ ai muốn tạo giọng nói sẽ cần một tệp dữ liệu của giọng nói mục tiêu, tệp này sẽ chạy qua một trình tạo giọng nói giả.
Ngày càng có nhiều dịch vụ hỗ trợ trả phí để tạo giọng nói chất lượng trung bình đến cao. Một số công cụ giả mạo giọng nói chỉ yêu cầu người dùng nhập giọng nói mẫu dài một phút, thậm chí vài chục giây.
Tuy nhiên, việc thuyết phục một người quen – như trong ví dụ lừa đảo chuyển tiền ở trên – sẽ yêu cầu số lượng mẫu lớn hơn đáng kể.
Chia sẻ với Channel News Asia, hai chuyên gia bảo mật Matthew và Christopher Schwartz đến từ Học viện Công nghệ Rochester, Mỹ cho biết, với những tiến bộ không ngừng trong các thuật toán học sâu, cải tiến kỹ thuật và chỉnh sửa âm thanh đã tạo nên chất lượng giọng nói do máy tính tạo ra. ngày càng khó phân biệt với giọng nói thật của con người.
Năm 2019, một công ty năng lượng ở Mỹ bị lừa 243 nghìn USD khi tội phạm giả giọng lãnh đạo công ty, yêu cầu nhân viên chuyển tiền cho nhà cung cấp.
Năm 2022, tổng số tiền người dùng bị lừa đảo bằng hình thức giả mạo giọng nói của người thân đã lên tới 11 triệu USD.
Tệ hơn nữa, các chatbot như ChatGPT với khả năng trả lời cuộc trò chuyện theo thời gian thực có thể kết hợp với trình tạo giọng nói dựa trên văn bản để tạo ra phiên bản kỹ thuật số sống động như thật của một cá nhân. Những kẻ lừa đảo có thể sử dụng những công cụ này để nâng cao hiệu suất đánh lừa người nghe của chúng.
Chatbot kết hợp máy phát giọng nói có thể trở thành công cụ lừa đảo nguy hiểm – Ảnh: Forbes
Bảo vệ bạn trước những mối nguy hiểm mới
Các chuyên gia bảo mật lưu ý, để bảo vệ mình hãy cảnh giác với các cuộc gọi khẩn cấp. Hãy cúp máy và gọi lại để kiểm tra với người thân của bạn trước khi thực hiện bất kỳ giao dịch chuyển tiền nào. Bạn không cả tin và chỉ cần nhìn vào số điện thoại di động, tài khoản mạng xã hội của bạn và chắc chắn rằng đó là thành viên gia đình của bạn. Những thông tin này có thể bị làm giả hoặc thông tin cá nhân của người thân đã bị kẻ gian đánh cắp.
Hãy chủ động xác minh với người gọi. Ví dụ, nếu bạn nhận được cuộc gọi từ một người tự xưng là đại diện của ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có thực sự là do ngân hàng thực hiện hay không.
Cuối cùng, hãy giữ thông tin cá nhân của bạn cẩn thận, như số Chứng minh nhân dân, địa chỉ nhà, ngày sinh, số điện thoại, tên đệm và thậm chí cả tên của con cái và thú cưng của bạn. Những kẻ lừa đảo có thể sử dụng thông tin này để mạo danh bạn khi liên hệ với ngân hàng của bạn và những người khác. Những lời khuyên cơ bản này là chìa khóa để bảo vệ bạn khỏi bị thao túng tâm lý và cảnh giác trong trường hợp bị lừa đảo.
Nguồn tham khảo: Channel News Asia, Forbes, BBC
Link nguồn: https://cafef.vn/canh-bao-lua-dao-bang-ai-lam-gia-giong-noi-188230329110605639.chn