Người đàn ông gọi Ruth Card nghe giống cháu trai Brandon của bà. Vì vậy, khi anh ta nói rằng anh ta đang ở trong tù, không có ví hay điện thoại di động và cần tiền để được tại ngoại, Card đã cố gắng làm bất cứ điều gì có thể để giúp đỡ.
“Cảm giác của tôi lúc đó chắc chắn là… sợ hãi.” cô nhớ lại. “Rằng tôi phải giúp anh ấy ngay lập tức.”
Ruth Card, 73 tuổi và chồng là Greg Grace, 75 tuổi, vội vã đến ngân hàng gần nhất để rút 3.000 CAD (2.200 USD), hạn mức tối đa hàng ngày. Sau đó, họ đổ xô đến chi nhánh ngân hàng thứ hai để kiếm thêm tiền. Nhưng một giám đốc ngân hàng đã kéo họ vào văn phòng riêng để nói chuyện. Vì một khách quen khác của ngân hàng cũng nhận được một cuộc gọi tương tự và người này biết được rằng giọng nói trong điện thoại đã bị giả mạo. Và Card đã được nhân viên ngân hàng cảnh báo rằng người trên điện thoại có thể không phải là cháu trai của họ. Đó là khi họ nhận ra mình đã bị lừa.
“Chúng tôi đã bị cuốn vào nó,” Card cho biết trong một cuộc phỏng vấn với Các bài viết washington. “Chúng tôi khá chắc chắn rằng chúng tôi đang nói chuyện với Brandon.”
Ruth Card, người suýt bị lừa bởi một cuộc điện thoại giả mạo.
Lừa đảo mạo danh ở Mỹ nói riêng và trên toàn thế giới nói chung đang gia tăng, và câu chuyện của cô Card chỉ là một trong số đó, cho thấy một xu hướng đang gia tăng đáng lo ngại. Công nghệ đang khiến những kẻ xấu bắt chước giọng nói dễ dàng và tốn kém hơn để thuyết phục mọi người, chủ yếu là người lớn tuổi, rằng những người thân yêu của họ đang gặp nạn.
Tính đến năm ngoái 2022, lừa đảo mạo danh là hình thức lừa đảo phổ biến thứ hai ở Hoa Kỳ, với hơn 36.000 báo cáo về việc mọi người bị lừa đảo bởi những người đóng giả là bạn bè và thành viên gia đình, theo dữ liệu từ Ủy ban Thương mại Liên bang Hoa Kỳ. Các quan chức của FTC cho biết hơn 5.100 sự cố đã xảy ra qua điện thoại, gây thiệt hại hơn 11 triệu USD.
Những con số đang cho thấy những tiến bộ trong công nghệ trí tuệ nhân tạo đã tạo ra những điều đáng sợ mới, cho phép kẻ xấu sao chép giọng nói chỉ bằng một mẫu âm thanh đơn giản. Được hỗ trợ bởi AI, một loạt công cụ trực tuyến giá rẻ hiện có thể dịch các tệp âm thanh để tạo bản sao giọng nói, cho phép những kẻ lừa đảo “nói” bất cứ thứ gì chúng nhập.
Các chuyên gia cho biết các cơ quan quản lý và thực thi pháp luật cũng như tòa án ở các quốc gia không được trang bị đầy đủ để ngăn chặn trò lừa đảo đang gia tăng này. Hầu hết các nạn nhân đều có rất ít manh mối để xác định thủ phạm và cảnh sát cũng rất khó theo dõi các cuộc gọi và dòng tiền từ những kẻ lừa đảo hoạt động hầu như trên toàn thế giới. Và có rất ít tiền lệ pháp lý để các tòa án buộc các công ty sản xuất các công cụ AI phải chịu trách nhiệm về việc sử dụng chúng.
Hany Farid, giáo sư pháp y kỹ thuật số tại Đại học California ở Berkeley, cho biết: “Thật là hỗn loạn. Đó là một cơn bão hoàn hảo… tất cả các yếu tố để tạo ra sự hỗn loạn đã sẵn sàng.”
Mặc dù cách thức lừa đảo của những kẻ mạo danh có thể đa dạng và linh hoạt, nhưng về cơ bản chúng hoạt động theo cùng một nguyên tắc. Kẻ lừa đảo sẽ mạo danh một người đáng tin cậy – trẻ em, người yêu hoặc bạn bè – và thuyết phục nạn nhân gửi tiền cho chúng vì họ đang gặp khó khăn.
Và bây giờ, công nghệ kỹ thuật giọng nói đang làm cho những mánh khóe này trở nên thuyết phục hơn. Các nạn nhân cho biết họ đã trải qua nỗi kinh hoàng khi nghe tin người thân đang gặp nguy hiểm.
Đây cũng là tác động đen tối của sự trỗi dậy gần đây của trí tuệ nhân tạo nói chung, có thể hỗ trợ phần mềm tạo văn bản, hình ảnh hoặc âm thanh dựa trên dữ liệu được cung cấp. Những tiến bộ trong toán học và điện toán đã cải thiện cơ chế đào tạo cho phần mềm như vậy, thúc đẩy một nhóm công ty phát hành chatbot AI, trình tạo hình ảnh và trình tạo giọng nói giống như thật.
Giáo sư Farid cho biết phần mềm tạo giọng nói AI có thể phân tích các yếu tố khiến giọng nói của một người trở nên độc đáo – bao gồm tuổi tác, giới tính và cách phát âm – và tìm kiếm cơ sở dữ liệu. bộ dữ liệu khổng lồ về giọng nói để tìm giọng nói tương tự và dự đoán các mẫu.
Sau đó, nó có thể tái tạo lại cao độ, cao độ và các âm thanh riêng lẻ của giọng nói của một người để tạo ra hiệu ứng tổng thể tương tự, ông nói thêm. Và tất cả những gì họ cần là một mẫu âm thanh ngắn, có thể lấy từ những nơi như YouTube, podcast, quảng cáo, video TikTok, Instagram hoặc Facebook.
Ông nói: “Hai năm trước, thậm chí một năm trước, bạn cần rất nhiều dữ liệu âm thanh để tái tạo giọng nói của một người. Farid nói. “Bây giờ… nếu bạn có một trang Facebook… hoặc nếu bạn đã ghi âm giọng nói của mình trên TikTok trong 30 giây, mọi người có thể sao chép giọng nói của bạn.”
Các thành viên trong gia đình dễ dàng trở thành mục tiêu của các nhóm lừa đảo.
ElevenLabs, một công ty khởi nghiệp về công cụ tổng hợp giọng nói AI được thành lập vào năm 2022, có thể chuyển đổi một mẫu giọng nói ngắn thành giọng nói được tạo tổng hợp thông qua một công cụ độc quyền. Theo trang web của nhà phát triển, phần mềm ElevenLabs có thể miễn phí hoặc có giá từ $5 đến $330 mỗi tháng để sử dụng, với mức giá cao hơn cho phép người dùng tạo ra nhiều âm thanh hơn.
ElevenLabs đã nhận nhiều lời chỉ trích vì công cụ của họ đã được sử dụng để sao chép giọng nói của những người nổi tiếng. Công ty đã không trả lời các yêu cầu bình luận, nhưng trong một chủ đề Twitter, đại diện của ElevenLabs cho biết họ đang kết hợp các biện pháp bảo vệ để ngăn chặn lạm dụng, bao gồm cấm người dùng miễn phí tạo giọng nói tùy chỉnh và khởi chạy công cụ phát hiện âm thanh do AI tạo ra.
Nhưng những biện pháp bảo vệ như vậy là quá muộn đối với những nạn nhân như Benjamin Perkin, người có cha mẹ đã mất hàng nghìn đô la tiền tiết kiệm vì một vụ lừa đảo bằng giọng nói.
Cơn ác mộng của anh bắt đầu khi bố mẹ anh nhận được điện thoại từ một luật sư nói rằng con trai họ đã giết một nhà ngoại giao Mỹ trong một vụ tai nạn ô tô. Perkin đang ở trong tù và cần tiền cho các chi phí pháp lý. Sau đó, một cuộc gọi khác đến, với một giọng nói giống như “Perkin”, nói rằng anh ta cần khoảng 15.000 đô la trước khi phải ra tòa vào cuối ngày hôm đó.
Cha mẹ của Perkin cho biết sau vụ việc rằng cuộc gọi có vẻ bất thường, nhưng họ cảm thấy họ thực sự đang nói chuyện với con trai mình. Trong tâm trạng hoảng loạn, họ vội vã đến ngân hàng để lấy tất cả số tiền mặt họ có và gửi cho luật sư vô danh.
Khi Perkin thật gọi điện cho cha mẹ mình vào đêm hôm đó, tất cả họ đều bối rối. Không rõ những kẻ lừa đảo đã lấy mẫu giọng nói của Perkin từ đâu, nhưng nhiều khả năng đó là từ các video mà anh ta đăng trên YouTube nói về sở thích trượt tuyết của mình. Perkin cho biết gia đình đã báo cảnh sát, nhưng điều đó không giúp lấy lại được số tiền.
“Không có bảo hiểm. Không thể lấy lại được. Nó đã hoàn toàn biến mất.”anh ấy đã chia sẻ.
Will Maxson, trợ lý giám đốc thực hành tiếp thị tại FTC, cho biết việc theo dõi những kẻ lừa đảo bằng giọng nói có thể “đặc biệt khó khăn” vì chúng có thể sử dụng điện thoại ở bất cứ đâu trên thế giới. thế giới, khiến cho việc xác định cơ quan nào có thẩm quyền đối với một vụ lừa đảo trở nên đặc biệt phức tạp.
Maxson kêu gọi mọi người tiếp tục cảnh giác. Nếu một người thân yêu nói với bạn rằng họ cần tiền, hãy tạm dừng cuộc gọi và thử gọi riêng cho thành viên đó. Nếu một cuộc gọi đáng ngờ đến từ số của một thành viên trong gia đình, hãy hiểu rằng cuộc gọi đó cũng có thể bị giả mạo. Quan trọng nhất, không bao giờ trả tiền cho người lạ bằng các công cụ khó theo dõi như thẻ quà tặng và cảnh giác với mọi yêu cầu về tiền mặt.
Trong khi đó, Giáo sư Farid cho biết tòa án nên quy trách nhiệm cho các công ty AI nếu sản phẩm họ tạo ra gây hại.
Về phần Card, kinh nghiệm đã khiến cô cảnh giác hơn. Năm ngoái, cô đã nói chuyện với tờ báo địa phương để cảnh báo mọi người về những trò gian lận này. Vì không mất đồng nào nên cô không báo cảnh sát. Nhưng trên hết, cô ấy nói rằng cô ấy cảm thấy xấu hổ.
“Đó không phải là một câu chuyện hấp dẫn.”cô ấy nói. “Nhưng nó không nhất thiết phải tốt hơn câu chuyện giả đã thuyết phục chúng tôi.”
Thẩm quyền giải quyết Các bài viết washington
Link nguồn: https://cafef.vn/nguoi-than-dang-keu-cuu-tren-dien-thoai-can-than-do-co-the-la-mot-tro-lua-dao-bang-ai-20230306141102127.chn