Deepfake là gì?
Ngay cả khi bạn không phải là một fan hâm mộ lớn của tin tức công nghệ, cụm từ “deepfake” chắc chắn khiến bạn liên tưởng đến một loại công nghệ nào đó, bởi vì gần đây khái niệm này đã được đề cập. nặng nề trên các phương tiện truyền thông.
Theo Kaspersky (hãng bảo mật của Nga), deepfake là sự kết hợp của hai từ “deep” trong deep-learning và “fake” (đánh lừa). Deepfake có thể hiểu là một phương pháp trí tuệ nhân tạo (AI) tiên tiến, sử dụng nhiều lớp thuật toán máy học để trích xuất dần các tính năng cấp cao hơn từ đầu vào là dữ liệu thô. học từ dữ liệu phi cấu trúc – chẳng hạn như khuôn mặt người. Nó thậm chí có thể thu thập dữ liệu về chuyển động vật lý của mọi người.
Dữ liệu hình ảnh cũng sẽ được xử lý thêm để tạo video deepfake thông qua GAN (Creative Adversarial Network). Đây là một loại hệ thống học máy chuyên dụng. Hai mạng thần kinh có thể được sử dụng để cạnh tranh với nhau trong việc học các tính năng đã có trong kho dữ liệu thông tin nhằm mục đích đào tạo AI (Ví dụ: Ảnh chụp nhanh khuôn mặt) và sau đó tạo ra dữ liệu mới có cùng đặc điểm (“ảnh” mới).
Khả năng học tập của AI liên tục được kiểm tra và so sánh với dữ liệu gốc để phục vụ cho mục đích huấn luyện nên hình ảnh do AI “làm giả” ngày càng thuyết phục. Điều này làm cho deepfakes trở thành mối đe dọa lớn hơn bao giờ hết. Không chỉ hình ảnh, AI còn có thể giả mạo các dữ liệu khác, một số công nghệ deepfake có thể dùng để giả giọng nói.
Sử dụng deepfake để lan truyền tin giả?
Rất khó để giải thích cụ thể cách hoạt động của deepfake dưới góc độ kỹ thuật. Nhưng có thể hiểu đơn giản rằng, deepfake với khả năng học hỏi dữ liệu khuôn mặt, hình ảnh và giọng nói của con người, nó sẽ khiến khuôn mặt của người A gắn trên cơ thể của người B rất giống thật, đến mức khó có thể nói chỉ bằng cách nhìn vào nó.
Năm 2017, một công ty khởi nghiệp về AI có tên Lyrebird đã phát hành bản sao giọng nói của các nhà lãnh đạo Mỹ như ông Trump, ông Obama và bà Hilary Clinton. Kể từ đó, chất lượng đã được cải thiện rất nhiều và thậm chí ứng dụng Lyrebird cũng được mở cho công chúng sử dụng.
Một ví dụ khác, minh chứng cho sự nguy hiểm của deepfake là đoạn video do nam diễn viên Jordan Peele thực hiện, nhóm kỹ xảo đã sử dụng cảnh quay thật của Barack Obama kết hợp với chỉnh sửa video và kỹ thuật “deepfake”. tung đoạn diễn văn giả mạo, trong đó ông Obama dùng ngôn ngữ xấu để nói về ông Trump.
Ngay sau đó, nam diễn viên Jordan Peele đã đăng tải hai nửa của video ghép lại trông như thế nào với mục đích cảnh báo mọi người về những chiêu trò tinh vi của tin giả mà chúng ta có thể bắt gặp trên môi. trường internet. Được biết, ê-kíp của nam diễn viên đã mất khoảng 60 giờ để tạo ra đoạn phim giả nhưng rất chân thực này.
Ông Obama không phải là chính trị gia duy nhất bị deepfake làm giả, ngay cả nhà sáng lập mạng xã hội Facebook cũng bị deepfake “làm giả”, từ một bài phát biểu đơn giản, deepfake đã tạo ra một video mà Mark Zuckerberg thừa nhận. Facebook đánh cắp dữ liệu người dùng và đang kiểm soát tương lai Mặc dù trong video này, AI giả giọng Mark Zuckerberg không quá giống nhưng cũng rất khó để nhận ra.
Tất cả những ví dụ trên chỉ là những video có độ phân giải cao và chi tiết, nhưng nếu bạn nghĩ hình ảnh càng sắc nét thì càng dễ gian lận thì có lẽ bạn đã nhầm. Nancy Pelosi từng là nạn nhân của một video giả mạo với những phát ngôn như một kẻ say rượu, video giả mạo này có chất lượng cực kỳ kém nhưng đã nhanh chóng thu hút hàng triệu lượt xem trên mạng xã hội, buộc Nancy Pelosi phải đính chính ngay lập tức.
Deepfake – Lừa đảo và tống tiền
Chưa dừng lại ở việc sử dụng deepfake để tung hàng loạt tin giả chính trị, hay trả thù cá nhân. Những kẻ lừa đảo cũng áp dụng công nghệ này để tống tiền và chiếm đoạt tài sản.
Giám đốc điều hành của một công ty năng lượng đã bị lừa 243.000 đô la chỉ bằng giọng nói deepfake của người đứng đầu công ty đó với yêu cầu chuyển tiền khẩn cấp. Sự giả mạo thuyết phục đến mức CEO không có thời gian để nghi ngờ và không nghĩ đến việc kiểm tra chéo, số tiền không được chuyển đến trụ sở chính mà vào tài khoản ngân hàng của bên thứ ba. Giám đốc điều hành chỉ trở nên nghi ngờ khi “sếp” của anh ta yêu cầu một đợt chuyển tiền khác. Kẻ làm giả bị phát hiện, nhưng đã quá muộn để lấy lại 243.000 đô la mà anh ta đã chuyển trước đó.
Tại Pháp, một người tên Gilbert Chikli đã mạo danh, sao chép tỉ mỉ văn phòng của Bộ trưởng Ngoại giao Jean-Yves le Drian và đồ đạc trong đó để lừa đảo các quan chức cấp cao. cấp cao hàng triệu euro. Kẻ lừa đảo Gilbert Chikli sau đó bị buộc tội cải trang thành bộ trưởng để đòi tiền chuộc từ các cá nhân giàu có và giám đốc điều hành công ty nhằm giải thoát các con tin người Pháp ở Syria. để hầu tòa cho hành động của mình.
Ông chủ Facebook cũng “bị” deepfake để giả cả mặt lẫn giọng nói.
Tổng số tiền trong các video khiêu dâm là một kịch bản dường như dành cho tất cả mọi người khi deepfake ra đời. Cụ thể, công cụ này đã từng được sử dụng để tống tiền các nữ phóng viên, nhà báo, trường hợp của Rana Ayyub ở Ấn Độ, nữ phóng viên này đã bị ghép mặt vào các đoạn phim khiêu dâm, sau đó kẻ gian đã sử dụng nó. sử dụng những video giả mạo này để tống tiền cô ấy.
Khi công nghệ tiến bộ và việc tiếp cận deepfake trở nên đơn giản hơn và rẻ hơn để thực hiện, mức độ nguy hiểm sẽ tăng lên mỗi ngày. Nếu chúng ta không trang bị đủ kiến thức và thông tin thì rất khó để nhận ra deepfakes.
Làm cách nào để tự bảo vệ mình khỏi deepfake?
Trước những thủ đoạn ngày càng tinh vi, không phải người dùng nào cũng đủ kiến thức công nghệ thông tin để có thể nhận diện video, âm thanh giả bằng AI. Hầu hết các chuyên gia bảo mật đều đưa ra lời khuyên để tránh những tình huống xấu có thể xảy ra, đặc biệt là nâng cao tính bảo mật cho các tài khoản trực tuyến.
Tin tưởng nhưng vẫn phải xác minh: Nếu bạn nhận được tin nhắn thoại, đặc biệt là những tin nhắn hướng đến mục đích vay tiền hoặc mượn tài sản cá nhân của bạn. Mặc dù giọng nói nghe rất quen thuộc và cực kỳ sống động, nhưng tốt nhất bạn vẫn nên gọi lại bằng số điện thoại mà bạn biết là chính xác để xác minh rằng đồng nghiệp hoặc người thân của bạn đã thực sự gửi yêu cầu bằng hộp thư thoại. tin nhắn thoại.
Đừng vội vàng vào bất kỳ liên kết nào: Khi người thân gửi cho bạn một liên kết có cấu trúc lạ, đừng vội bấm vào liên kết/nút đó. Rất có thể đó là một cái bẫy được thiết lập để những kẻ lừa đảo chiếm đoạt tài khoản trực tuyến của bạn. Hãy thử xác minh lại với người đã gửi tin nhắn cho bạn.
Để ý từ những điều nhỏ nhặt nhất: Nếu nhận được cuộc gọi chuyển tiền hoặc cuộc gọi video có nội dung chuyển tiền, dù là người thân, bạn vẫn cần kiểm tra kỹ số điện thoại, email hoặc tài khoản có trùng khớp với người đó hay không. thực hiện yêu cầu hay không. Thông thường các đối tượng sẽ yêu cầu chuyển tiền vào tài khoản của bên thứ ba hoặc tài khoản có tên tương tự.
Hạn chế quyền truy cập vào giọng nói và hình ảnh của bạn: Như chúng ta đã biết, để có thể tạo ra hình ảnh và âm thanh giả, những kẻ lừa đảo sẽ cần bản ghi âm, ảnh hoặc cảnh quay của bạn để tạo ra sản phẩm giả. Để ngăn dữ liệu hình ảnh và âm thanh của bạn bị sao chép, hãy hạn chế sự hiện diện của bạn trên mạng xã hội hoặc đặt tài khoản của bạn ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin cậy.
Không chỉ vậy, một số chuyên gia bảo mật còn đưa ra lời khuyên để có thể phát hiện deepfake ngay lập tức như sau:
– Chuyển động bị giật, như video lỗi
– Ánh sáng được thay đổi liên tục từ khung này sang khung khác
– Thay đổi tông màu da liên tục
– Video có hiện tượng nhấp nháy kỳ lạ
– Miệng không đồng bộ với lời nói
– Hiển thị các đối tượng kỹ thuật số trong hình ảnh
– Âm thanh và/hoặc video chất lượng thấp
– Nhân vật nói liên tục, không chớp mắt
Deepfake – Hình thức lừa đảo nguy hiểm sẽ phổ biến hơn trong tương lai?
Tính đến tháng 6 năm 2019, số lượng video deepfake mà IBM phát hiện chỉ là 3.000. Nhưng vào tháng 1 năm 2020, con số đó đã tăng lên 100.000. Và tính đến tháng 3 năm 2020, có hơn một triệu video deepfake lưu hành trên internet.
Theo một nghiên cứu khác từ Deeptrace, vào tháng 12 năm 2018, đã có 15.000 video deepfake được tạo. Con số này đã tăng lên 558.000 vào tháng 6 năm 2019 và tăng vọt lên hơn một triệu vào tháng 2 năm 2020.
Cũng trong nghiên cứu của Deeptrace, có tới 96% video deepfake được tạo ra với mục đích bất hợp pháp. Những con số này không biết nói dối, cảnh báo chúng ta về một viễn cảnh tồi tệ. Công nghệ ngày càng phát triển, việc truy cập deepfake ngày càng đơn giản và ít tốn kém hơn nên những luồng thông tin giả mạo, lừa đảo,… ứng dụng deepfake rất có thể sẽ tràn lan. trên môi trường internet.
Vì vậy, hãy hết sức cẩn thận khi sử dụng internet, đặc biệt là với các nền tảng mạng xã hội, nơi chúng ta luôn thoải mái chia sẻ nhiều thông tin cá nhân khiến kẻ xấu dễ dàng lợi dụng. thực hiện gian lận.
Link nguồn: https://cafef.vn/deepfake-va-video-cuoc-goi-gia-mao-lien-tiep-lua-dao-hang-ti-dong-voi-thu-doan-ngay-cang-tinh-vi-lam-the-nao-de-bao-ve-ban-than-20230312102017778.chn