Мошенники могут синтезировать голос того или иного человека и использовать его для преступлений. Об этом рассказал в беседе с радио Sputnik эксперт по информационной безопасности Алексей Лукацкий.
Фото: pexels.com pexels.com
Как отметил специалист, современные технологии позволяют создать ?звуковой двойник? с помощью хорошо обученной нейросети. При определенных условиях сгенерированный двойником голос может звучать, словно действительно принадлежит определенному человеку.
?Отличить алгоритмическую речь от реальной будет достаточно сложно. И мы действительно можем подумать, что звонит наш родственник или какой-то близкий человек?, - рассказал Алексей Лукацкий.
Мошенники могут добыть образцы голоса из разных источников – например, записать телефонные переговоры или даже просто забрать звук из видео, которое потенциальная жертва самостоятельно разместила в социальной сети.
Чтобы обезопасить себя от мошенничества с использованием ?двойника?, следует настороженно относиться к любым действиям, связанным с какой-либо оплатой либо озвучиванием логинов, паролей и пин-кодов. При малейшем подозрении следует самостоятельно перезвонить человеку, в голосе которого вы подозреваете ?звукового двойника?.