Аналитики всё больше обращают внимание на растущее использование мошенниками дипфейков.
Как отметил в интервью Life.ru член комитета Государственной Думы по информационной политике Антон Немкин, современные нейросетевые технологии позволяют с впечатляющей точностью моделировать внешность, голос и мимику. Это предоставляет злоумышленникам возможность создавать убедительные видеообращения от лица известных персон, коллег, начальников или даже родственников жертв.
Одним из популярных методов мошенничества, по словам депутата, стала рассылка в видеоформате сообщений о так называемых «социальных компенсациях». В этих роликах обычно «участвует» известное лицо, призывающее перейти по указанной ссылке и ввести свои персональные данные. Люди часто попадаются на эту уловку из-за правдоподобности изображений и голосов, продемонстрированных в видео. Немкин предупредил, что это новая разновидность социальной инженерии, усиленная передовыми технологиями.
Парламентарий подчеркнул, что возможность распознать дипфейк всё-таки существует, если быть внимательным. В ходе видеозвонков можно попросить собеседника сделать простые физические действия - поднять руки, повернуть голову или назвать текущее время. В силу ограниченных возможностей современных технологий, нейросети пока не способны точно имитировать такие действия, что приводит к задержкам в движениях, неестественным реакциям и различным сбоям. Мимику и интонацию тоже стоит анализировать — даже самые совершенные дипфейки пока не способны передать движение губ, паузы и эмоции с идеальной точностью.
Немкин также напомнил золотое правило цифровой безопасности: необходимо всегда с осторожностью относиться к любым видеороликам и внешним ссылкам, требующих быстрого реагирования — перевода денежных средств, ввода кода или передачи личных данных.
«Наилучший выход — перепроверить информацию через другие источники, связаться лично с предполагаемым отправителем или обратиться в официальную организацию», — подытожил эксперт.