Преступники активно применяют технологии искусственного интеллекта для совершения незаконных действий. В частности, они создают фальшивые видео с использованием дипфейков, где изображены родственники или знакомые предполагаемой жертвы, которые просят одолжить деньги. Об этом сообщает пресс-служба РИА Новости, опираясь на данные МВД.
По информации из материалов, мошенники задействуют нейросети для преобразования фотографии в видеоролик, который воспроизводит мимику, голос, жесты и эмоциональную окраску человека, изображённого на снимке. Созданные видеозаписи направляются близким и друзьям жертвы с целью получения денежных средств.
Представители правоохранительных органов рекомендуют, получив подобное сообщение, незамедлительно связаться с человеком, от чьего имени якобы пришла просьба, по телефону, чтобы подтвердить информацию о цели перевода. На этом этапе зачастую выясняется, что аккаунт лица был взломан.
Ранее было опубликовано, что на территории России злоумышленники начали проводить махинации с продавцами торговых точек, представляясь проверяющими терминалы.