Российский актёр театра, кино и дубляжа Владимир Зайцев прокомментировал «Ридусу» инициативу Союза дикторов России ввести регулирование использования голосов, синтезированных искусственным интеллектом.
Зайцев отметил, что, с одной стороны, попытки «кражи» голосов актёров, дикторов и ведущих необходимо предотвращать, но, с другой, такие «кражи» чисто по финансовым причинам не могут быть распространённым явлением.
«Конечно, это надо пресекать, но это дорогое удовольствие — синтезировать голос. Если кто-то на это способен пойти, это ему будет стоить очень больших расходов», — сказал актёр в беседе с «Ридусом».
Ранее получило огласку обращение Союза дикторов России к главе Комитета Государственной думы РФ по информполитике Александру Хинштейну с просьбой пресечь бесконтрольный синтез голосов. Его авторы отмечают, что разработчики уже вовсю продают подделанные голоса дикторов.
«В Союз дикторов уже поступают обращения о фактах кражи голоса. Один из примеров: диктор 18 лет назад записал свой голос для научной работы на кафедре фонетики учебного заведения в Санкт-Петербурге, а пару лет назад обнаружил, что теперь его голос продают на нескольких платформах в виде синтеза».
Во избежание угроз безопасности персональных данных и вытеснения живых дикторов из профессии Союз предложил депутатам ограничить использование синтезированных голосов, например перейти на лицензионные договоры с четким сроком действия и разрешить использовать синтезированную запись только в проекте, для которого она создаётся.
Владимир Зайцев уже около 30 лет работает на озвучивании фильмов, компьютерных игр («Ведьмак») и рекламных роликов. На российских экранах голосом Зайцева регулярно говорят Джейсон Стэтхем и Роберт Дауни-младший, среди других известных его работ — дублирование Брэда Питта в «Бесславных ублюдках» и Хита Леджера в «Тёмном рыцаре». Он также снялся в нескольких десятках фильмов и сериалов и как режиссёр работал над несколькими выпусками журнала «Фитиль».
Схожие технологии уже вовсю применяются в видео при создании так называемых дипфейков — роликов с цифровыми двойниками людей, почти неотличимыми от настоящих. Ранее IT-эксперт Илья Костунов рассказывал «Ридусу» об известных примерах вредоносного использования дипфейков в бизнесе и политике.
«Допустим, были инциденты, когда подделывали голос генерального директора и давали кому-то устное распоряжение. Или снимали какой-то дискредитирующий сюжет и вставляли туда изображение какой-нибудь важной персоны. Я думаю, в ближайшем будущем мы вообще потеряем возможность отличать настоящий контент от поддельного», — сказал Костунов.
Эксперт добавил, что применение дипфейков или чужих синтезированных голосов в теории «может закончиться катастрофой», если из-за него в чрезвычайной ситуации будут приняты неправильные решения.