Фото: ferra.ru
Опасны ли такие технологии?
Украинская компания уже два года трудится над искусственным интеллектом, способным синтезировать голос любого человека.
Искусственный интеллект подделывает любой голос? Ничего изумительно, украинцы из Respeecher освоили технологию и уже даже заключили контракт с голливудской студией.
Но технологию можно использовать не лишь в индустрии развлечений, но и для мошенничества.
Как это работает
Respeecher может научиться имитировать любой голос. Для начала нужны две аудиодорожки: на одной — запись оригинального голоса, на иной — запись актера, который слово в слово повторяет произнесенный текст.
На этом этапе программа тренируется: сравнивает обе записи и показывает, чем один голос отличается от другого.
Теперь, когда искусственный интеллект понимает разницу, он способен превращать голос артиста в требуемый — какой бы текст он не зачитывал.
Чтобы программа сработала эффективно, ей нужно проанализировать по крайней мере час записи целевого голоса — того, какой надо сымитировать. С высокой вероятностью за это время она услышит достаточное разнообразие слов и звукосочетаний, проанализирует особенности целевого голоса и поймет, как их вытекает воспроизводить.
Примеры
Недавно в сети появилось видео, на котором Ричард Никсон, президент США в 1969-1974 годах, повествует о гибели астронавтов миссии Аполлон-11, которая в 1969 году доставила людей на Луну.
В реальности миссия прошла успешно, ни один из астронавтов не погиб. Видео создали в Массачусетском институте технологий. Никсона «заставили» зачитать выговор, текст которой когда-то была написано на случай провала космической миссии, но с которой президент так никогда и не вышел на публику.
[embedded content]
Для создания облика понадобились две основные технологии: искусственный интеллект от Respeecher, который синтезирует голос Никсона, и искусственный интеллект от компании Canny AI, какой изменил архивную видеозапись одной из настоящих речей президента США так, чтобы движения губ и мимика Никсона совпадали с тем текстом, какой он произносит благодаря Respeecher.
Мошенничество
Однако, технология подделки голоса с помощью искусственного интеллекта служит не лишь для научных и развлекательных целей.
В сентябре 2019 года генеральный директор одной британской энергетической компании поговорил по телефону со своим начальником — главой головного офиса в Германии. Тот попросил его срочно перевести венгерскому поставщику почти 250 тысяч долларов. Денежки ушли на счет венгерского банка, а британский топ-менеджер даже не заподозрил, что все это время разговаривал с роботом.
Голос на товарищем конце линии был так похож на голос его начальника: искусственный интеллект имитировал не только манеру общения, но и легкий немецкий ударение. Афера вскрылась, лишь когда мошенники попытались провернуть этот трюк во второй раз.
Деньги киберпреступники послали сначала в Мексику, а затем распределили их по разным счетам. Пока полиция не смогла их найти.
«Опасения не беспочвенны, но люд всегда склонны несколько преувеличивать. Пока реалистичное синтезирования голоса — это процесс, требующий довольно значительных ресурсов. Кушать серьезные требования к качеству записей, есть большой объем работы, который нужно выполнить, есть немало иных аспектов, влияющих на результат. Технология пока не на том уровне, когда кто-либо из легкостью может ее использовать в каких-то нехороших мишенях «, — говорит основатель Respeecher Александр Сердюк в интервью BBC News Украина.