Дипфейки — новая угроза. Помешать преступлениям помогут специальные программы
Технология дипфейков улучшается постоянно, и ее предсказуемо начали использовать преступники. С ее помощью людей помещают в порно и могут подставить, а также манипулируют общественным мнением. И раз дипфейки становятся угрозой безопасности, страны и компании готовы тратить большие деньги на борьбу с подделками.
О технологии дипфейк говорят на протяжении последних лет. Слово образовано из двух составляющих — deep learning, что обозначает «обучение нейросетей», и fake, то есть «подделка». С помощью дипфейков получается заменить лицо другого человека на видео. Искусственный интеллект анализирует фотографии лиц и учится тому, как правильно двигается и выглядит тот или иной человек. Технология также позволяет изменять скорость голоса человека и даже его речь.
Первые дипфейки появились в 2017 году, когда пользователь Reddit загрузил поддельные порнографические ролики на сайт. На них лица порноактеров заменили на лица американских звезд — Галь Гадот, Тейлор Свифт, Скарлетт Йоханссон и других.
Создавать дипфейки на обычном компьютере было непросто. Большинство поддельных роликов делали на высокопроизводительных компьютерах с мощными видеокартами и большим объемом памяти. Это позволяло уменьшить время на производство с дней и недель до нескольких часов.
Однако сейчас с развитием приложений создавать дипфейки становится намного проще. По словам генерального директора компании AnyClip, дипфейки представляют даже большую угрозу, чем фейковые новости: любой может убедительно вставить слова в чью-то речь.
Опасная технология
В Сети полно безобидных дипфейковых видео. Среди них есть как простые и некачественные, например замена героев фильмов на Николаса Кейджа, так и более сложные. За примером ходить далеко не надо: в начале этого года в TikTok якобы появился аккаунт Тома Круза, который показывает фокусы и играет в гольф.
Но иногда технологию используют совсем не для развлечений. Американка Рафаэлла Споун решила прибегнуть к дипфейкам, чтобы отмстить за свою дочь, которую якобы обижали другие члены команды по чирлидингу. Как пишет «Газета.ru», Споун разослала тренеру и самим обидчицам порноролики с их участием, а также видео, где они принимают запрещенные вещества и пьют алкоголь.
Полиция выяснила, что Споун создавала видео на основе фотографий из аккаунтов девушек в соцсетях и смонтировала их при помощи технологии дипфейков. Дочь Споун не подозревала о намерениях матери, а саму американку обвинили в киберхарассменте.
Дипфейки использовались не только для преследования жертв, но и для мошенничества. Китайским аферистам удалось два года подряд обманывать систему распознавания лиц и заработать на этом 76 миллионов долларов. Они покупали фотографии существующих людей в даркнете и с помощью дипфейка «оживляли» их. А затем пользовались смартфонами, у которых система распознавания лиц принимала фейки за живое лицо, и подделывали налоговые накладные.
С помощью подделки голоса хакер смог украсть 243 тысячи долларов у британской энергетической компании. Он позвонил ее генеральному директору и представился главой немецкой компании Euler Hermes Group. Ему даже удалось подделать акцент и интонацию коллеги из Германии с помощью технологий.
Как распознать фейк
Дипфейк становится серьезной проблемой в интернете и, в частности, в социальных сетях, поскольку технология быстро улучшается. В 2018 году исследователи из США выяснили, что поддельные лица моргают не так, как обычные люди. Причина была в том, что алгоритмы зачастую анализируют фотографии, где глаза открыты. Но как только исследование было опубликовано, дипфейковые лица научились моргать.
Перед выборами президента США в 2020 году Facebook начал блокировку видео, которые могли бы ввести пользователей в заблуждение о том, что конкретные люди произносили определенные речи.
Сегодня правительства, университеты и технологические компании спонсируют исследования, которые могли бы определять подделки. В прошлом году Facebook и Microsoft подвели итоги общего конкурса на создание разоблачителя дипфейков. Победителем стал минский программист Селим Сефербеков.
А у МВД России уже к 2022 году появится программа — разоблачитель дипфейков. Она будет называться «Зеркало (Верблюд)» и будет искать признаки внутрикадрового монтажа, которые сделали нейронные сети. Работы по исследованию завершатся 30 ноября следующего года, а контракт стоимостью 3,5 миллиона рублей заключили 4 марта.