Компьютер против лжи. Разработка российских ученых поможет бороться с дипфейками
Эксперт по кибербезопасности Мясоедов заявил, что дипфейки могут быть опасны
Российские ученые создали программу, которая распознает на видео ложь и использование технологии подмены лиц. Пока разработка понимает только английский, ведь ее «тренировали» на предвыборных обещаниях политиков. Однако если авторы смогут обучить нейросеть русскому языку, она принесет неоценимую помощь.
ИИ распознает ложь
Институт точной механики и оптики сообщил о новой разработке в области искусственного интеллекта. Программа позволяет анализировать видеозаписи, распознавать на ней ложь и выявлять дипфейки — цифровую замену лиц, сообщил «Коммерснт».
Пока разработка адаптирована для английского языка: прототип прошел тестирование на выступлениях американских политиков в преддверии выборов в Сенат США. Для переобучения русскому языку потребуются затраты многих ресурсов.
Некоторые специалисты сомневаются в перспективности программы, опасаясь частых ложных срабатываний. Однако в Научно-техническом центре ГРЧЦ заявили, что готовому устойчиво работающему продукту возможно найти применение.
Программу придется долго учить
Эксперт по кибербезопасности, директор и партнер компании «Интеллектуальный резерв» Павел Мясоедов пояснил «360», что подобные программы к технологии нейросетей. Для реализации такого рода софта требуется обработка большого массива данных.
«Если говорить упрощенно, то вы можете либо в ручную вводить картинку в систему, чтобы она ее потом искала в общем видеоролике, либо можно научить анализировать данные самостоятельно», — уточнил эксперт.
Он добавил, что программа будет выявлять общие нюансы изображения: определенные мимические морщины, выражения лиц и сопоставлять их. Однако полностью исключить из этого процесса человека нельзя: он должен проверять работу и объяснять машине, где есть ошибки.
«Нам всем известны капчи, они просят ввести какие-то символы, чтобы компьютер определил — робот вы или нет. Соответственно, если бы машина могла на 100% выявлять тот или иной объект в пространстве, то такие проверки легко бы обходились», — сказал Мясоедов.
Однако для программ это совсем нелегко. Массив данных для обработки должен быть колоссальный, подчеркнул эксперт. Для того, чтобы распознавать объекты, люди с рождения на что-то смотрят по 15-16 часов в сутки.
«Машине нужно то же самое, при этом скорость ее мыслительных процессов в некоторых областях куда ниже. Поэтому нужно долго обучать машину, потребуется вовлеченность специалистов, которые будут ей говорить, правильно, она действует или нет», — сказал Мясоедов.
Дипфейки несут опасность
Эксперт отметил, что при всех временных затратах технологии такого рода перспективны: дипфейков становится очень много. К счастью, обычно дипфейк делается из более-менее статичной картинки, на которых человек мало двигается.
«Дело в том, что во время движения происходят разрывы графики и их можно увидеть. Машина будет эти нестыковки вылавливать в видеороликах. Это очень полезная технология, ведь дипфейки уже не просто какое-то развлечение, они несут серьезные риски», — подчеркнул Мясоедов.
По его словам, такие фейковые видео могут сделать каким-либо политиком после этого разместить в интернете, вводя людей в заблуждение. Поэтому технология распознавая подобного обмана должна внедряться уже на самих платформах, размещающих контент.
Искусственный интеллект еще не пришел
Мясоедов отметил, что при всем полезном потенциале программы, распознающей дипфейки, ее нельзя относить к разработкам искусственного интеллекта. Скорее, речь идет о так называемом машинном обучении.
Искусственный интеллект работает несколько по другому принципу. Пока в массовом пользовании искусственного интеллекта нигде нет. Есть несколько прототипов, на уровне фундаментальной науки, которая выясняет, как это может работать.
Павел Мясоедов
Эксперт по кибербезопасности, директор и партнер компании «Интеллектуальный резерв»
Эксперт отметил, что в перспективе искусственный интеллект может появиться в жизни людей. Однако скорее всего люди будут больше использоваться как раз сложные системы машинного обучения, которые будут упрощать повседневную жизнь.
Помощь для суда
Возможно ли будет использовать выводы компьютера в суде в качестве доказательств — вопрос открытый. Адвокат московской КА «Аронов и Партнеры» Евгений Розенблат предположил, что этот программный продукт повторит судьбу детектора лжи.
«Однако не совсем верно говорить, что полиграф не имеет никакого веса. Да, он не имеет безусловного доказательственного значения. Однако результаты прибора используются в арбитражной судебной практике, и в уголовном судопроизводстве», — рассказал адвокат.
Он уточнил, что суд может рассматривать данные машин в совокупности с другими доказательствами. Возможно, информацию программы, распознающей дипфейки можно будет использовать в суде по тому же принципу.
Розенблат отметил, что в судах нередко привлекают в качестве экспертов специалистов самых разных областей. Хотя сам адвокат не сталкивался со знатоками в области психологии эмоций, однако психологов опрашивают достаточно часто.