Цифровая маска. Россиян предупредили о мошенниках, использующих нейросети

Юрист Илья Русяев: мошенники выдают себя за других людей на видео с помощью нейросетей

Фото: Freepik

Мошенники начали использовать нейросети, чтобы выдавать себя за других людей на видео. Об этом сообщил «360» юрист Илья Русяев.

Он отметил, что нейросети научились делать немыслимые вещи, например говорить голосом другого человека. Подделку не отличить от оригинала, особенно в телефонном разговоре.

«Мошенники с помощью нейросетей могут моделировать видео и голос, выдавая себя за другого человека. Этот метод называется deep fake. Надевая цифровую маску, лицо и голос человека, можно позвонить бабушке от лица внучки или отцу от лица дочери, сказать, что попали в беду, и попросить перевести денег», — предупредил юрист.

Давление на психику

В современном мире любое мошенничество удается только при использовании методов социальной инженерии и сильного воздействия на психику, сообщил Русяев. Если звонящий давит, не дает связаться с родными и перепроверить информацию, долго удерживает на линии, нужно срочно прерывать разговор и выяснить, правду ли говорил собеседник, посоветовал специалист.

Не отвечать на видеозвонки от незнакомцев

Для генерации фейкового изображения и голоса злоумышленникам потребуются образцы, сообщил юрист. Чтобы получить их, мошенники могут звонить под разными предлогами — познакомиться, по объявлениям о продаже квартиры, машины или чего-то другого, под видом опросов контроля качества якобы от известных компаний.

«Без надобности не отвечайте на видеозвонки незнакомым людям. Особенно внимательным надо быть, когда вам звонят с опросами от известных компаний. Мошенники заранее задают продуманные вопросы, чтобы получить желаемый ответ, который потом ляжет в основу создания вашего фейка и, возможно, обманет ваших близких», — отметил Русяев.

Например, злоумышленник может спросить, когда человек платил за интернет, а тот ответит: «Неделю назад». Эту фразу мошенники могут взять для ответа на другой вопрос, например, «Когда вы попали в ДТП?».

«И уже вашим голосом ответят ту же самую фразу: „Неделю назад“. Прогрессом все пользуются по разному, поэтому нельзя терять бдительность», — пояснил юрист.

Ответственность для злоумышленников

Говорить об использовании deep fake для мошенничества с точки зрения юридической ответственности пока рано, так как это новое явление, добавил Русяев. Должна сформироваться практика по злоумышленникам, применяющим нейросети, сказал эксперт. Однако за любое хищение путем злоупотребления доверием предусмотрена ответственность по статье 159 УК РФ сроком до 10 лет лишения свободы, резюмировал юрист.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте