Большая афера с применением ИИ. Как мошенники используют нейросети

Координатор Центра интернета Парфентьев: разницы между живым мошенником и ИИ-роботом нет

Фото: Freepik

Мошенники научились использовать нейросети для обмана. В частности, с их помощью они генерируют скрипты для общения с жертвой, а чат-боты задействуют для массовых обзвонов. Какие основные стратегии злоумышленников и как защититься от них — в материале «360».

Основные стратегии мошенников

В последние несколько месяцев мошенники чаще применяют в своих схемах ChatGPT и другие чат-боты с искусственным интеллектом. Это позволяет им создавать правдоподобные тексты и схемы, чтобы вызывать доверие у потенциальных жертв.

Фейковые аккаунты

Мошенники могут использовать нейросети для создания фейковых профилей в социальных сетях и мессенджерах. Такие аккаунты подходят для фишинга, мошенничества и других атак. Чтобы противостоять этому, пользователи должны быть более внимательными при общении с незнакомцами в Сети и не доверять им с первой минуты.

Поддельные документы и аудиоматериалы

Нейросети умеют работать с визуальным контентом: рисовать и распознавать документы. С помощью искусственного интеллекта злоумышленники могут делать фальшивые документы: банковские выписки, поддельные паспорта или водительские удостоверения.

Фото: Freepik

Координатор Центра безопасного интернета Урван Парфентьев напомнил в разговоре с «360», что мошенники давно освоили дипфейк-технологии. Это реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей.

«В частности такие попытки были в Китае. Успешность дипфейка зависит от качества и степени обученности нейросети», — уточнил эксперт.

Фишинговые рассылки

Мошенники могут использовать нейросети для создания фейковых новостей и рассылок. С применением ChatGPT ошибок в письмах стало гораздо меньше, их сложнее отличить от фишинговых.

IT-специалист по информационной безопасности Андрей Масалович рассказал «360», что искусственный интеллект хорошо автоматизирует рутинную работу. Однако он не в состоянии придумать новые схемы махинаций.

Мошенники могут применять нейросети не как основной инструмент, а в качестве вспомогательного звена в цепочке, подчеркнул Масалович. Например, чтобы составить текст с минимальными затратами.

Фото: Unsplash

Ненастоящие отзывы

Нейросети позволяют создавать мошенникам фальшивые отзывы и рейтинг. Нередко нейросеть пишет красивые комментарии по запросу пользователей — из-за этого потребители могут столкнуться с некачественными продуктами и услугами. Стоит осторожнее читать отзывы и проверять рейтинги.

Телефонное мошенничество

С помощью чат-бота можно придумать сценарий для телефонного звонка. Нейросети вполне могут придумать яркий инфоповод, чтобы убедить жертву.

Помимо этого, ИИ способен «работать» телефонным роботом. Его можно настроить и оптимизировать, чтобы он функционировал быстрее, чем человек.

Фото: Freepik

Как отметил Парфентьев, нейросети учатся поддерживать разговор и быть адаптивными к тому, что произносит собеседник. Это позволит минимизировать расходы на кол-центры.

Успешность такой технологии зависит от того, насколько хорошо искусственный интеллект будет обучен и насколько удачно он будет выдавать себя за живого человека.

Урван Парфентьев

Защита от нейросети-мошенника

Координатор Центра безопасного интернета заявил, что принципиальной разницы нет в том, что вы общаетесь с живым злоумышленником либо с роботом. Правила безопасности не зависят от применяемых мошенниками схем — с привлечением чат-бота или без него.

Фото: Freepik

По словам Парфентьева, нужно помнить базовые правила. Ничему нельзя верить сразу — любую информацию необходимо проверять, не вестись на заманчивые предложения и не распространять личную информацию в интернете. Не забывайте об антивирусах и не переходите по подозрительным ссылкам.

Если же вы поняли, что попались на фишинговую уловку, то заблокируйте все счета, к которым злоумышленники могут получить доступ, и смените пароли.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте