Большая афера с применением ИИ. Как мошенники используют нейросети
Координатор Центра интернета Парфентьев: разницы между живым мошенником и ИИ-роботом нет
Мошенники научились использовать нейросети для обмана. В частности, с их помощью они генерируют скрипты для общения с жертвой, а чат-боты задействуют для массовых обзвонов. Какие основные стратегии злоумышленников и как защититься от них — в материале «360».
Основные стратегии мошенников
В последние несколько месяцев мошенники чаще применяют в своих схемах ChatGPT и другие чат-боты с искусственным интеллектом. Это позволяет им создавать правдоподобные тексты и схемы, чтобы вызывать доверие у потенциальных жертв.
Фейковые аккаунты
Мошенники могут использовать нейросети для создания фейковых профилей в социальных сетях и мессенджерах. Такие аккаунты подходят для фишинга, мошенничества и других атак. Чтобы противостоять этому, пользователи должны быть более внимательными при общении с незнакомцами в Сети и не доверять им с первой минуты.
Поддельные документы и аудиоматериалы
Нейросети умеют работать с визуальным контентом: рисовать и распознавать документы. С помощью искусственного интеллекта злоумышленники могут делать фальшивые документы: банковские выписки, поддельные паспорта или водительские удостоверения.
Координатор Центра безопасного интернета Урван Парфентьев напомнил в разговоре с «360», что мошенники давно освоили дипфейк-технологии. Это реалистичная подмена фото-, аудио- и видеоматериалов, созданная с помощью нейросетей.
«В частности такие попытки были в Китае. Успешность дипфейка зависит от качества и степени обученности нейросети», — уточнил эксперт.
Фишинговые рассылки
Мошенники могут использовать нейросети для создания фейковых новостей и рассылок. С применением ChatGPT ошибок в письмах стало гораздо меньше, их сложнее отличить от фишинговых.
IT-специалист по информационной безопасности Андрей Масалович рассказал «360», что искусственный интеллект хорошо автоматизирует рутинную работу. Однако он не в состоянии придумать новые схемы махинаций.
Мошенники могут применять нейросети не как основной инструмент, а в качестве вспомогательного звена в цепочке, подчеркнул Масалович. Например, чтобы составить текст с минимальными затратами.
Ненастоящие отзывы
Нейросети позволяют создавать мошенникам фальшивые отзывы и рейтинг. Нередко нейросеть пишет красивые комментарии по запросу пользователей — из-за этого потребители могут столкнуться с некачественными продуктами и услугами. Стоит осторожнее читать отзывы и проверять рейтинги.
Телефонное мошенничество
С помощью чат-бота можно придумать сценарий для телефонного звонка. Нейросети вполне могут придумать яркий инфоповод, чтобы убедить жертву.
Помимо этого, ИИ способен «работать» телефонным роботом. Его можно настроить и оптимизировать, чтобы он функционировал быстрее, чем человек.
Как отметил Парфентьев, нейросети учатся поддерживать разговор и быть адаптивными к тому, что произносит собеседник. Это позволит минимизировать расходы на кол-центры.
Успешность такой технологии зависит от того, насколько хорошо искусственный интеллект будет обучен и насколько удачно он будет выдавать себя за живого человека.
Урван Парфентьев
Защита от нейросети-мошенника
Координатор Центра безопасного интернета заявил, что принципиальной разницы нет в том, что вы общаетесь с живым злоумышленником либо с роботом. Правила безопасности не зависят от применяемых мошенниками схем — с привлечением чат-бота или без него.
По словам Парфентьева, нужно помнить базовые правила. Ничему нельзя верить сразу — любую информацию необходимо проверять, не вестись на заманчивые предложения и не распространять личную информацию в интернете. Не забывайте об антивирусах и не переходите по подозрительным ссылкам.
Если же вы поняли, что попались на фишинговую уловку, то заблокируйте все счета, к которым злоумышленники могут получить доступ, и смените пароли.