Специалист по IT-безопасности назвал пять главных опасностей использования ChatGPT
Руководитель направления УЦСБ Краснов: ChatGPT может создавать фейковые отзывы и сайты
Нейросети смогут не только упростить людям жизнь, но и помочь мошенникам. Поэтому нужно соблюдать правила цифровой гигиены. Руководитель направления анализа защищенности компании Уральского центра систем безопасности Сергей Краснов перечислил «360» пять главных опасностей ChatGPT.
Создатели этого чат-бота с искусственным интеллектом, по его словам, взяли за основу языковую модель GPT-3.5. ChatGPT может отвечать на вопросы, составлять отчеты и таблицы, анализировать большой объем информации, писать стихи и генерировать тексты, максимально похожие на естественную речь. Сергей Краснов предупредил, что это не только полезно представителям некоторых профессий, но и опасно.
Одной из пяти основных потенциальных угроз он назвал распространение фейковых новостей, провокационных сообщений и рекламы. По словам специалиста, при помощи ChatGPT недобросовестные люди могут создавать правдоподобные тексты и обманывать других. Другую возможность чат-бот даст торговцам — они смогут генерировать большое количество ненастоящих отзывов на свои товары.
«Чат-бот также может быть использован для создания текстов, которые содержат оскорбления, травлю, нападки на личность, угрозы, шантаж и другие формы насилия», — предупредил Сергей Краснов.
Мошенники тоже смогут присмотреться к ChatGPT для создания фишинговых писем или сообщений, получения персональных и данных банковских карт. Кроме того, чат-бот используют для создания и распространения контента без разрешения правообладателя, нарушая авторское право.
Специалист УЦСБ посоветовал россиянам соблюдать правила цифровой гигиены, чтобы оградить себя от опасностей нейросетей. Например, перепроверять информацию в нескольких источниках, придумывать разные пароли в сервисах, подключать двухфакторную аутентификацию и не передавать свои личные данные третьим лицам.