Нейросети смогут определять призывы к терроризму в Telegram

Хакер Артимович: ИИ сможет определять призывы к терроризму в социальных сетях

После теракта в «Крокусе Сити Холле» остро встала необходимость регулировать деятельность социальных сетей. Бороться с запрещенным контентом поможет искусственный интеллект. Как отметил в беседе с ведущей «360» Екатериной Малашенко эксперт по кибербезопасности, хакер Дмитрий Артимович, нейросети можно обучить определять призывы к терроризму в социальных сетях.

«С точки зрения искусственного интеллекта, обучить нейросети, чтобы они определяли призывы к терроризму, к чему-то незаконному, технически вполне можно», — отметил он.

По его словам, тогда нейросеть будет выявлять подобные сообщения и чаты. А дальше нужно привлекать ручную модерацию. Дело в том, что у нейросетей есть процесс «ложных срабатываний». Поэтому, чтобы не допустить ошибку, работу искусственного интеллекта нужно проверять человеку.

«Поэтому сначала это нужно определять автоматически, а потом отдавать на ручную модерацию. Я уверен, что Telegram, „ВКонтакте“ со спецслужбами сотрудничают. Поэтому там выявлять это вполне возможно», — подчеркнул Артимович.

Он также уточнил, что работа нейросетей вряд ли будет мешать нормальному функционированию таких мессенджеров, как Telegram. Но при этом есть другая опасность. Если процесс регулирования Telegram и «ВКонтакте» все же наладят, злоумышленники могут перейти на другие площадки, в том числе в WhatsApp и Facebook*. Если такое случится, то правильным решением со стороны государства будет заблокировать их, добавил Артимович.

* Принадлежит компании Meta, которая признана экстремистской и запрещена в России.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте