Нейросети предложили использовать для поиска запрещенки в видеоиграх. Идея хорошая, но сделать это будет сложно
В Роскомнадзоре предложили искать запрещенную информацию в играх с помощью нейросети
Нейросети захотели использовать для поиска запрещенной информации в видеоиграх. Искусственный интеллект будет отлеживать в сюжетах детскую порнографию или призывы к суициду. Эксперты в беседе с «360» оценили идею положительно, но заявили о проблемах с ее реализацией. По их мнению, с мониторингом видеоигр прекрасно справляются и люди.
Использовать нейросети для отслеживания данных в играх предложил подведомственный Роскомнадзору Главный радиочастотный центр (ГРЧЦ). Специалисты провели исследование, изучив мировой опыт применения искусственного интеллекта. По результатам своей работы они выступили за использование нейросетей для защиты россиян от вредоносной информации.
«Игры становятся сложнее, а человек не может охватить всю полноту предлагаемых сюжетных развилок», — привел «Коммерсант» слова руководителя Научно-технического центра ГРЧЦ Александра Федотова.
Многие современные игры имеют целые вселенные и большое количество сюжетных линий. Чтобы полностью изучить контент игры, необходимо потратить сотни или даже тысячи часов. Осилить такой объем информации одному человеку сложно, отметил Федотов. Искусственный интеллект будет сам выявлять в игре, например, детскую порнографию или призывы к употреблению наркотиков и суициду.
«То, что предлагают сделать в ГРЧЦ, — это нейросетевая вспомогательная программа для автотестов, когда алгоритм сам пробегает по всем уровням игры, со всеми говорит и в итоге выдает отчет, в том числе с технической информацией», — пояснил продюсер студии Owlcat Games Максим Фомичев.
Однако сначала алгоритмы нейронной сети необходимо обучить на заведомо размеченном массиве данных. Об этом «360» рассказал ученый и специалист в области искусственного интеллекта Султансаид Муратчаев.
«Например, есть сборник статей, и каждая статья помечена либо как негативная, либо как позитивная. Далее искусственный интеллект, зная эти ответы, пытается уловить скрытые взаимосвязи между негативными и позитивными статьями. Впоследствии алгоритмы начинают понимать основные связки слов», — объяснил эксперт.
В конце обучения искусственный интеллект уже может самостоятельно находить главные источники нежелательного контента.
Вопрос реализации
Сейчас наличие незаконной информации в играх отслеживают обычные небезразличные пользователи, отметил независимый эксперт по видеоиграм Александр Кузьменко.
«Если вдруг какие-то люди видят нарушения в подобных сервисах со стороны каких-то неблагополучных пользователей, если какая-то запрещенка присутствует, то подобные люди сообщают модераторам о том, что происходит что-то ненормальное», — сказал он.
После получения информации модераторы могут связаться с разработчиками игры или сообщить о нарушении в компетентные органы.
«Я думаю, что, конечно, в будущем у нас будет что-то подобное, когда нейросеть будет отслеживать что-то непорядочное, происходящее в интернете. Но в настоящее время для этого достаточно и простой человеческой силы», — заявил Кузьменко.
По словам эксперта, проблема реализации инициативы заключается в том, что для использования искусственного интеллекта нужно очень много технологических мощностей.
«Чтобы обследовать хотя бы одну более-менее популярную игру, в которую играют 10 или 100 тысяч человек, понадобится целый сервисный центр. Центр, в котором будет очень много серверов, людей, которые за ними следят, и так далее», — подчеркнул он.
С независимым экспертом согласился руководитель Liquid Studio Accenture в России Арсений Кондратьев. Он отметил, что для мониторинга каждой последующей игры потребуется тренировать отдельную сеть, которую нужно будет научить ее проходить.
Если учесть нынешние аппаратные возможности, то процесс тренировок может занять месяцы. Кроме обучения нужны будут еще и большое количество серверов. По мнению Кондратьева, эти проблемы не позволят масштабировать технологию.
Как заключил основатель портала rawg.io Гаджи Махтиев, работа искусственного интеллекта может обернуться реальными сложностями для разработчиков игр, а также ограничением доступности видеоигр.