IT-аналитик Ульянов назвал модели ИИ типа Grok безопасными для оборонных систем

Военное министерство США планирует допустить ряд популярных открытых моделей искусственного интеллекта к своей сети. В беседе с «Ридусом» ситуацию прокомментировал руководитель аналитического центра Zecurion Владимир Ульянов.

Специалист подчеркнул важность профессионального подхода к задаче, от которого зависит уровень защищенности конфиденциальных данных.

«Если какой-то студент берет базу данных и прикручивает к ней свободно открытую или полуоткрытую модель ИИ, то там все риски так или иначе в полный рост возникают и могут быть реализованы», — отметил эксперт.

Аналитик указал, что использование проверенных коммерческих продуктов известных разработчиков, таких как Google или xAI, можно считать безопасными для работы с материалами из сетей военного характера.

Задизайнено в Студии Артемия Лебедева Информация о проекте