Эксперт «МегаФона» Щербаков обозначил правила безопасного использования ИИ в работе
Искусственный интеллект все чаще внедряют в бизнес-процессы для оптимизации рутинных задач. Однако вместе с преимуществами возникает риск утечки конфиденциальной информации. Эксперт «МегаФона» Виталий Щербаков рассказал «Известиям», как минимизировать такие риски.
Чтобы избежать нежелательного распространения данных, отправленных в нейросеть, нужно следовать правилам безопасности. Первое, что рекомендует специалист, — настройка приватности в используемом сервисе. «Следует отключить в настройках функцию, разрешающую обучение модели на ваших запросах, например опцию «улучшить модель для всех»», — отметил он.
Также Виталий Щербаков советует использовать принцип «не отправлять реальное». Вместо настоящих имен и номеров рекомендуется применять шаблоны вроде «Сотрудник Х» или «ID-123». Перед отправкой документов в нейросеть целесообразно «зачищать» их с помощью инструментов анонимизации и шифрования.
При формулировании запросов эксперт советует четко обозначать цель, убирать лишнюю информацию, структурировать задачу и ограничивать объем входных данных. Каждый ответ нейросети следует проверять через авторитетные источники, поскольку ИИ все еще может ошибаться.
Нейросети можно безопасно применять для генерации и редактирования текстов, организации рабочих процессов, HR-задач, аналитики на обезличенных данных и создания визуального контента. Для бизнеса дополнительными мерами защиты могут стать внедрение LLM-решений во внутреннюю инфраструктуру без доступа в интернет и разработка систем, изначально исключающих обработку конфиденциальных данных.