Персональные данные утекли в Сеть. ChatGPT ждет повсеместная блокировка?

Эксперт по кибербезопасности Мясоедов: ChatGPT умеет собирать информацию о пользователях

Фото: Freepik

В Италии временно ограничили доступ к нейросети ChatGPT из-за нарушения закона о персональных данных. Теперь ее разработчику грозит штраф в размере до 20 миллионов евро, либо до 4% годового мирового оборота. Власти потребовали от компании OpenAI «принять меры» по устранению проблем.

Почему заблокировали ChatGPT

Основываясь на заявлении итальянского регулятора по защите персональных данных, который заявляет, что все пользователи ChatGPT могут столкнуться с утечкой и кражей личных данных, можно сказать, что блокировка — это единственный способ обезопасить людей, заявил в беседе с «360» общественный деятель Андрей Ковалев.

«Я это решение полностью поддерживаю, тем более, что в сервисе отсутствует какая-либо система проверки возраста, которая могла бы предотвратить доступ для несовершеннолетних», — сказал он.

Эксперт рассказал, что итальянское ведомство усомнилось и в точности информации, которую предоставляет ChatGPT. Россиянам очень повезло, что компания Microsoft сама наложила запрет на использование чат-бота в нашей стране, так что персональные данные наших граждан в этом смысле полностью защищены, отметил Ковалев. Существует высокая вероятность того, что мошенники начнут активно пользоваться ChatGPT, добавил собеседник «360».

«Поэтому, конечно, нужно ставить запреты, чтобы это не привело к дальнейшему разгулу деятельности разных сортов аферистов», — подчеркнул общественный деятель.

Фото: Freepik

Решить проблемы и легализоваться в Италии снова

Устранить нарушения и вновь приступить к работе в Италии будет проблематично, рассказал «360» директор и партнер компании «Интеллектуальный Резерв», эксперт по кибербезопасности Павел Мясоедов. По его словам, сложности добавляют алгоритмы работы самих искусственных интеллектов.

«У ChatGPT не существует традиционной схемы или архитектуры, которые используются в каких-то иных программных продуктах, вроде центрального кода и отдельно стоящей базы данных», — объяснил он.

Сам принцип работы ChatGPT базируется на математической модели, которая постоянно «подтягивает», изменяет информацию вокруг себя, поэтому просто заблокировать или защитить какую-то базу данных внутри кода не представляется возможным в силу ее отсутствия, добавил Мясоедов.

Фото: Freepik

Нейросеть постоянно может подтягивать информацию различных пользователей из множества источников, поэтому переработать этот алгоритм, наверное, теоретически было бы возможно, но тогда потерялась бы сама суть искусственного интеллекта, был бы нарушен принцип искусственного обучения, рассказал эксперт.

«Конечно, существуют так называемые „учителя искусственного интеллекта“ — это люди, которые корректируют процесс искусственного обучения, процесс восприятия нейросетью новой информации. Но кардинально картину все равно никак не поменяешь, все равно ChatGPT периодически будет „подтягивать“ информацию о пользователях», — отметил Мясоедов.

Фото: Freepik

Специалист по кибербезопасности также указал на тот факт, что собирать данные о пользователях умеет не только ChatGPT. Мясоедов напомнил, что на территории России есть уже заблокированные программные продукты — тоже с элементами искусственного интеллекта, которые точно так же собирали разную информацию о пользователях из множества источников.

«ChatGPT осуществляет гораздо больше задач, нежели простой поиск информации о пользователях, тем не менее, такой алгоритм в него встроен, в саму его природу. Просто изъять его оттуда — это значит отключить и возможность свободного обучения, что перечеркнет вообще всю идею», — резюмировал Мясоедов.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте