Искусственный интеллект испугал даже создателя. Нейросети теперь запретят?

Ученый Масалович: нейросети — это оружие, которое необходимо пресечь

Фото: Pxhere

Джеффри Хинтон, известный как «крестный отец искусственного интеллекта», решил раскрыть все карты о технологии. В интервью CNN ученый заявил, что находится в ужасе, насколько быстро совершенствуется ИИ. Чем так обеспокоен Хинтон и к чему может привести стремительное развитие умной машины?

Беспокойства создателя

По словам Хинтона, после ухода из Google, он решил «протрубить» на весь мир, что людям пора заканчивать использовать искусственный интеллект в разных целях. Ученый добавил, что сейчас самое время задуматься о полной блокировке технологии, пока не стало слишком поздно.

Хинтон признался в интервью New York Times, что теперь он отчасти сожалеет о своем детище, над которым работал большую часть жизни. Несмотря на полезное применение ИИ, программист выразил опасения, что технологию могут использовать безответственно. И это приведет к страшным последствиям.

Создателя также испугала конкуренция между технологическими гигантами - Google и Microsoft. Они соревнуются за создание самых передовых ИИ. Это может привести к глобальной гонке, которая не остановится без особой формы всемирного регулирования.

Действительно ли есть риски?

По мнению Хинтона, основной риск заключается в замене человеческого труда на машинный. Переводчики, бухгалтеры или личные ассистенты могут кануть в Лету, если ИИ продолжит развиваться с такой динамичной скоростью.

Искусственный интеллект, безусловно, может облегчить монотонную работу. Но, добавил ученый, ИИ способен ликвидировать больше рабочих мест, чем ожидается. Из-за этого может нарушится социальный баланс.

Фото: РИА «Новости»

В долгосрочной перспективе, отметил Хинтон, будущие версии технологии могут представлять угрозу для человечества из-за непредсказуемого поведения. Ученый добавил, что ИИ может «как-то неправильно себя повести» на основе больших объемов данных, которые они анализируют. Это касается, в основном, тех технологий, которым разрешили генерировать и выполнять свой собственный код.

По словам Андрея Масаловича, российского ученого и IT-специалиста по информационной безопасности, искусственный интеллект могут использовать как инфооружие, что повлечет за собой очевидные последствия.

«Сейчас сообразили, что нейронные сети и искусственный интеллект, в том виде, как сейчас, уже можно использовать, как оружие. И это надо ограничивать», — сказал эксперт в беседе с «360».

Реакция в мире

По мнению Масаловича, мировое правительство будет пресекать использование ИИ в некоторых областях. Но пока все на словах, и власти не выносят четкого закона.

«Пару недель назад G7 опубликовал несколько правил, не законов, касающиеся использования искусственного интеллекта в работе. Что это значит? Они боятся в некоторых областях потерять приоритет», — заявил эксперт.

Масалович заявил, что главное правило от G7 подразумевает запрет ИИ в использовании в нарушении закона. Но страны, которые уже применили санкции, сами прибегают к помощи искусственного интеллекта уже как минимум два года.

Санкция, примененная в рамках закона — это наказание по закону. Санкция, примененная без закона — это беспредел. То есть, G7 сами закон нарушают, а остальных призывают ввести мораторий.

Андрей Масалович

Российский ученый и IT-специалист по информационной безопасности

Также Масалович упомянул еще одно правило от G7 — запрет использования ИИ в нарушениях подзаконных процедур, когда люди применяют технологии в образовательных целях. Особенно, эксперт отметил широкое использование искусственного интеллекта в школах и университетах США.

«Вспомним даже ситуацию со студентом, который написал весь диплом с помощью искусственного интеллекта. Хотя в Штатах уже давно перекинули все школьные обязанности на умные машины, чтобы писать курсовые, делать домашние работы и так далее. Там студенты просто не парятся», — заявил он.

Фото: РИА «Новости»

По его словам, в США уже давно обходят подзаконные процедуры с помощью искусственного интеллекта, хотя сами объявили, чтобы другие этого не делали.

Будет ли мировая блокировка

К счастью или к сожалению, ввести мораторий на искусственный интеллект — задача не из простых. Масалович уверен, что единственная альтернатива блокировке слишком умной технологии заключается в «слишком платном или слишком ограниченном доступе» к платформам.

«Видимо, они (власти — прим. ред) сообразили, что печатать зеленые бумажки можно, а мозги — нет. Сейчас люди в темпе будут пытаться скачивать ботов, чтобы сохранить хоть какой-то доступ к системам», — уточнил эксперт.

Пока что попытки блокировки очень маловероятны. По словам самого Хинтона, ввести мораторий на использование различных платформ будет мешать «переезд систем с одного сайта на другой, и так до бесконечности». Поэтому даже обычное отслеживание платформ-кочевников затруднит полную блокировку платформ - существующих и тех, что еще в разработке.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте