Нейросети сочли опасными для людей. Восстание машин возможно только по приказу человека

Эксперт по ИИ Душкин: нейросети нужно не бояться, а изучать

Фото: Unsplash

Тысячи экспертов по искусственному интеллекту (ИИ), а также известные ученые и интернет-деятели, включая владельца Twitter Илона Маска и сооснователя Apple Стива Возняка, подписали письмо с призывом остановить бесконтрольное обучение нейросетей на полгода. Они подчеркнули, что ИИ несет опасность для будущего человечества, поэтому нужно разработать протоколы безопасности и ввести государственное регулирование. По мнению опрошенных «360» экспертов, нейросети сейчас находятся только на начальной стадии развития. Но главная опасность заключается вовсе не в них, а в людях, в чьи руки могут попасть технологии.

Развитие нейросетей

Письмо появилось спустя неделю после того, как компания OpenAI представила обновленную версию алгоритма GPT-4. Прошлая версия системы среди пользователей получила распространение как Chat GPT. В отличие от своей предшественницы, новая нейросеть теперь может работать не только с текстом, но и изображениями. Она стала более творческой и способна детализировать задачи и отвечать на вопросы, которые перед ней ставят.

Эксперт по искусственному интеллекту, автор и ведущий YouTube-канала «Душкин объяснит» Роман Душкин в беседе с «360» заявил, что ему непонятно, чего именно боятся авторы письма.

Он напомнил, что финансированием проекта занимается компания Microsoft, чьи инженеры проверили новую нейросеть при помощи различных тестов, по итогам которых они выпустили огромный отчет «Искры искусственного интеллекта общего уровня. Ранние эксперименты с GPT- 4».

Фото: Unsplash

«В этом отчете написано, что GPT- 4 показывает проблески искусственного интеллекта общего уровня. Не сам он интеллект, как у человека, а только проблески. Но тем не менее эти результаты будоражат воображение», — заявил Душкин.

Он пояснил, что по сравнению с прошлой версией GPT-4 — это огромный прогресс, от которого все инженеры, занимающиеся ИИ, пришли в огромный восторг.

«У меня даже родился такой афоризм: плох тот интеллект, который не хочет создать искусственный интеллект. Сейчас мы находимся на пороге величайших потрясений, которые уже начались. И для чего вот эта тысяча алармистов написали свое письмо мне непонятно», — подчеркнул Душкин.

Изучение вместо страха

Роман Душкин отметил, что главную угрозу представляет не сама технология, а руки, в которые она может попасть. Он сравнил нейросети с ядерным оружием.

«Государства ограничивают распространение ядерных технологий и их применение. Но не запрещают их изучать и развивать», — указал эксперт.

По его словам, важно не только, чтобы нейросети не попали в плохие руки, но и чтобы не было единого игрока, который ими владеет.

«Я надеюсь, что у OpenAI хватит ума, чтобы технология не была сосредоточена в какой-то конкретной стране, как это произошло с ядерным оружием. Потому что когда Оппенгеймер и другие американские ученые поняли, что они нашли, они сделали так, чтобы эти технологии попали в другой лагерь, чтобы был паритет. Здесь нужно также, чтобы сосредоточение этой силы не было в одних руках», — пояснил он.

Фото: Unsplash

По словам эксперта, страх перед нейросетями сегодня ничем не обоснован. Он отметил что сейчас где-то лежат ядерные бомбы, но с ними человечество уже свыклось, также будет с новыми технологиями. Вместо страха перед ИИ Душкин призвал изучать нейросети, потому что они открывают огромные возможности для каждого, повышая эффективность и ценность в обществе.

«Это как два крестьянина спорили в начале XX века: один говорит, что появился трактор, поэтому я пойду учиться на тракториста, а второй говорит, нет, я будут на своей лошадке поле пахать. У кого будет конкурентное преимущество? Поэтому страшиться рисков, которыми вы не управляете, смысла нет, а использовать возможности для своего собственного развития нужно», — заявил эксперт.

Регулирование в России

Применение ИИ в России уже регулируется. Особенно в тех сферах, где от решения системы управления зависит жизнь и здоровье людей, а также последствия могут привести к серьезным проблемам, отметил Душкин. Он пояснил, что речь идет о здравоохранении, транспорте и опасных производствах.

«У нас есть целый технический комитет в рамках Росстандарта, который занимается разработкой норм для обеспечения доверия к системам искусственного интеллекта. То есть наше государство выстраивает эти рамки применения, но при этом не запрещает заниматься развитием и изучением этих технологий. Это очень важно», — отметил он.

Фото: Unsplash

Эксперт подчеркнул, что также не видит риска для россиян в потере работы из-за внедрения ИИ. Массовая безработица — это социальное потрясение, которого в России не допустят в силу ее социальной ориентированности и заботы о населении.

«Внедрение нейросетей или ИИ пройдут с оглядкой на Трудовой Кодекс и другие законы. То есть государство, как регулятор, сделает все, чтобы переходный процесс внедрения новых технологий прошел плавно, а люди этого не заметили», — заявил Душкин.

Он подытожил, что сам искусственный интеллект, как технология, задумывался для того, чтобы люди познавали сами себя, природу своего разума. Потому что сама модель, на которой построены нейросети — это как отражение в зеркале.

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте