Темная сторона силы. Как хотят бороться со способностью ИИ создать биооружие

Фото: Global Look Press

В Великобритании несколько дней назад прошел саммит, на котором собрались представители крупных компаний, занимающихся искусственным интеллектом. Также приехали политические делегации из Евросоюза, США, Китая, Саудовской Аравии и Южной Кореи. Конкурирующие между собой государства, включая заклятых соперников по всем новейшим технологическим аспектам — Штаты и Китай — не только не перессорились, но и подписали совместную декларацию о необходимости управления потенциально «катастрофическими» рисками, создаваемыми ИИ. Что заставило конкурентов хотя бы для вида притормозить и поговорить о проблемах искусственного интеллекта и о чем они переживают больше всего, разбирался «360».

Новые возможности…

Представители 28 государств собрались в Блетчли-парке в Великобритании. Это место выбрали неслучайно: во время Второй мировой войны именно там работала группа ученых под руководством английского математика Алана Тьюринга, которая занималась взломом немецкой шифровальной машины «Энигма».

Теперь же политики и крупные компании в области ИИ, попадающие под их юрисдикцию (в том числе такие гиганты, как OpenAI от США и Baidu от Китая), согласились, что сразу несколько опасных аспектов в использовании новой технологии необходимо держать под контролем — и делать это лучше сообща.

AI Safety Summit 2023
Фото: AI Safety Summit 2023/Global Look Press

Всего на саммите встретились более сотни деятелей политики и бизнеса, в том числе Сэм Альтман от компании OpenAI, Демис Хассабис от DeepMind, Илон Маск, вице-президент США Камала Харрис, глава Еврокомиссии Урсула фон дер Ляйен и министр технологий Китая У Чжаохуэй.

В подписанной декларации упоминаются потенциально «катастрофические» риски, связанные с кибербезопасностью, биотехнологиями и дезинформацией, а еще такие проблемы, как предвзятость и конфиденциальность. Довольно много внимания среди перечисленных проблем привлекает вопрос биологической угрозы.

Саммит по безопасности в области искусственного интеллекта в Великобритании
Фото: Саммит по безопасности в области искусственного интеллекта в Великобритании/Global Look Press

Генеративные нейросети довольно активно работают в области биотехнологий, позволяя ученым гораздо быстрее и эффективнее решать задачи, которые ранее занимали много времени. Например, исследователи десятилетиями пытались расшифровать трехмерные структуры белков, используя экспериментальные методы вычислений. Такие методы, как рентгеновская кристаллография или криоэлектронная микроскопия, давали слишком неточный результат, а на расшифровку могли уходить месяцы либо вообще годы.

Наше тело использует десятки тысяч различных белков, каждый из них, в свою очередь, состоит из десятков или сотен аминокислот. Порядок этих аминокислот определяет, как множество взаимодействий между ними порождает сложные трехмерные формы белков. А уже эти трехмерные формы предопределяют функции организма.

Расшифровать такую сеть — значит, добыть ключ к получению эффективных лекарств, способных воздействовать очень точечно, и создавать ферменты на все случаи жизни — от расщепления пластиковых отходов до разработки биотоплива.

Фото: Unsplash

Три года назад британской компании DeepMind удалось создать ИИ, который предсказывал, как белки из линейной цепочки аминокислот переходят в трехмерные формы, позволяющие им выполнять жизненные задачи.

С помощью системы глубокого обучения на последовательностях и структурах известных белков в сочетании с «алгоритмом внимания», имитирующим способ, которым человек собирает головоломку, AlphaFold научилась соединять части в небольшие комочки — кластеры аминокислот, — а затем находить способы собрать их в небольшие группы.

Потом программа начала выдавать вычисления, точность которых по сравнению с прошлыми результатами глобального дистанционного теста (не превышали около 40 баллов из 100) составила 92,4 для более простых белков и 87 для сложных.

…и новые угрозы

Но искреннюю радость одних ученых не разделили другие. Исследователь биобезопасности в Оксфордском университете Джонас Сэндбринк заявил, что уже существующие генеративные нейросети общего пользования вроде ChatGPT запросто выдают всем желающим информацию, которая может помочь создать биологическое оружие.

Например, он рассказал об эксперименте Массачусетского университета: в рамках учебного курса «Защита будущего» студентам, не имеющим ученой степени, предложили узнать у языковой модели, как им создать… пандемию.

«За один час чат-боты предложили четыре потенциальных возбудителя пандемии, объяснили, как их можно получить из синтетической ДНК с помощью обратной генетики, назвали компании, занимающиеся синтезом ДНК, которые вряд ли будут отсеивать заказы, указали подробные протоколы и способы их устранения, а также рекомендовали всем, кто не обладает навыками обратной генетики, обратиться в базовый центр или контрактную исследовательскую организацию», — сообщили ученые.

Фото: Unsplash

Сэндбринк напомнил, что в 1990 году японская секта «Аум Синрикё»* пыталась распылять в Токио бактерии Clostridium botulinum, надеясь, что таким образом они поразят ботулотоксином — сильнейшим органическим ядом из известных науке —  несколько ключевых зданий в городе и поблизости, включая две военно-морские базы США, аэропорт Нарита и императорский дворец.

Но террористы не знали разницы между распространением бактерий и собственно нейротоксина, который они производили. Так что от атаки никто не пострадал.

Через пять лет «Аум Синрикё»* провела работу над ошибками и в марте 1995-го вместо бактерий применила в токийском метро газ зарин: погибли от 12 до 13 человек, 6,3 тысячи получили отравление. Джонас Сэндбринк заметил, что будь у террористов такой инструмент, как нейросети, они могли бы узнать значительно больше о том, как правильно получить ботулотоксин.

Зариновая атака в токийском метро
Фото: Зариновая атака в токийском метро/Википедия

Напуганный Байден, нерешительный Байден

За несколько дней до саммита в Великобритании Белый дом с помпой представил новый закон в области искусственного интеллекта, назвав его самой радикальной мерой, когда-либо предпринимавшейся для защиты американцев от потенциальных рисков, связанных с системами искусственного интеллекта. Правда, на деле весь радикализм закона умещается в одном аспекте.

Создателей языковых генеративных систем обязали не только проверять свои системы на наличие таких проблем, как расовая предвзятость, создание дезинформации и прочее (что они с переменным успехом уже делают), но и «уведомлять федеральное правительство при обучении модели и делиться результатами всех тестов безопасности».

Фото: Unsplash

Из конкретики на этом все. Дальше в пространном документе перечислены сами угрозы — выделены восемь их разновидностей. Затем идут размышления о том, что делать с этими угрозами в будущем.

Например, Байден собирается вводить «новые строгие стандарты для скрининга биосинтеза», а агентства, финансирующие проекты в области биологических наук, должны будут их придерживаться для получения федерального финансирования. Вот только ни сроков, ни графика внедрения стандартов в документе нет.

Американский сенат заинтересовался опасностью ИИ в области биотехнологий и биотерроризма еще летом 2023 года. На июльских слушаниях в подкомитете юридического комитета сената Дарио Амодей, исполнительный директор ИИ-компании Anthropic, подтвердил, что обычные «гражданские» нейросети могут оказаться подспорьем в руках злоумышленников.

Что делать?

В ответ на извечный вопрос исследователь биобезопасности в Оксфордском университете Джонас Сэндбринк заявлял, что с появлением новых технологий придется перестраивать законодательство. Кроме того, чтобы следить, как бы нейросеть не написала что-то расистское, ученый посоветовал как минимум сделать базовый скрининг синтеза генов обязательным для частных компаний в США, а по-хорошему во всем мире.

Да, существует множество компаний, производящих «строительные блоки» ДНК или РНК, и им лишь рекомендовали проверять заказы и клиентов. Да, большинство таких компаний занимаются скринингом заказов самостоятельно. Но нейросети запросто выдали пользователям и те фирмы, которые этого не делают.

Фото: Unsplash

Второй способ не превратить языковые нейросети в энциклопедию начинающего биотеррориста банален — цензура. Причем на этапе создания самой нейросети и при последующем использовании.

Вообще, это одна из проблем языковых систем: их возможности могут стать очевидными только после выпуска. Тем не менее цензурировать нейросети придется.

Сэндбринк считает, что нужно выделять в данных, которыми «кормят» нейросеть и которые она производит, так называемую информацию двойного назначения, ведь ее можно использовать недобросовестно. И ограничивать к такой информации доступ, например, по профессиональному признаку.

Чтобы получить доступ к возможностям модели для прогнозирования вариантов вируса гриппа, уклоняющихся от иммунитета, для обоснования разработки вакцины, ученому может потребоваться подтвердить подлинность и предоставить соответствующую документацию по биобезопасности и проверке двойного назначения.

Джонас Сэндбринк

исследователь биобезопасности, Оксфордский университет

Пока все эти меры только витают в воздухе и живы в дискуссиях среди узконаправленных специалистов. А долгая, изнурительная работа над теми или иными законами занимает много времени.

Это заставляет задаваться вопросом без ответа: пока правительства разных стран договорятся сначала в собственных парламентах, а потом между собой, как далеко зайдет в своем развитии искусственный интеллект?


* Верховный суд запретил деятельность религиозного объединения «Аум Синрикё» в России. Организация признана террористической

    Пока ничего не найдено

    Задизайнено в Студии Артемия Лебедева Информация о проекте