Эксперты в области искусственного интеллекта (ИИ) предупреждают о нарастающей угрозе: ИИ может стать источником создания новых патогенов, способных вызвать эпидемии и даже пандемии. Исследователи из Университета Джонса Хопкинса, а также Стэнфордского и Фордемского университетов опубликовали статью в журнале Science, в которой выразили обеспокоенность тем, что биологические модели ИИ могут быть использованы не только для благих целей, таких как разработка вакцин и лекарств, но и для создания новых, более опасных вирусов.

Основная опасность заключается в том, что эти модели могут быть использованы для создания вирусов, способных обходить иммунную систему человека, что может привести к катастрофическим последствиям. Исследователи настаивают на том, что добровольные обязательства разработчиков ИИ недостаточны для предотвращения подобных угроз. Они призывают к введению строгих законодательных мер и обязательных правил на государственных уровнях, которые помогут минимизировать риски, связанные с использованием ИИ в биологии.

Авторы статьи пишут: “Модель, способная разработать безвредный вирус для доставки генотерапии, может создать патогенный вирус, устойчивый к вакцинации” (Фото: Zhengshun Tang—Getty Images)

Анита Чичеро, заместитель директора Центра безопасности здоровья Университета Джонса Хопкинса и одна из авторов статьи, предупреждает, что без должного надзора эти угрозы могут стать реальностью в течение следующих 20 лет, а возможно, и раньше. “Нам необходимо действовать уже сейчас”, — заявляет Чичеро, подчеркивая необходимость строгого контроля со стороны государства, чтобы ограничить использование мощных ИИ-инструментов в потенциально опасных для человечества целях.

Чичеро предупреждает, что ИИ способен найти способы, как патоген может сохранять свою заразность, оставаясь при этом смертельно опасным. Это вызывает серьезные опасения не только в отношении террористических группировок, но и в отношении исследователей, которые, действуя без надлежащих протоколов безопасности, могут случайно создать и выпустить патоген, способный бесконтрольно распространяться.

К настоящему времени около 175 ученых, исследователей и специалистов из таких организаций, как Гарвард, Moderna и Microsoft, подписали документ, содержащий добровольные обязательства в рамках инициативы Responsible AI x Biodesign. Чичеро, являющаяся одной из подписантов, отмечает, что такие обязательства важны, но их недостаточно для защиты от рисков. «Мы не полагаемся на добровольные обязательства в других областях с высоким риском, таких как работа с живыми вирусами Эбола в лабораториях», — подчеркивается в статье.

ИИ-модели, которые работают с биологическими данными, уже активно используются в различных областях, включая разработку вакцин и улучшение урожайности сельскохозяйственных культур. Эти технологии позволяют ученым ускорять процесс разработки новых лекарств и решать сложные задачи в медицине и сельском хозяйстве. Однако с развитием таких технологий возрастает и риск их злонамеренного использования.

Присоединяйтесь к нашему телеграм-каналу
Ребенок получает вакцину Pfizer-BioNTech против COVID-19 в Блумфилд-Хиллз, Мичиган, 13 мая 2021 года (Фото: Zhengshun Tang—Getty Images)

Одним из главных рисков является возможность создания вирусов, способных обходить иммунную систему, что может привести к новым вспышкам болезней, неконтролируемым эпидемиям и даже глобальным пандемиям. В статье подчеркивается, что добровольные меры среди разработчиков ИИ, такие как внутренние проверки и тестирование моделей на потенциальные риски, недостаточны для предотвращения глобальных катастроф. Авторы статьи предлагают разработать специальные тесты, которые будут оценивать модели ИИ на предмет возможных рисков до их выхода в публичное пространство.

Эти тесты должны оценивать способность ИИ создавать патогены и представлять риск пандемии. Если модели будут признаны опасными, доступ к ним должен быть ограничен или полностью запрещен. Особенно это касается моделей, которые обучаются на огромных объемах биологических данных или на особо чувствительной информации, такой как генетические последовательности вирусов. В зависимости от результатов таких тестов должен будет решаться вопрос о том, насколько ограниченным должен быть доступ к таким моделям. Кроме того, необходимо учитывать, что модели с открытым исходным кодом могут быть изменены после их выпуска, что также повышает уровень риска.

Пол Пауэрс, эксперт в области ИИ и генеральный директор компании Physna, также выражает обеспокоенность тем, что стремительное развитие ИИ опережает возможности регулирования. По его мнению, скорость, с которой развиваются ИИ-технологии, значительно превышает темпы разработки законов и правил. Это создает дополнительные риски, так как доступ к мощным ИИ-технологиям становится все более доступным для частных лиц и небольших компаний, что усложняет контроль над их использованием.

Фото: Zhengshun Tang / Getty Images

В статье также поднимается вопрос о том, что международное сотрудничество имеет ключевое значение в управлении рисками, связанными с биологическими ИИ-моделями. Несмотря на то, что согласование политик между странами может быть сложной задачей, исследователи настаивают на том, что страны с самыми передовыми технологиями ИИ должны в первую очередь сосредоточиться на разработке эффективных мер по оценке и предотвращению рисков.

Одним из примеров исторического использования биологического оружия является использование монгольскими войсками в XIV веке трупов, зараженных чумой, для осаждения городов, что, возможно, способствовало распространению Черной Смерти в Европе. Также во время Второй мировой войны несколько стран, включая Японию, экспериментировали с биологическим оружием, таким как чума и тиф. Несмотря на подписание Конвенции о запрещении биологического и токсинного оружия в 1972 году, угроза биологического оружия сохраняется. Японская секта Аум Синрикё в 1990-х годах пыталась создать и распространить биологические агенты, такие как сибирская язва, но потерпела неудачу из-за недостатка технических знаний. Однако по мере развития ИИ устранение технических ограничений может повысить вероятность появления новых биологических угроз.

Авторы статьи подчеркивают важность создания международных стандартов и сотрудничества для управления рисками, связанными с использованием ИИ в биологии. Чичеро заключает: «Мы должны учитывать не только текущие возможности ИИ, но и предстоящие версии этих инструментов, так как они будут становиться все более мощными и доступными. Если не предпринять своевременных мер, мы можем столкнуться с серьезными биологическими рисками уже в ближайшие десятилетия».