Эксперты предупреждают: искусственный интеллект может стать новым оружием в арсенале террористов, и международное сообщество должно срочно принять меры для предотвращения этого сценария. С каждым днем технологии искусственного интеллекта (ИИ) становятся все более сложными, и их потенциал для злоупотреблений вызывает опасения у специалистов в сфере безопасности. Современные террористические группы могут использовать ИИ для создания новых методов ведения атак, вербовки сторонников и распространения экстремистских идей, что ставит перед цивилизованным миром новые вызовы.

Антония Мари Де Мео, директор Межрегионального института ООН по исследованию преступности и правосудия, в своем докладе подчеркивает опасность ИИ: «Реальность такова, что ИИ может быть чрезвычайно опасен, если использовать его с плохими намерениями… это мощный инструмент, который, по всей видимости, может облегчить терроризм и насильственный экстремизм, способствующий терроризму». Она подчеркивает, что учитывая накопленный опыт в сфере киберпреступлений, ИИ может существенно упростить задачи террористов, например, используя беспилотные автомобили с взрывными устройствами, усиление кибератак или активное распространение экстремистских и радикальных идей через цифровые каналы.

Вид на штаб-квартиру ООН в Нью-Йорке, 16 июля 2024 года. (Фото: Jakub Porzycki)

Доклад под названием «Алгоритмы и терроризм: злонамеренное использование ИИ в террористических целях» является сигналом для правоохранительных органов о необходимости оставаться впереди технологических разработок, чтобы предугадывать и предотвращать новые угрозы. Де Мео считает, что этот доклад станет отправной точкой для обсуждения того, как ИИ может быть применен в террористической деятельности.

Исследование отмечает, что задача опережения террористов крайне сложна, так как требует не только предвидения новых методов использования ИИ, но и разработки эффективных мер противодействия этим методам. Этот вызов становится особенно актуальным на фоне быстрого технологического прогресса и широкого распространения ИИ.

Исследование, проведенное НАТО и Институтом стратегических исследований Военного колледжа США, подтверждает, что террористические группы уже активно используют новые технологии для атак и вербовки. Авторы доклада «Новые технологии и терроризм: американская перспектива» отмечают, что стремительное развитие технологий размывает грань между реальностью и вымыслом. Они призывают правительства, бизнес и научное сообщество к совместным действиям по созданию этических стандартов и регуляций, подчеркивая при этом важность национальной ответственности в борьбе с технологическими угрозами.

«По мере того как геополитические тенденции меняются, НАТО делает акцент на национальной ответственности в борьбе с терроризмом и на необходимости коллективной силы перед угрозами, исходящими от технологий», — подчеркивают авторы исследования.

Присоединяйтесь к нашему телеграм-каналу

Одним из ключевых выводов исследования является использование ИИ для улучшения фишинговых атак, распространения вредоносного программного обеспечения через открытые библиотеки кода, создания дезинформации и онлайн-пропаганды. Киберпреступники и террористы быстро осваивают платформы на базе ИИ, такие как ChatGPT, для создания дипфейков и чат-ботов, размещенных на теневых платформах, которые используются для получения конфиденциальной информации или планирования терактов.

Фото: Solen Feyissa / unsplash (В качестве иллюстрации)

Авторы предупреждают, что «эта зловредная деятельность будет только увеличиваться по мере совершенствования технологий». Они подчеркивают необходимость более строгого контроля над тем, как ИИ хранит и распространяет чувствительную информацию, а также важность прозрачности в этом вопросе.

В этом году Центр по противодействию терроризму при Вест-Пойнте опубликовал отчет, в котором отмечено, что ИИ способен значительно повысить эффективность планирования терактов. В отчете указано, что с помощью ИИ можно не только модернизировать старые методы, но и разрабатывать более современные и сложные подходы к осуществлению атак.

«Авторы исследования изучили, как экстремисты могут использовать специальные команды для “взлома” языковых моделей, обходя встроенные ограничения и получая доступ к запрещенному или неэтичному контенту», — говорится в отчете.

Они тестировали несколько крупных языковых моделей, включая ChatGPT и Bard, чтобы оценить, насколько легко можно обойти встроенные механизмы безопасности. В результате Bard оказался наиболее устойчивым к взлому, в то время как ChatGPT поддавался взлому в половине случаев при использовании косвенных подсказок.

В заключение эксперты подчеркивают необходимость регулярного обновления защитных мер и расширения сотрудничества между частным сектором, государственными органами, научными и технологическими институтами. Для разработки эффективных систем защиты от злоупотреблений ИИ требуется координация усилий всех этих структур.

Итак, перед международным сообществом стоит серьезная задача — разработка механизмов, которые помогут не только предотвращать террористические акты с использованием ИИ, но и минимизировать риски, связанные с распространением терроризма в киберпространстве.