Эксперты предупреждают: искусственный интеллект может стать новым оружием в арсенале террористов, и международное сообщество должно срочно принять меры для предотвращения этого сценария. С каждым днем технологии искусственного интеллекта (ИИ) становятся все более сложными, и их потенциал для злоупотреблений вызывает опасения у специалистов в сфере безопасности. Современные террористические группы могут использовать ИИ для создания новых методов ведения атак, вербовки сторонников и распространения экстремистских идей, что ставит перед цивилизованным миром новые вызовы.
Антония Мари Де Мео, директор Межрегионального института ООН по исследованию преступности и правосудия, в своем докладе подчеркивает опасность ИИ: «Реальность такова, что ИИ может быть чрезвычайно опасен, если использовать его с плохими намерениями… это мощный инструмент, который, по всей видимости, может облегчить терроризм и насильственный экстремизм, способствующий терроризму». Она подчеркивает, что учитывая накопленный опыт в сфере киберпреступлений, ИИ может существенно упростить задачи террористов, например, используя беспилотные автомобили с взрывными устройствами, усиление кибератак или активное распространение экстремистских и радикальных идей через цифровые каналы.
Доклад под названием «Алгоритмы и терроризм: злонамеренное использование ИИ в террористических целях» является сигналом для правоохранительных органов о необходимости оставаться впереди технологических разработок, чтобы предугадывать и предотвращать новые угрозы. Де Мео считает, что этот доклад станет отправной точкой для обсуждения того, как ИИ может быть применен в террористической деятельности.
Исследование отмечает, что задача опережения террористов крайне сложна, так как требует не только предвидения новых методов использования ИИ, но и разработки эффективных мер противодействия этим методам. Этот вызов становится особенно актуальным на фоне быстрого технологического прогресса и широкого распространения ИИ.
Исследование, проведенное НАТО и Институтом стратегических исследований Военного колледжа США, подтверждает, что террористические группы уже активно используют новые технологии для атак и вербовки. Авторы доклада «Новые технологии и терроризм: американская перспектива» отмечают, что стремительное развитие технологий размывает грань между реальностью и вымыслом. Они призывают правительства, бизнес и научное сообщество к совместным действиям по созданию этических стандартов и регуляций, подчеркивая при этом важность национальной ответственности в борьбе с технологическими угрозами.
«По мере того как геополитические тенденции меняются, НАТО делает акцент на национальной ответственности в борьбе с терроризмом и на необходимости коллективной силы перед угрозами, исходящими от технологий», — подчеркивают авторы исследования.
Присоединяйтесь к нашему телеграм-каналуОдним из ключевых выводов исследования является использование ИИ для улучшения фишинговых атак, распространения вредоносного программного обеспечения через открытые библиотеки кода, создания дезинформации и онлайн-пропаганды. Киберпреступники и террористы быстро осваивают платформы на базе ИИ, такие как ChatGPT, для создания дипфейков и чат-ботов, размещенных на теневых платформах, которые используются для получения конфиденциальной информации или планирования терактов.
Авторы предупреждают, что «эта зловредная деятельность будет только увеличиваться по мере совершенствования технологий». Они подчеркивают необходимость более строгого контроля над тем, как ИИ хранит и распространяет чувствительную информацию, а также важность прозрачности в этом вопросе.
В этом году Центр по противодействию терроризму при Вест-Пойнте опубликовал отчет, в котором отмечено, что ИИ способен значительно повысить эффективность планирования терактов. В отчете указано, что с помощью ИИ можно не только модернизировать старые методы, но и разрабатывать более современные и сложные подходы к осуществлению атак.
«Авторы исследования изучили, как экстремисты могут использовать специальные команды для “взлома” языковых моделей, обходя встроенные ограничения и получая доступ к запрещенному или неэтичному контенту», — говорится в отчете.
Они тестировали несколько крупных языковых моделей, включая ChatGPT и Bard, чтобы оценить, насколько легко можно обойти встроенные механизмы безопасности. В результате Bard оказался наиболее устойчивым к взлому, в то время как ChatGPT поддавался взлому в половине случаев при использовании косвенных подсказок.
В заключение эксперты подчеркивают необходимость регулярного обновления защитных мер и расширения сотрудничества между частным сектором, государственными органами, научными и технологическими институтами. Для разработки эффективных систем защиты от злоупотреблений ИИ требуется координация усилий всех этих структур.
Итак, перед международным сообществом стоит серьезная задача — разработка механизмов, которые помогут не только предотвращать террористические акты с использованием ИИ, но и минимизировать риски, связанные с распространением терроризма в киберпространстве.