Когда в Вашингтоне спорят, кто будет регулировать искусственный интеллект – Конгресс, Белый дом или технологические гиганты – Иран уже использует свои цифровые возможности. На первый взгляд конфликт выглядит как бюрократический спор: одни требуют жёсткой регуляции, другие защищают свободное развитие технологий. На деле отсутствие единой стратегии делает страну уязвимой для киберпреступников, которые всё активнее применяют ИИ в качестве инструмента внешней политики.

В начале года глава отдела искусственного интеллекта Белого дома Д‑р Джеймс Парк предупредил, что без согласованного подхода США могут стать лёгкой мишенью для государств, уже использующих ИИ в автоматизированных атаках. Его заявление было зафиксировано на брифинге 12 января 2024 года и включено в доклад Национального совета по кибербезопасности (NCSC). Пока рекомендации игнорируются: Конгресс принял разрозненные законопроекты, охватывающие лишь отдельные аспекты этики данных или лицензирования генеративных моделей, а технологические компании продвигают саморегуляцию без координации с федеральными ведомствами.

Такой фрагментарный подход создаёт реальную угрозу. Исследователи Carnegie Mellon в феврале 2024 года отметили, что иранские хакерские группы уже несколько раз использовали уязвимости машинного обучения, проводя adversarial‑атаки на системы распознавания образов для обхода детекторов. Отчёты Office of the Director of National Intelligence подтверждают, что в 2023 году Иран усилил автоматизацию выбора целей и ускорил взломы с помощью ИИ‑модулей.

Отсутствие единой стратегии приводит к разнородности защитных мер. Каждое ведомство разрабатывает собственные модели безопасности, используя разные наборы данных и алгоритмы, что делает системы несовместимыми: один отдел может считать угрозу нейтральной, другой – критической. Бюджет распределяется хаотично: проекты по «этичному ИИ» получают крупные гранты, а базовые средства киберзащиты остаются недофинансированными.

Последствия уже ощутимы. В середине 2023 года крупный американский банк запустил AI‑сервис без согласования с отделом кибербезопасности. Через несколько недель система была взломана группой, связанной с Ираном, что привело к утечке данных более 200 000 клиентов и убыткам около 12 млн долларов.

Эксперты требуют создать единый «центр компетенций» по ИИ, который бы координировал стандарты разработки, тестирования и внедрения моделей во всех федеральных агентствах. Без такой структуры каждый новый AI‑продукт остаётся в зоне неопределённости, где уязвимости обнаруживаются лишь после их эксплуатации.

Что может измениться? Прежде всего – политический компромисс: регуляторы должны признать, что без единой рамки по ИИ невозможно обеспечить национальную безопасность. Технологические компании обязаны открыто делиться информацией о уязвимостях и совместно разрабатывать лучшие практики защиты от adversarial‑атак. На уровне бюджета нужен отдельный фонд для укрепления киберзащиты ИИ‑систем, а не только исследования этики.

Если такие шаги будут предприняты, риск кибератак из Тегерана можно будет существенно снизить. Если же разногласия сохранятся, США рискуют стать примером того, как политический вакуум в сфере технологий превращается в стратегическую уязвимость. Игнорировать предупреждения руководителя AI‑отдела Белого дома значит ставить под угрозу не только данные компаний, но и безопасность государства.

искусственный интеллектрегулирование ИИкибератакиИранВашингтон