Как защитить компанию от ИИ-ускоренных кибератак: 5 принципов, практическая дорожная карта и шаги адаптации программы безопасности к LLM угрозам.
VibeLab
Поделиться
Anthropic опубликовала исследование Project Glasswing — и выводы тревожные. Фронтирные модели уже находят уязвимости, которые человеческие ревью пропускали годами, а окно между публикацией патча и появлением рабочего эксплойта сжимается до часов. Разбираем, что конкретно менять в корпоративной программе информационной безопасности прямо сейчас — пока ИИ работает на вашей стороне, а не против вас.
В апреле 2026 года Anthropic анонсировала Project Glasswing — проект, в рамках которого фронтирная модель Claude Mythos Preview применяется для поиска уязвимостей в реальных кодовых базах. Результаты показали: модель находит критические баги, которые проходили мимо стандартных code review на протяжении лет. И это не теоретическая угроза — ранее модели уровнем ниже Mythos уже обнаружили серьёзные уязвимости в Mozilla Firefox, пропущенные традиционными проверками.
Ключевой тезис исследования: в ближайшие 24 месяца огромное количество багов, тихо сидевших в коде годами, будет найдено ИИ-моделями и собрано в рабочие цепочки эксплойтов. Модели, способные на это, станут широкодоступными.
Это не очередной хайп вокруг генеративного ИИ. Речь о системном сдвиге: большие языковые модели снижают порог входа в кибератаки по трём параметрам одновременно — ресурсы, время, квалификация. Раньше для цепочки «разведка → поиск уязвимости → написание эксплойта → атака» нужна была команда и месяцы работы. LLM сжимают этот цикл до дней, а иногда — часов.
Для security-менеджеров и CISO это означает пересмотр базовых допущений. Программа информационной безопасности, спроектированная под угрозы 2020 года, в 2026-м оставляет компанию открытой.
Генеративный ИИ не создаёт принципиально новых классов атак. Он делает кое-что опаснее — масштабирует существующие методы до уровня, с которым традиционные системы безопасности не справляются.
Классический фишинг работал по шаблонам. Письма содержали грамматические ошибки, не учитывали контекст получателя и легко фильтровались. LLM-генерированный фишинг — другая история.
Модель анализирует открытые данные о цели: LinkedIn-профиль, публикации, стиль переписки. На выходе — тысячи уникальных писем, каждое из которых имитирует стиль конкретного отправителя и учитывает контекст получателя. По данным Proofpoint, в 2025 году объём фишинговых атак с признаками ИИ-генерации вырос на 60%. Google Threat Intelligence фиксирует аналогичный тренд: социальная инженерия с использованием ИИ становится основным вектором первичного доступа.
Что это значит на практике: корпоративные фишинг-тренинги, построенные на распознавании «кривого русского» и подозрительных ссылок, больше не работают. Письмо от «коллеги» с идеальным языком и релевантным контекстом обойдёт и человека, и базовые фильтры.
Anthropic прямо указывает: ИИ-модели отлично справляются с реверс-инжинирингом патчей. Берём опубликованный патч, скармливаем модели — получаем рабочий эксплойт для непатченных систем. Это «механический анализ, в котором модели преуспевают».
LLM ускоряют OSINT-разведку: автоматический сбор информации о технологическом стеке компании, поиск забытых поддоменов, анализ утечек конфигураций. То, на что у пентестера уходила неделя, модель делает за часы.
Отдельная проблема — zero-day уязвимости. Если фронтирная модель находит баги, пропущенные годами code review (как показал Project Glasswing), то модели следующего поколения в руках атакующих будут делать то же самое. Разница в том, что защитники могут не узнать об уязвимости до момента эксплуатации.
Голосовые и видео-дипфейки вышли за рамки лабораторных экспериментов. В 2024 году финансовая компания из Гонконга потеряла $25 млн после видеозвонка, в котором злоумышленники с помощью deepfake имитировали CFO. В 2025–2026 годах подобные инциденты фиксируются регулярно.
Deepfake-атаки бьют по ключевому элементу корпоративной безопасности — верификации личности. Когда синтетический голос проходит голосовую аутентификацию банка, а сгенерированное видео убеждает сотрудника перевести деньги, традиционные протоколы идентификации дают сбой.
Синтетические личности — ещё один вектор. ИИ генерирует правдоподобные профили для прохождения KYC-проверок, создания учётных записей, социальной инженерии. Масштаб проблемы только растёт с повышением качества генерации.
Большинство корпоративных систем безопасности построены на допущениях, которые ИИ-ускоренные атаки разрушают.
Сигнатурный подход. Антивирусы и IDS, работающие на сигнатурах известных угроз, не ловят ИИ-генерированные атаки. Каждое фишинговое письмо уникально. Каждый эксплойт модифицирован. Сигнатуры по определению отстают от атакующего, а ИИ увеличивает этот разрыв.
Периметровая защита. Концепция «защищённого периметра» устарела и без ИИ, но LLM добивают её окончательно. Автоматизированная разведка находит точки входа быстрее, чем команда SOC успевает их закрыть.
Обучение по старым сценариям. Awareness-программы, где сотрудникам показывают скриншоты «типичного фишинга» с ошибками, бесполезны против LLM-генерированных атак. Когда фишинговое письмо неотличимо от настоящего, нужны другие критерии распознавания.
Ручной патч-менеджмент. Anthropic рекомендует патчить интернет-доступные системы в течение 24 часов после появления эксплойта. Если ваш процесс включает «еженедельное совещание и таблицу» — вы не успеваете. Ручные этапы согласования добавляют задержку, а задержка теперь — главный риск.
Статичные политики паролей. Когда ИИ обходит MFA через deepfake или генерирует убедительные претексты для сброса пароля через техподдержку, сложность пароля перестаёт быть релевантной метрикой защиты.
На основе исследования Anthropic и практики работы с AI-инструментами мы выделили пять принципов, которые трансформируют обеспечение безопасности из реактивного в проактивное.
Сигнатуры ловят известное. ИИ-генерированные атаки по определению уникальны. Значит, нужен анализ поведения, а не образцов.
Что внедрять:
Ключевой trade-off: поведенческие системы генерируют больше false positives на старте. Нужен период обучения (2–4 недели) и тюнинг. Но альтернатива — пропустить атаку, которую сигнатуры не увидят.
Старый подход: «Не кликайте на подозрительные ссылки. Вот как выглядит фишинг.» Проблема: LLM-фишинг не выглядит подозрительно.
Новый подход строится на трёх элементах:
Zero Trust — правильная архитектура, но её классическая реализация не учитывает ИИ-специфичные угрозы.
Проблема: deepfake проходит видеоверификацию, синтетический голос — голосовую аутентификацию, ИИ-сгенерированные документы — базовую проверку KYC. MFA, построенная на «что-то, что ты знаешь + что-то, что ты имеешь», устойчива. Но MFA с биометрией голоса или лица — уязвима.
Что добавить к стандартному Zero Trust:
Anthropic формулирует это прямо: «Сканируйте свой код и системы теми же моделями, которые использовал бы атакующий, — только делайте это раньше.» По их оценке, если из всех рекомендаций внедрить только одну — внедрите эту.
Конкретные применения ИИ в защите:
Инструменты, на которые стоит обратить внимание: CodeQL (GitHub) для SAST в CI, OpenSSF Scorecard для оценки open-source зависимостей, SLSA framework для защиты цепочки сборки.
Внешние угрозы — половина проблемы. Вторая половина — shadow AI внутри организации.
Сотрудники используют ChatGPT, Claude, Gemini для рабочих задач. Часто — вставляя в промпты фрагменты кода, внутренние документы, данные клиентов. Без политик и контроля это прямой канал утечки.
Что нужно:
Проблема уже здесь. Публично доступные модели уже находят серьёзные уязвимости, которые традиционные ревью пропускали годами. Речь не о гипотетических рисках.
Реверс-инжиниринг патчей — самый опасный вектор. Каждый публичный патч — одновременно и исправление для обновившихся, и инструкция по атаке для остальных. Окно сужается до часов.
Защитники имеют преимущество — если действуют первыми. Те же модели, которые находят уязвимости для атакующих, работают и на защитников. Разница — в скорости внедрения.
Объём уязвимостей вырастет на порядок. Anthropic рекомендует готовиться к десятикратному росту числа обнаруженных уязвимостей. Процессы триажа и ремедиации должны масштабироваться соответственно.
Приоритеты изменились. Советы знакомы — SOC 2, ISO 27001, Zero Trust. Новое — приоритизация. Patch gap из «важно, но терпит» стал «критично, закрывайте немедленно». SAST в CI из хорошей практики превратился в обязательный контроль.
ИИ не отменяет основы информационной безопасности — он ускоряет всё. Атаки становятся быстрее, дешевле, персонализированнее. Но и инструменты защиты получают тот же буст.
Три принципа, которые стоит зафиксировать:
Начните с аудита своей security-программы по пяти принципам из этой статьи. Пройдитесь по каждому пункту дорожной карты и честно оцените статус.
Подписывайтесь на наш канал: @vibelogia
Поделимся опытом
8 800 201 85 68