Введение
Искусственный интеллект активно внедряется в разные отрасли — от медицины до сельского хозяйства и научных исследований. При этом ожидаемо, что IT-сектор оказался среди первых, где такие технологии начали применять на практике: модели машинного обучения помогают искать информацию во внутренних системах, автоматизируют транскрибацию встреч, обрабатывают запросы пользователей и упрощают работу с корпоративными данными.
Но параллельно усложняется и ландшафт киберугроз. Помимо фишинга и вредоносного ПО, появляются атаки с использованием сгенерированных профилей, имитирующих реальных пользователей, а также модели, применяемые для автоматизации подготовки атак. Традиционные средства защиты уже не всегда эффективно справляются с такими сценариями.
В ответ на это в системах информационной безопасности начинают использовать старый добрый метод «клин клином», так что машинное обучение и ИИ уже активно встречаются и здесь. Например, в этом контексте ИИ позволяет:
- обрабатывать большие объемы событий и логов,
- выявлять аномалии и скрытые зависимости,
- ускорять реагирование на инциденты и частично автоматизировать принятие решений.
С чем помогает ИИ в IT
Итак, ИИ уже применяется в разных областях IT, в том числе в информационной безопасности, где берет на себя часть рутинных операций и помогает обрабатывать большие объемы данных. Среди типичных сценариев — биометрические системы контроля доступа, поиск фейковой информации о компании в открытых источниках, а также разработка и внедрение моделей для внутренних задач.
В службах поддержки ИИ используется в чат-ботах: они обрабатывают типовые запросы, определяют тональность сообщений и при необходимости передают диалог оператору. Это снижает нагрузку на первую линию поддержки.
Во внутренних IT-процессах ИИ, например, применяется для мониторинга и прогнозирования. Модели машинного обучения позволяют «предсказывать» перегрузки инфраструктуры — например, сетей или энергопотребления — и уведомлять ответственных сотрудников.
В DevOps-инструментах ИИ анализирует результаты сборки и тестирования, помогая находить аномалии и потенциальные уязвимости, применяется для написания документации. Это позволяет упростить взаимодействие в кросс-функциональных командах, а также самостоятельно разбираться с ошибками и инцидентами.
К слову, слышали ли вы о набирающем популярность термине MLSecOps? В отдельной статье мы подробно разобрали это понятие и рассказали, что нужно учитывать при создании продуктов с применением ML. Рекомендуем ознакомиться, если вам интересно переплетение направлений ML, AI и ИБ.
В облачной инфраструктуре ИИ прогнозирует потребление ресурсов и динамически масштабирует службы. Говоря о безопасности инфраструктуры, ИИ также применяется в DLP-системах: он анализирует поведение пользователей и снижает риск утечек данных.
Во всех этих случаях ИИ выступает как помощник IT-сектора в целом и IT-специалиста в частности. Он забирает на себя тривиальные, повторяющиеся операции по обработке и анализу больших данных. Это позволяет специалистам фокусироваться на более важных задачах.
В информационной безопасности на рынке труда постоянный дефицит квалифицированных инженеров, а у действующих сотрудников постоянно растет нагрузка. По этим причинам ИБ-специалистам важно оптимизировать процессы и уменьшать количество рутины, в том числе благодаря ИИ. Но подходы тут применяются к другим задачам: анализу событий безопасности, выявлению угроз и реагированию на инциденты. Ключевое отличие в том, что здесь выше требования к точности, скорости обработки и интерпретации данных: ошибка может напрямую повлиять на безопасность инфраструктуры и репутацию компании, а также повлечь существенные убытки.
Ниже рассмотрим, как именно ИИ применяется в ИБ и какие задачи он решает на практике.
Сферы применения в ИБ
Обнаружение угроз
ИИ анализирует сетевой трафик, журналы событий и поведение конечных устройств, выявляя аномалии и подозрительные паттерны, которые могут свидетельствовать о кибератаке. Благодаря обучению на архивных данных, модели способны распознавать сложные сценарии атак — от нетипичных последовательностей действий до отклонений в поведении пользователей.
При этом в отличие от сигнатурных методов, такие системы учитывают контекст и могут обнаруживать ранее неизвестные угрозы.
Прогнозирование атак
На основе анализа предыдущих инцидентов, записей о вредоносной активности и внешних данных ИИ может предугадывать вероятность атак, а также тактики и техники, которые будут использовать злоумышленники.
Анализируя цепочки событий, системы выявляют закономерности, предшествующие компрометации. Это позволяет переходить к превентивной модели защиты — заранее устранять уязвимости и готовиться к потенциальным атакам.
Анализ событий и отчетов других систем
В современных системах класса SIEM и DLP ИИ используется для обработки журналов и событий из разных источников.
Модели машинного обучения помогают снижать количество ложных срабатываний, выделять приоритетные инциденты, а также связывать разрозненные события в единые цепочки атак. В результате аналитики получают более структурированную картину происходящего. Некоторые системы также формируют рекомендации по реагированию, но не выполняют действия автоматически.
Автоматизация процессов
ИИ может не только обнаруживать угрозы, но и автоматически запускать процедуры локализации и ликвидации. Автономные механизмы реагирования способны изолировать зараженные узлы, блокировать подозрительные процессы или сетевые подключения и уведомлять операторов о выполненных действиях. Такой подход значительно сокращает время реакции: атаки «гасятся» в считанные секунды, тогда как человеческий фактор может значительно увеличить этот показатель до минут и часов.
Но важно при этом сохранять контроль человека: ИИ может галлюцинировать и, например, некорректно отработать процедуры блокирования или изолирования. Лучшие практики предусматривают подход human-over-the-loop: ИИ инициирует и предлагает действия, но ключевые решения остаются за специалистами.

Другие направления
К ИИ активно прибегают для анализа поведения пользователей — это необходимо для выявления инсайдерских угроз, попыток фрода или нетипичного доступа к данным. Модели ИИ строят профили «базового» поведения сотрудника и сигнализируют об аномалиях — например, если разработчик начинает скачивать из базы клиентские данные поздной ночью, то его изолируют и оповестят ответственных лиц.
Помимо прочего, ИИ применяется в управлении уязвимостями: он анализирует результаты сканирования и помогает приоритизировать найденные проблемы с учетом риска и контекста.
Во всех описанных сценариях ИИ не заменяет специалиста, а дополняет его: автоматизирует обработку данных, работает непрерывно и помогает сосредоточиться на анализе и принятии решений.
Помощь ИИ в сигнатурном анализе
Классический сигнатурный анализ — основа традиционных антивирусов и систем обнаружения угроз. Вредоносный код выявляется путем сравнения последовательностей байтов (сигнатур) с базой известных угроз.
Проблема в том, что современное вредоносное ПО (не без помощи ИИ) часто обфусцируется (запутывается) и модифицируется в процессе компиляции. Это делает жесткие сигнатуры малоэффективными: один и тот же алгоритм вируса может быть зашифрован по-разному, поэтому прямое сигнатурное совпадение не сработает и найти вирус будет сложнее.
Здесь на помощь приходит специально обученная модель нейросети. Вместо строгого сопоставления байтов используются модели, которые учитывают поведенческие и структурные признаки программ. Например, в динамическом анализе файлы запускаются в изолированной среде (песочнице), где фиксируются системные вызовы, операции с файлами и памятью, а также сетевые активности.
Модели машинного обучения анализируют эти данные и выявляют характерные паттерны поведения, связанные с вредоносной активностью, независимо от того, как именно изменен код.
Кроме того, ИИ применяется для генерации эвристик и правил. На основе анализа выборки вредоносных и легитимных программ модели формируют признаки и шаблоны, которые затем используются в классических средствах защиты. Это ускоряет обновление сигнатурных баз и снижает объем ручной работы.
В результате сигнатурный подход не заменяется, а расширяется: помимо точного совпадения используются вероятностные оценки и поведенческий анализ. Это повышает эффективность обнаружения модифицированного и ранее неизвестного вредоносного ПО.
Машинное обучение в кибербезопасности
Машинное обучение (Machine Learning) — это область ИИ, в которой модели обучаются на данных и используются для прогнозирования и классификации. В информационной безопасности ML применяется для анализа событий, выявления аномалий и распознавания атак на основе накопленных данных о нормальной и вредоносной активности.
На практике чаще всего берется готовое LLM-решение и дообучается до требуемых значений. Реже используется обучение с учителем: модели обучаются на размеченных примерах вредоносного и легитимного поведения, а затем классифицируют новые события. В задачах ИБ применяются разные алгоритмы — деревья решений, случайный лес, градиентный бустинг, а также нейронные сети.
Для более сложных сценариев, например анализа сетевого трафика или бинарных файлов, используются глубокие нейронные сети. Они позволяют выявлять сложные зависимости в данных и обнаруживать модифицированное или ранее неизвестное вредоносное ПО.
Также широко применяется обучение без учителя. Алгоритмы кластеризации формируют профиль «нормального» поведения пользователей или устройств и фиксируют отклонения. Это особенно полезно для выявления инсайдерских угроз и новых типов атак, для которых нет размеченных данных.
В совокупности эти подходы меняют характер работы систем информационной безопасности: они переходят от статического анализа к адаптивному, где решения принимаются на основе данных и контекста. Это дает ряд практических преимуществ, но одновременно добавляет новые ограничения и риски — обе стороны монеты мы и рассмотрим дальше.
Преимущества использования ИИ в ИБ
На практике ценность ИИ в ИБ определяется не отдельными алгоритмами, а их влиянием на процессы: скоростью обработки событий, качеством детектирования и нагрузкой на специалистов. Рассмотрим ключевые сильные стороны ИИ в безопасности.
Ускоренное обнаружение угроз
ИИ может обрабатывать миллионы событий и журналов в реальном времени, значительно быстрее выявляя инциденты. Это позволяет заметить атаки на ранних стадиях или в автоматическом режиме, сокращая время от попытки проникновения до обнаружения.
Улучшенная точность и снижение ложных срабатываний
Модели учитывают широкий контекст и множество признаков, что помогает отличать реальные угрозы от легитимной активности. Это снижает количество ложных тревог и уменьшает нагрузку на специалистов. Благодаря ML администраторы могут сфокусироваться на выборке действительно важных событий, а не на сотнях незначительных или ложных.
Автоматизация рутинных задач
Модели могут взять на себя часть рутинной работы по анализу событий, корреляции логов и созданию отчетов. Так аналитики освобождаются от рутины и могут уделять больше времени сложным расследованиям.
Прогнозирование атак
Как мы уже упоминали ранее, анализ открытых источников и «исторических» данных позволяет моделям выстраивать вероятностные предсказания: какие атаки могут произойти в будущем и откуда злоумышленники «нанесут удар». Использование таких прогнозных моделей позволяет организациям заранее усилить защиту критических систем или оперативно исправлять уязвимости, чтобы опережать киберпреступников.
Масштабируемость и эффективность
Решения на базе ИИ легко масштабируются на большие корпоративные сети, обрабатывая потоки данных, недоступные ручному анализу. Они эффективны при сочетании многочисленных источников информации и формируют полноценный обзор безопасности. Это позволяет комплексно защищать как локальную инфраструктуру, так и облака.
Повышение общей эффективности бизнеса
Оперативная и точная защита инфраструктуры снижает вероятность инцидентов, а также сокращает время простоя. ИИ здесь создает конкурентное преимущество: высвобожденные ресурсы помогают оптимизировать бизнес-процессы и способствуют стабильному росту компании при минимизации рисков.
Недостатки и особенности
Те же свойства, которые дают ИИ преимущества — работа с данными, автоматизация и адаптивность — создают и новые риски. Их важно учитывать при внедрении и эксплуатации таких систем.
Помощь ИИ злоумышленникам
Важно учитывать, что ИИ в контексте кибербезопасности — это «двойной агент», так как технологии могут применять и злоумышленники: для генерации фишинга, автоматизации поиска уязвимостей и создания дипфейков. Это зеркально ускоряет развитие угроз и усложняет их обнаружение.
Приватность и правовые ограничения
Для обучения моделей требуется сбор больших объемов данных, включая поведенческие. Это создает риски нарушения конфиденциальности и требует учета нормативных ограничений. Также остается вопрос ответственности за автоматические решения моделей — например, в случае неверного действия, которое привело к утечке информации.
Сложность внедрения и высокая стоимость
Эффективные решения требуют квалифицированной команды специалистов в областях ИИ, Data Science и ИБ, а также значительных вычислительных ресурсов. Разработка, обучение и постоянная поддержка моделей обходятся дорого. При этом нужны и большие размеченные выборки. В ряде организаций нет таких наборов данных или они недостаточны, что усложняет внедрение ИИ-решений.
Зависимость от качества данных и моделей
Ошибки и смещения в данных напрямую влияют на результат. При этом решения моделей не всегда интерпретируемы, что усложняет аудит. Возможны и ошибки автоматизации — например, блокировка легитимной активности или пропуск атаки.
Применение ИИ в ИБ требует взвешенного подхода: автоматизация повышает скорость и масштаб анализа, но контроль и интерпретация результатов должны оставаться за специалистами.
Уязвимость ИИ-решений для атак
Несмотря на преимущества ИИ-систем в обеспечении безопасности, они сами становятся целью атак. Их уязвимости связаны как с данными, так и с архитектурой моделей и инфраструктурой, в которой они работают.
Атаки на обучающие данные
Если злоумышленник получает доступ к процессу сбора или подготовки данных, он может внедрять искаженные примеры. В результате модель обучается на некорректных данных и начинает ошибочно классифицировать вредоносную активность как легитимную или наоборот. Такие атаки снижают качество детектирования и могут незаметно деградировать защитные механизмы.
Атаки на модель
Обученная модель может стать объектом атак: ее могут попытаться извлечь или модифицировать. Например, через API злоумышленник последовательно отправляет запросы и по ответам восстанавливает поведение модели. Также возможна закладка бэкдоров, при которых модель ведет себя корректно в обычных условиях, но выдает неверный результат при определенном входе.
Атаки на входные данные
Даже без доступа к модели или данным возможны атаки через специально сформированные входные данные. Незначительные изменения во входе — например, в сетевом трафике или бинарном коде — могут привести к некорректной классификации. Для классических систем такие изменения несущественны, но модели машинного обучения могут быть к ним чувствительны.
Атаки на доступность
ИИ-системы требуют значительных вычислительных ресурсов. Это делает их уязвимыми к атакам на отказ в обслуживании (DoS). Перегрузка запросами или подача некорректных данных может замедлить или остановить обработку. Дополнительно атаки на инфраструктуру могут нарушить обновление моделей и их корректную работу.
Защита ИИ-систем требует дополнительных мер: контроля качества данных, проверки целостности моделей, ограничения доступа к API и изоляции среды выполнения.
Использование ИИ хакерами
Как мы упоминали ранее, злоумышленники активно обучают ИИ и используют передовые технологии в своих целях. С появлением мощных генеративных моделей стало значительно проще создавать убедительные фишинговые сообщения, вредоносный код или профили руководителей компаний.
Злоумышленники также применяют машинное обучение для оптимизации атак. Они могут использовать алгоритмы для автоматического поиска уязвимостей, проверки тысяч комбинаций эксплойтов или создания вредоносов. Специально обученные модели могут помочь злоумышленникам лучше маскировать свои действия: алгоритмы способны моделировать поведение обычных пользователей и обходить анти-фрод системы.
Стоит подчеркнуть, что киберпреступники активно обучают собственные модели на Open Source-решениях или утекших данных и часто оказываются хорошо подготовленными. По этой причине защита на основе ИИ должна постоянно эволюционировать и адаптироваться к новым приемам.
Перспективы и тренды
Развитие ИИ в кибербезопасности идет в сторону повышения автономности и адаптивности систем. Современные решения стремятся непрерывно анализировать телеметрию, автоматически обновлять модели, а также адаптироваться к изменениям в инфраструктуре и поведении атакующих. Это дает возможность предсказывать часть атак на основе моделей поведения атакующего.
Параллельно развивается использование генеративных моделей в работе специалистов: для подготовки отчетов, анализа инцидентов и формирования рекомендаций.
Отдельное направление — повышение устойчивости самих ИИ-систем. Разрабатываются методы тестирования моделей на устойчивость к атакам, включая целенаправленные стресс-сценарии и проверку поведения при аномальных данных.
В долгосрочной перспективе ИИ становится частью инфраструктуры безопасности, но не заменяет специалиста. Его задача — ускорить анализ и обработку данных, тогда как интерпретация результатов и принятие решений остаются за человеком.
Чем может помочь Selectel
Selectel предоставляет профессиональную поддержку в разработке и развертывании ИИ-решений для IT-сектора. Выделим основные решения по работе и настройке ИИ.
Foundation Models Catalog — сервис, который позволяет компаниям и разработчикам разворачивать в облаке готовые LLM. То есть, уже преднастроенные модели для создания собственных AI-решений, включая системы генерации речи, текста, кода и другие AI-инструменты.

ML-платформа, которая подготовлена для ML-разработки — например для обучения и развертывания моделей. При подборе компонентов ML-платформы используются ресурсы облачной платформы. После подключения платформы ее состав можно расширить собственными программными компонентами.

Managed Kubernetes с GPU для AI- и ML-задач, где уже преднастроены инструменты для управления, автоматизации пайплайнов и выпуска новых версий моделей.
При этом мы предоставляем возможность создания как облачных, так и полностью изолированных решений для корпоративных заказчиков. Например, использование услуги Enterprise-grade ЦОД позволяет получить физически изолированные серверы с GPU для работы с особо чувствительными данными. Контроль безопасности остается в привычном формате, как on-premise, без промежуточного оборудования провайдера. Физический доступ к оборудованию контролируется видеокамерами и не осуществляется без согласования в тикет-системе.
Все это позволяет компаниям быстрее разворачивать новые аналитические сервисы, одновременно соблюдая высокие требования безопасности и изоляции.
Вывод
Искусственный интеллект стал практическим инструментом в информационной безопасности: он ускоряет обработку событий, помогает выявлять сложные инциденты и частично автоматизирует реагирование.
При этом его использование связано с ограничениями. Модели зависят от качества данных, могут быть уязвимы к специализированным атакам и требуют контроля при принятии решений.
Совсем недавно вышла Claude Mythos, перевернувшая представление о защите и атаке. Той скорости, с которой эта модель находит уязвимости и использует их, можно удивиться. Тут уже возникает вопрос, готова ли среднестатистическая команда подходить к исправлению уязвимостей и обновлению ПО так же оперативно, как ИИ способна находить новые уязвимости.
На практике ИИ дополняет существующие средства защиты, а не заменяет их. Он берет на себя обработку и первичный анализ данных, тогда как интерпретация результатов и критические решения остаются за специалистами. Эффективная защита строится на сочетании автоматизации и экспертного контроля: ИИ повышает скорость и масштаб анализа, а человек обеспечивает корректность и устойчивость системы.