По итогам 2025 года среднее число атак на одну компанию выросло на 51%. По мнению экспертов отрасли, это связано с использованием злоумышленниками инструментов искусственного интеллекта (ИИ). Только на финтех количество атак увеличилось на 43%, — отметил директор Глобального центра исследований и анализа угроз Kaspersky GReAT Игорь Кузнецов в ходе сессии Инвестиционного форума ВТБ «Россия зовет! Екатеринбург», посвященной искусственному интеллекту.
— Если три-четыре года назад все говорили о проблеме нехватки «железа» и сложностях при импортозамещении софта, то теперь тема № 1 — использование искусственного интеллекта для кибератак. Насколько это реальная угроза и можно ли говорить о том, что ИИ — это новый вызов для российского бизнеса?
— Среди заметных факторов риска сегодня — активное и не всегда в полной мере контролируемое внедрение ИИ-агентов. От чат-ботов их отличает больший уровень автономности: они не просто отвечают на вопросы, но сами ставят цели, планируют действия и выполняют многошаговые задачи.
Злоумышленники очень быстро сориентировались в новых технологиях и начали использовать агентов во вредоносных целях. При этом отличить ИИ-атаку от той, которую выполняет человек, практически невозможно. Ведь AI-модели обучены на общедоступной информации из интернета и сами не могут придумать что-то принципиально новое.
— Получается, для мошенников использование ИИ — это просто удешевление и увеличение скорости атак?
— Да. ИИ не требует отдыха: такой агент и даже целые мультиагентные системы будут постоянно пытаться осуществлять взлом.
Проблема в том, что повышается и общий уровень угроз. Количество желающих взломать защитные системы увеличивается, а порог входа для злоумышленников снижается: даже начинающий атакующий может взять готовый инструментарий и запустить агента против компании.
Но если у организации установлены продвинутые защитные решения, то ИИ-атаки для нее не страшны: она будет защищена ровно от того, что попытается сделать ИИ-агент.
— С точки зрения защиты эти ИИ-агенты также успешно работают?
— Однозначного ответа на этот вопрос нет, в том числе потому, что ИИ-агенты работают вероятностно, как и любая генеративная нейросеть. Уже есть прототипы, но пока это достаточно ограниченные варианты реализации решений для защиты.
Постепенно все идет к тому, что автоматизация реакции на угрозы будет осуществляться, в том числе с помощью ИИ-агентов. Но в России эта история распространяется медленнее, чем на Западе, в том числе из-за проблем с доступом к моделям, которые лучше всего поддерживают мультиагентные системы.
— Что, кроме доступа к моделям, ограничивает использование ИИ-агентов для защиты?
— В вопросе защиты слишком велика цена ошибки. Здесь нет такой свободы действий, как у атакующих. Сейчас есть очень популярные мультиагентные системы, например Clawdbot. Пользователи запускают их на своих компьютерах и дают полный доступ к данным. Это, конечно же, неправильно, поскольку иногда ИИ-модель ошибается и может совершать критически опасные действия.
Так, например, недавно руководитель направления по безопасности в подразделении Meta (признана в России экстремистской и запрещена) Superintelligence Саммер Юэ лишилась всей переписки в электронной почте из-за сбоя ИИ-агента OpenClaw. Произошла так называемая галлюцинация: агент принял неправильное решение и при этом имел полную автономность и доступ ко всей информации.
— Как обезопасить себя от таких галлюцинаций ИИ?
— Если нужно запустить ИИ-агента, делайте это в изолированной среде. Например, на отдельном компьютере, который содержит только ту информацию, которую вы готовы предоставить боту.
Просто представляйте ИИ-агентов как достаточно безответственных подрядчиков, в случае ошибки которых все последствия возлагаются на вас. Если исходить из этой логики и выдавать только те доступы и ту информацию, которая реально нужна для выполнения задач, большая часть потенциальных проблем исчезнет. По сути, это то же самое, как ограничивать рядового пользователя в правах администрирования из-за угрозы ошибок, которые могут нанести вред всему бизнесу.
— Какие еще вы видите масштабные угрозы с использованием ИИ, когда вреда больше, чем пользы?
— Одним из самых опасных типов инцидентов информационной безопасности остаются атаки на цепочку поставок: их популярность продолжает расти. Разработчики ИИ редко пишут код с нуля и зачастую используют готовые библиотеки и модели с открытым исходным кодом. И злоумышленники все чаще атакуют пользователей ИИ — внедряют вредоносный код не в саму организацию напрямую, а в эти популярные бесплатные инструменты.
Буквально в конце марта произошла компрометация одного из таких инструментов. Пользователи за месяц 97 млн раз скачали пакет LiteLLM — фильтр, который ставят между пользователями и несколькими ИИ‑моделями. И потенциально все, кто скачал эту версию, оказались скомпрометированы. Поэтому при использовании ИИ и его интеграции в бизнес‑процессы нужно следовать стандартным правилам безопасной разработки.
Тем не менее, ИИ — это отличный ассистент. В 2025 году мы детектировали полмиллиона вредоносных файлов ежедневно — подавляющее большинство из которых обрабатывались автоматически, в том числе с помощью ИИ. Мы активно разрабатываем различные системы автоматизации, а также инструменты на базе генеративного ИИ в рамках нашего ассистента KIRA.
— А вы перепроверяете результаты за такими искусственными разработчиками?
— Безусловно: даже самые продвинутые модели могут совершать ошибки, создавать неоптимальный код или просто не понимать, что от них хочет человек. Поэтому в любом случае за каждым результатом должен стоять профессионал, который посмотрит, проверит и только после этого разрешит использовать то, что создал ИИ.
— Есть мнение, что сейчас внедряют «ИИ ради ИИ». Насколько вообще эта практика нужна и какому пулу отраслей или компаний?
— Сегодня интерес к ИИ превышает его возможности. Мы проводили исследования в области кибербеза, опрашивали компании, которые строят собственные центры мониторинга безопасности. В итоге почти 100% таких организаций заявили, что планируют использовать ИИ для улучшения показателей, повышения уровня обнаружения аномалий и автоматического реагирования на инциденты. Но треть из них признает, что для непосредственного внедрения систем им не хватает денег, людей и данных.
Мне кажется, в ближайшие пять лет этот тренд «ИИ ради ИИ» уйдет на второй план, в том числе из‑за неоправданных инвестиций. А там, где они оказались действительно полезны и повысили маржинальность компаний, их будут использовать в полной мере.