Выбирай : Покупай : Используй

Вход для партнеров

Вход для продавцов

0

Из российских компаний утекло через ИИ-сервисы в 30 раз больше данных, чем в прошлом году

Утечка данных в сеть

Почти две трети компаний в России не контролируют утечки данных через сервисы с искусственным интеллектом (ИИ), об этом CNews сообщили представители «Солара». Сотрудники массово загружают в нейронные сети конфиденциальную информацию.

Аналитики группы компаний (ГК) «Солар», архитектора комплексной кибербезопасности, проанализировали трафик 150 компаний из различных секторов российской экономики на предмет утечек корпоративной и чувствительной информации в ИИ-сервисы. Исследование показало, что в 2025 г. объем данных, отправляемых в общедоступные нейронные сети, вырос в 30 раз. При этом около 60% российских организаций до сих пор не имеют формализованных политик, регулирующих работу с ИИ-сервисами, что создает критические риски для бизнеса. Массовое и часто неуправляемое использование сотрудниками публичных онлайн-сервисов превратилось в новый, практически невидимый канал утечек корпоративной информации и заражения ИТ-инфраструктуры.

ИИ превратился для подразделений информационной безопасности (ИБ) в новый вид «теневого ИТ». Сотрудники компаний массово используют генеративные нейронные сети для решения рабочих задач, загружая в них конфиденциальную информацию, в том числе: презентации и материалы стратегического планирования, аналитические отчеты и таблицы с бизнес-данными, фрагменты исходного кода, внутреннюю переписку и техническую документацию. При этом темпы освоения ИИ-технологий злоумышленниками существенно опережают возможности защитной стороны по формированию адекватных мер противодействия. Если ранее модификация и адаптация DDoS-атаки под конкретные средства защиты могла занимать до нескольких часов, то с использованием современных ИТ-инструментов генеративного ИИ этот процесс сократился до одной-двух минут.

Сотрудники российских компаний спровоцировали рост утечек данных через ИИ-сервисы, включая коммерческую тайну

До 2027 г. эксперты в ИБ-сфере ожидают появления принципиально новых векторов кибератак, в которых ИИ будет использоваться не только как вспомогательный ИТ-инструмент, но и как самостоятельный элемент атакующей цепочки — от автоматизированной разведки и генерации гиперперсонализированного фишинга до создания самообучающихся вредоносных программ и динамической адаптации эксплойтов в реальном времени. Указанные тенденции требуют от организаций срочного пересмотра подходов к контролю использования ИИ-сервисов, разработки специализированных data leak prevention (DLP)-политик для генеративных моделей, а также ускоренного внедрения средств обнаружения и предотвращения утечек конфиденциальной информации через внешние онлайн-платформы и сервисы.

Проблема усугубляется тем, что разработчики ИБ-решений не всегда успевают за технологическими рывками. «Компании вынуждены проактивно контролировать поток данных, чтобы минимизировать риски, — сказала руководитель ИТ-продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. — Важным элементом защиты становится контроль самого канала взаимодействия с ИИ-сервисами, который позволяет блокировать как утечки чувствительной информации, так и вредоносные или поддельные ответы от нейронных сетей на уровне трафика».

Масштаб проблемы

По данным исследования «СберАналитики» и «Сбер Бизнес Софт», 40% российских ИТ-компаний уже внедрили проекты на базе генеративного ИИ. Это означает, что генеративный ИИ для российского ИТ-бизнеса перестал быть экспериментом и стал рабочим ИТ-инструментом.

Согласно опросу, лишь 8% организаций в ИТ-сфере пока не применяют эту технологию. Наибольшую ценность, по оценкам специалистов, ИИ приносит в разработке новых продуктов, клиентской поддержке, продажах и маркетинге. Чаще всего компании используют умных ассистентов, чат-ботов и генеративные модели для создания текстов и изображений. Системный подход подтверждается и тем, что в 45% компаний уже созданы специальные отделы или центры компетенций по ИИ.

Таким образом стремительный рост использования ИИ-сервисов на фоне отсутствия контроля фильтрации трафика при передаче корпоративной и чувствительной информации создает лавинообразную угрозу кибербезопасности организации, превращая сотрудников в невольный источник риска.

Реальные ИТ-инциденты

Риск утечки конфиденциальной информации через использование генеративных ИИ-моделей затрагивает не только рядовых сотрудников, но и руководителей высшего звена.

Ярким примером служит ИТ-инцидент, произошедший в США: исполняющий обязанности директора Агентства по кибербезопасности и защите ИТ-инфраструктуры (CISA) Мадху Готтумуккала (Madhu Gottumukkala) лично загрузил в публичную версию ChatGPT служебные документы. Хотя материалы не обладали грифом секретности, среди переданных данных присутствовали контрактные документы, имеющие пометку «For Official Use Only» (FOUO). Факт загрузки был зафиксирован средствами внутреннего ИБ-контроля CISA, что послужило основанием для проведения служебного расследования на уровне Министерства внутренней безопасности США.

Недорогой интернет для дачи в 2025 году: сравниваем тарифы операторов

Похожий ИТ-инцидент произошел в Samsung. Инженеры полупроводникового подразделения использовали ChatGPT для проверки и оптимизации исходного кода, а также для создания транскрипций записей совещаний. В результате фрагменты секретного исходного кода и другая конфиденциальная информация оказались на серверах OpenAI и могли быть использованы для дальнейшего обучения ИИ-модели. Компании Samsung пришлось экстренно вводить ограничения на объем загружаемых данных и начать разработку собственного внутреннего ИИ-инструмента.

Данный случай демонстрирует, что даже лица, обладающие высокой степенью осведомленности в вопросах кибербезопасности и непосредственно отвечающие за формирование национальной политики в этой сфере, могут допускать нарушения при использовании внешних ИИ-сервисов без предварительного согласования и применения соответствующих защитных мер.

ИТ-инструменты для кибератак и защиты

ИИ в 2026 г. стал мощным ИТ-инструментом не только для пользователей, но и для злоумышленников. Развитие больших языковых моделей привело к их массовому использованию в кибератаках.

Хакеры автоматизируют фишинг с помощью дипфейков и персонализированных писем, ускоряют поиск ИТ-уязвимостей и генерируют эксплойты. По мнению экспертов «Солара», противостоять таким ИТ-угрозам можно только с помощью аналогичных по скорости и интеллекту технологий.

«Современные ИБ-решения должны не только блокировать ИТ-угрозы, но и выявлять аномалии в запросах, которые могут быть признаком кибератаки или попытки эксплуатации ИТ-уязвимости, — сказала CNews Анастасия Хвещеник. — Продвинутый мониторинг application programming interface (API)-взаимодействий, сегментация сети и изоляция ИТ-систем, обрабатывающих критичные данные, становятся обязательными элементами защиты. Это позволяет минимизировать потенциальный ущерб в случае компрометации ИТ-инфраструктуры».