/*?>
Из-за отсутствия регуляции работники не осознают, что передают на сторону чувствительные данные
Фото Анны Селиной, «Известия»
Искусственный интеллект вторгся в корпоративную жизнь стремительнее, чем успели выстроиться защитные периметры. Аналитики ГК «Солар» зафиксировали тревожную тенденцию: объем корпоративной информации, направляемой сотрудниками в иностранные публичные ИИ-сервисы, вырос за 2025 год в 30 раз. При этом около 60% российских организаций работают в режиме информационного вакуума – без каких-либо политик регулирования использования нейросетей.
Сочетание массовой доступности мощных инструментов и полного отсутствия контроля породило феномен, который специалисты по безопасности называют вторым пришествием теневой IT-инфраструктуры. Подробности – в материале «Известий».
Как секреты уходят в чат-боты
Аналитики компании «Солар», изучив трафик 150 клиентов из государственных структур, финансов, промышленности, ритейла, e-commerce, телекома и IT-сектора, зафиксировали опасные тенденции. За год объем корпоративных данных, передаваемых в публичные ИИ-сервисы вроде ChatGPT и Google Gemini, увеличился более чем в 30 раз. Сотрудники отправляют туда куски кода, финансовые отчеты, юридические бумаги и базы клиентов, чтобы автоматизировать рутину – анализ данных, саммари или написание скриптов. В итоге они сами способствуют утечкам информации, даже не подозревая об этом, рассказали «Известиям» в компании «Солар».
Парадокс в том, что корни проблемы лежат не в злонамеренности, а в банальном стремлении оптимизировать работу. Сотрудники, привыкшие к скорости и удобству генеративного ИИ в личных задачах, переносят те же инструменты в рабочие процессы, не осознавая, что они вредят собственным компаниям.
– Тридцатикратный рост утечек корпоративных данных через нейросети – это, конечно, тревожный сигнал. Но почему это происходит? Основная причина, на мой взгляд, – это банальное желание сотрудников работать эффективнее, – поясняет директор проектов IT-экосистемы «Лукоморье» («Ростелеком»), представитель ИИ-центра «Сирин» Екатерина Ионова. – Ведь часто компания не может предложить им какую-то альтернативу. Внутри корпоративного контура нет достаточно мощных моделей, а известные отечественные решения пока отстают по функционалу.
Давление сроков и растущая конкуренция на рынке труда вынуждают искать любые способы оптимизации. Когда выбор стоит между просрочкой отчета и быстрым решением через ChatGPT, многие забывают о границах конфиденциальности.
– Можно выделить три основные причины, – детализирует архитектор по информационной безопасности технологической компании Getmobit Султан Салпагаров. – Регулярность пользования сервисами также кратно возросла. Вслед за ней пропорционально растет и количество утечек. Конкуренция на рынке труда растет, как растет и производительность самого труда, а вслед за ней и требования к сотрудникам. Ты можешь подготовить отчет вовремя с помощью ИИ либо не сделать его вообще и получить точно.
Особую опасность представляет иллюзия безопасности. Сотрудники часто не воспринимают код, внутренние отчеты или стратегические презентации как нечто запретное – в отличие от персональных данных клиентов, о защите которых помнят чаще.
Как иностранные ИИ используют полученные данные
Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. Механизмы обработки данных разработаны таким образом, что каждый запрос становится потенциальным источником дохода для операторов платформ.
– Условия предоставления сервиса ИИ-моделей предполагают, что вся предоставленная информация сохраняется и используется как минимум в целях дальнейшего обучения моделей, как максимум – для сбора и упорядочивания информации о пользователях в исследовательских, маркетинговых и иных целях, – предупреждает Султан Салпагаров.
Опасность не ограничивается легальным использованием.
Злоумышленники разработали целый арсенал техник для извлечения чужих данных из обученных моделей – от инъекций промптов до целенаправленного вытягивания конфиденциальных фрагментов.
– Всё, что попадает в публичную нейросеть через промпты или прикрепленные файлы, может использоваться для ее дообучения. Удалить эту информацию из модели потом невозможно, и теоретически она может «всплыть» в ответе другому пользователю, – подчеркивает Екатерина Ионова.
По данным «Солара», 46% конфиденциальных файлов и промптов загружаются именно через ChatGPT – самую популярную и доступную модель. При этом сотрудники технологических компаний, которые должны лучше понимать риски, зачастую становятся главными нарушителями.
– Сотрудники технологичных компаний и IT-подразделений исторически смотрят на подобные сервисы и ПО довольно широко, – объясняет руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. – Перестройка сознания на импортозамещение активно происходит на организационном уровне, где оценка рисков и последствий кардинально изменилась. Однако на уровне конкретного человека этот процесс движется медленнее. Привычки и личные предпочтения оказываются сильнее.
Реальные инциденты демонстрируют масштаб угрозы. Инженеры Samsung загружали в ChatGPT секретный исходный код для оптимизации, а исполняющий обязанности главы американского агентства CISA лично выложил служебные контракты в публичный доступ. В обоих случаях утечка стала возможной из-за элементарного непонимания: данные, отправленные в чат-бот, покидают корпоративный периметр навсегда.
Когда запрет – не выход, а шлюзы – спасение
Реакция многих организаций на угрозу напоминает вышибание двери, когда достаточно было бы закрыть окно. Полная блокировка ИИ-сервисов лишает бизнес конкурентного преимущества и провоцирует сотрудников на обходные пути.
– ФСТЭК пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках, – констатирует Анастасия Хвещеник. – Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат.
Прогрессивные подходы предполагают тонкую настройку контроля, а не тотальный запрет.
– Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты, – отмечает Анастасия Хвещеник.
Дополнительный слой защиты формируется через DLP-системы, которые научились распознавать конфиденциальный контент прямо в запросах к нейросетям.
– Современная DLP-система умеет анализировать, насколько чувствительный контент загружается в тот же самый ChatGPT или Gemini, и при необходимости предотвращать такую загрузку, – поясняет директор ГК InfoWatch по инновациям и продуктовому развитию Андрей Арефьев.
Однако технические средства работают только в сочетании с культурой безопасности. Обучение сотрудников, демонстрация реальных уязвимостей и понятные регламенты не менее важны, чем файрволы, уверены эксперты.
– Необходимо регулярно повышать их осведомленность о рисках, связанных с использованием ИИ-инструментов, а также о других угрозах, например о социальной инженерии с использованием дипфейков, – рекомендует руководитель отдела машинного обучения «МТС Линк» Дмитрий Крюков. – Цифровая гигиена в большинстве случаев становится залогом сохранности корпоративных данных.
Переход на локальные нейросети, развернутые внутри корпоративного контура, выглядит логичным решением для организаций, работающих с чувствительной информацией. Однако этот путь усеян техническими и финансовыми подводными камнями, указывают эксперты.
СПРАВКА «ИЗВЕСТИЙ»
DLP-системы (Data Loss Prevention) – программно-аппаратные решения для предотвращения утечек конфиденциальной информации из организации.
Дмитрий АЛЕКСЕЕВ «Известия»