Газета "Курская правда". Всегда актуальные новости в Курске и Курской области. События и происшествия.

Находка для шпиона: как сотрудники российских компаний сдают секреты нейросетям

Газетный выпуск № 2026_016

Из-за отсутствия регуляции работники не осознают, что передают на сторону чувствительные данные

Фото Анны Селиной, «Известия»

Искусственный интеллект вторгся в корпоративную жизнь стремительнее, чем успели выстроиться защитные периметры. Аналитики ГК «Солар» зафиксировали тревожную тенденцию: объем корпоративной информации, направляемой сотрудниками в иностранные публичные ИИ-сервисы, вырос за 2025 год в 30 раз. При этом около 60% российских организаций работают в режиме информационного вакуума – без каких-либо политик регулирования использования нейросетей.

Сочетание массовой доступности мощных инструментов и полного отсутствия контроля породило феномен, который специалисты по безопасности называют вторым пришествием теневой IT-инфраструктуры. Подробности – в материале «Известий».

Как секреты уходят в чат-боты

Аналитики компании «Солар», изучив трафик 150 клиентов из государственных структур, финансов, промышленности, ритейла, e-commerce, телекома и IT-сектора, зафиксировали опасные тенденции. За год объем корпоративных данных, передаваемых в публичные ИИ-сервисы вроде ChatGPT и Google Gemini, увеличился более чем в 30 раз. Сотрудники отправляют туда куски кода, финансовые отчеты, юридические бумаги и базы клиентов, чтобы автоматизировать рутину – анализ данных, саммари или написание скриптов. В итоге они сами способствуют утечкам информации, даже не подозревая об этом, рассказали «Известиям» в компании «Солар».

Парадокс в том, что корни проблемы лежат не в злонамеренности, а в банальном стремлении оптимизировать работу. Сотрудники, привыкшие к скорости и удобству генеративного ИИ в личных задачах, переносят те же инструменты в рабочие процессы, не осознавая, что они вредят собственным компаниям.

– Тридцатикратный рост утечек корпоративных данных через нейросети – это, конечно, тревожный сигнал. Но почему это происходит? Основная причина, на мой взгляд, – это банальное желание сотрудников работать эффективнее, – поясняет директор проектов IT-экосистемы «Лукоморье» («Ростелеком»), представитель ИИ-центра «Сирин» Екатерина Ионова. – Ведь часто компания не может предложить им какую-то альтернативу. Внутри корпоративного контура нет достаточно мощных моделей, а известные отечественные решения пока отстают по функционалу.

Давление сроков и растущая конкуренция на рынке труда вынуждают искать любые способы оптимизации. Когда выбор стоит между просрочкой отчета и быстрым решением через ChatGPT, многие забывают о границах конфиденциальности.

– Можно выделить три основные причины, – детализирует архитектор по информационной безопасности технологической компании Getmobit Султан Салпагаров. – Регулярность пользования сервисами также кратно возросла. Вслед за ней пропорционально растет и количество утечек. Конкуренция на рынке труда растет, как растет и производительность самого труда, а вслед за ней и требования к сотрудникам. Ты можешь подготовить отчет вовремя с помощью ИИ либо не сделать его вообще и получить точно.

Особую опасность представляет иллюзия безопасности. Сотрудники часто не воспринимают код, внутренние отчеты или стратегические презентации как нечто запретное – в отличие от персональных данных клиентов, о защите которых помнят чаще.

Как иностранные ИИ используют полученные данные

Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. Механизмы обработки данных разработаны таким образом, что каждый запрос становится потенциальным источником дохода для операторов платформ.

– Условия предоставления сервиса ИИ-моделей предполагают, что вся предоставленная информация сохраняется и используется как минимум в целях дальнейшего обучения моделей, как максимум – для сбора и упорядочивания информации о пользователях в исследовательских, маркетинговых и иных целях, – предупреждает Султан Салпагаров.

Опасность не ограничивается легальным использованием.

Злоумышленники разработали целый арсенал техник для извлечения чужих данных из обученных моделей – от инъекций промптов до целенаправленного вытягивания конфиденциальных фрагментов.

– Всё, что попадает в публичную нейросеть через промпты или прикрепленные файлы, может использоваться для ее дообучения. Удалить эту информацию из модели потом невозможно, и теоретически она может «всплыть» в ответе другому пользователю, – подчеркивает Екатерина Ионова.

По данным «Солара», 46% конфиденциальных файлов и промптов загружаются именно через ChatGPT – самую популярную и доступную модель. При этом сотрудники технологических компаний, которые должны лучше понимать риски, зачастую становятся главными нарушителями.

– Сотрудники технологичных компаний и IT-подразделений исторически смотрят на подобные сервисы и ПО довольно широко, – объясняет руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник. – Перестройка сознания на импортозамещение активно происходит на организационном уровне, где оценка рисков и последствий кардинально изменилась. Однако на уровне конкретного человека этот процесс движется медленнее. Привычки и личные предпочтения оказываются сильнее.

Реальные инциденты демонстрируют масштаб угрозы. Инженеры Samsung загружали в ChatGPT секретный исходный код для оптимизации, а исполняющий обязанности главы американского агентства CISA лично выложил служебные контракты в публичный доступ. В обоих случаях утечка стала возможной из-за элементарного непонимания: данные, отправленные в чат-бот, покидают корпоративный периметр навсегда.

Когда запрет – не выход, а шлюзы – спасение

Реакция многих организаций на угрозу напоминает вышибание двери, когда достаточно было бы закрыть окно. Полная блокировка ИИ-сервисов лишает бизнес конкурентного преимущества и провоцирует сотрудников на обходные пути.

– ФСТЭК пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках, – констатирует Анастасия Хвещеник. – Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат.

Прогрессивные подходы предполагают тонкую настройку контроля, а не тотальный запрет.

– Продвинутый мониторинг API-взаимодействий, сегментация сети и изоляция систем, обрабатывающих критичные данные, становятся обязательными элементами защиты, – отмечает Анастасия Хвещеник.

Дополнительный слой защиты формируется через DLP-системы, которые научились распознавать конфиденциальный контент прямо в запросах к нейросетям.

– Современная DLP-система умеет анализировать, насколько чувствительный контент загружается в тот же самый ChatGPT или Gemini, и при необходимости предотвращать такую загрузку, – поясняет директор ГК InfoWatch по инновациям и продуктовому развитию Андрей Арефьев.

Однако технические средства работают только в сочетании с культурой безопасности. Обучение сотрудников, демонстрация реальных уязвимостей и понятные регламенты не менее важны, чем файрволы, уверены эксперты.

– Необходимо регулярно повышать их осведомленность о рисках, связанных с использованием ИИ-инструментов, а также о других угрозах, например о социальной инженерии с использованием дипфейков, – рекомендует руководитель отдела машинного обучения «МТС Линк» Дмитрий Крюков. – Цифровая гигиена в большинстве случаев становится залогом сохранности корпоративных данных.

Переход на локальные нейросети, развернутые внутри корпоративного контура, выглядит логичным решением для организаций, работающих с чувствительной информацией. Однако этот путь усеян техническими и финансовыми подводными камнями, указывают эксперты.

СПРАВКА «ИЗВЕСТИЙ»

DLP-системы (Data Loss Prevention) – программно-аппаратные решения для предотвращения утечек конфиденциальной информации из организации.

Дмитрий АЛЕКСЕЕВ «Известия»

Читайте также



Продолжая использовать этот сайт, вы соглашаетесь с использованием cookie-файлов и Политикой обработки персональных данных
Принять