Как снизить риски при использовании ИИ сотрудниками?
Искусственный интеллект приносит компаниям и новые возможности, и новые риски. Всё чаще сотрудники пользуются бесплатными или неавторизованными ИИ‑инструментами — это чревато утечками, разглашением коммерческой тайны и другими последствиями.
Свежие отчёты показывают: часть сотрудников взаимодействует с ИИ вне правил работодателя. Это подчёркивает важность политики и процедур, которые задают ответственное и осознанное использование ИИ на работе.

Исследуем будущее работы вместе! HR-Tech, автоматизация, HR-Аналитика, digital EJM.
Как сотрудники используют ИИ на работе
В отчёте компании Ivanti говорится:
- 46% офисных работников используют ИИ‑инструменты, которые работодатель им не предосталял
- 38% сотрудников ИТ пользуются неавторизованными ИИ‑решениями
- 32% людей, применяющих генеративный ИИ на работе, скрывают этот факт
Другое недавнее исследование Melbourne Business School показало, что среди тех, кто использует ИИ на работе:
- 47% делали это способами, которые можно считать неуместными
- 63% видели, как коллеги используют ИИ нарушая внутренние правила
Что может пойти не так
В отчёте Harmonic «From Payrolls to Patents» указано: 8,5% запросов в популярные генеративные ИИ содержали конфиденциальные данные. Из них:
- 46% — данные клиентов (биллинг, данные аутентификации и т. п.).
- 27% — данные сотрудников (зарплаты, кадровые записи).
- 15% — юридические и финансовые данные (воронка продаж, инвестиционные портфели, материалы по M&A).
- 12% — политики и отчёты по безопасности, ключи доступа и проприетарный исходный код.
Неправильное использование ИИ на рабочем месте может привести к киберинцидентам, угрозам нацбезопасности, рискам ответственности за нарушение ИС и к потере охраны ИС.
Например:
- Патентоспособность. Патентные заявки проверяются на предмет предшествующего уровня техники. Хотя законодательство США даёт изобретателям год на подачу заявки после публичного раскрытия, непреднамеренное раскрытие через ИИ может стать «предшествующим уровнем техники» и помешать патентной охране.
- Коммерческие тайны. Если сотрудник разгласил конфиденциальные сведения, компания может утратить охрану тайны.
- Авторское право. Сотрудники, не понимающие, как работает инструмент, могут непреднамеренно передать поставщику ИИ данные компании для обучения его большой языковой модели (LLM). Кроме того, использование защищённых материалов в промптах может само по себе быть нарушением и повышает риск того, что выходные данные тоже будут нарушать чьи‑то права.
- Товарные знаки. Бренд — исключительное право компании. Неправильное употребление марки как обозначения категории товаров или услуг может привести к вырождению знака и утрате охраны. «Thermos», «Aspirin» и «Escalator» — известные примеры. По мере обучения LLM на данных сотрудников возможны ответы, которые ослабляют отличительную способность знака.
10 шагов, чтобы снизить риски и поддержать ответственное внедрение ИИ
Наряду с техническими мерами бизнес может внедрить организационные практики, которые помогут ответственно использовать ИИ.
1. Внедрите политику использования искусственного интеллекта
В качестве основы политика может:
- Запрещать скачивание и использование бесплатных ИИ‑инструментов без одобрения.
- Ограничивать допустимые сценарии для бесплатных ИИ‑сервисов.
- Запрещать делиться конфиденциальной, проприетарной и персональной информацией с бесплатными ИИ‑инструментами.
- Ограничивать вводимые запросы и формулировки к ИИ.
- Регламентировать использование и распространение ИИ‑выходов.
2. Обновите действующие политики
Включите ИИ в действующие регламенты: допустимое использование IT‑ресурсов, безопасность сети и данных, управление поставщиками, закупки, работу с открытым кодом. Зафиксируйте перечень одобренных инструментов и сценариев, запрет на ввод персональных данных, секретов, исходного кода и коммерческой тайны в публичные ИИ. Добавьте требования к маркировке синтетического контента, требованиям к логированию и хранению промптов/ответов моделей, а также процедуру обнаружения исключений (exceptions) с согласованием через безопасность и юристов.
3. Пересмотрите договоры на ИИ‑инструменты
В договорах с вендорами пропишите: запрет обучения моделей на ваших данных; владение правами на ввод и вывод; режим обработки и хранения данных (сроки, локации, шифрование), перечень сторонних обработчиков данных, оповещение об инцидентах, удаление по требованию и последствия для логов/бэкапов. Зафиксируйте право аудита, регулярные уведомления об изменениях модели/политик, а также технические меры (маскирование, фильтры, изоляция сред, доступ по SSO и SCIM‑прProvisioning).
С учётом ИС и регуляторики добавьте: гарантии и возмещение по искам третьих лиц (IP‑indemnity), ограничения на генерацию «конкурирующих моделей» на ваших данных, DPIA/TRA по необходимости, SLA на модерацию токсичного контента, требования к логированию для систем повышенного риска.
4. Непрерывно обучайте сотрудников ответственному использованию ИИ
Обучение должно быть коротким и практичным: примеры «плохих» и «хороших» промптов, правила маскирования данных, проверка фактов и обязательная «человеческая проверка» для внешних материалов. Дайте чек‑лист «перед отправкой»: нет ли персданных, логин-паролей, кода, клиентских сведений; проставлены ли метки и ссылки на источники; требуется ли маркировка синтетического контента.
Поддержите обучение упражнениями: песочницы с одобренными моделями, симуляции «фишинга промптами», сценарии эскалации при сомнениях. Назначьте контактную точку (AI‑офицера/чат) для быстрых консультаций. Периодически обновляйте курс под изменения инструментов и регуляторики.
5. Разработайте стратегию классификации данных
Определите уровни: «Публичные», «Внутренние», «Конфиденциальные», «Строго конфиденциальные» и свяжите их с метками в офисных системах, DLP и прокси к LLM. Включите автоматическое обнаружение персональных данных и чувствительных шаблонов в промптах, блокировку/редакцию перед отправкой, а также журналирование того, что всё прошло через политику.
Для разработчиков и аналитиков задайте отдельные правила: использование синтетических/обезличенных наборов, RAG только с источниками, к которым у пользователя есть доступ, и протокол «минимально достаточного контекста». Обеспечьте сквозные метки для промптов по всей цепочке: хранилища, почта, мессенджеры, коннекторы в ИИ.
6. Назначьте уполномоченных пользователей одобренных ИИ‑инструментов
Сформируйте процесс запроса доступа: обоснование кейса, оценка рисков, согласование с руководителем и безопасностью, ограниченный срок действия, продление по результатам. Доступ — через SSO/IdP с группами и ролями, права — минимально необходимые, все действия — в логах. Для массовых пользователей используйте «тонкие» роли с жёсткими политиками в прокси к LLM.
Выделите «амбассадоров ИИ» в ключевых подразделениях: они помогают коллегам с практиками, собирают обратную связь, передают сигналы о новых рисках. Это ускоряет внедрение и снижает нагрузку на ИТ и безопасность.
7. Логгируйте использование ИИ
Фиксируйте промпты, вложения, версии модели, системные сообщения и ключевые параметры, а также итоговые ответы и пометки рецензента. Логи храните в защищённом хранилище с доступом по принципу необходимости, с маскированием чувствительных данных и понятными сроками хранения, синхронизированными с требованиями регуляторов.
Подключите логи к единому хранилищу событий инфобеза для корреляции с событиями безопасности, добавьте поля «ссылка на тикет/задачу» для производственных сценариев. Для высокорисковых применений обеспечьте минимальный срок хранения логов и возможность восстановления цепочки принятия решений.
8. Введите процедуру проверки перед публикацией ИИ‑контента
Внедрите двойной барьер: автоматические проверки (персональные данные, токсичность, источники, плагиат) и последующую «человеческую» валидацию. Для материалов наружу закрепите обязанность маркировать синтетический контент и указывать участие ИИ, когда это требуется политикой или законом. Храните «паспорт контента» с датой, версией модели, проверками и именем рецензента.
Для маркетинга, HR‑коммуникаций и клиентских ответов используйте утверждённые шаблоны и списки запрещённых утверждений. Это снижает регуляторные и репутационные риски и облегчает ретроспективный аудит.
9. Непрерывно мониторьте использование ИИ
Отчётность минимум раз в месяц: доля обращений через одобренные каналы, заблокированные попытки, инциденты, «галлюцинации» по результатам выборочных проверок, скорость ответа, экономия времени. Отдельно отслеживайте изменения у вендоров: версии моделей, политики данных, появление новых субпроцессоров, изменения SLA и лицензий.
Тестируйте модели на дрейф и смещения, обновляйте наборы проверок и «красных» промптов, периодически проводите «редтиминг» и tabletop‑учения с ИТ и юристами. Сверяйтесь с рекомендациями отраслевых фреймворков (SAIF, NIST AI RMF) и локальной регуляторикой, чтобы не упустить новые обязательства.
10. Включите ИИ‑сценарии в план реагирования на инциденты
Подготовьте плейбуки: срочная изоляция канала (отзыв ключей/API‑токенов, блокировка прокси), фиксация и сохранение логов, первичное уведомление ответственных, оценка состава данных и юрисдикций. Для персональных данных — быстрый маршрут на DPO/юристов, готовые шаблоны уведомлений и чек‑лист регуляторных сроков.
Опишите процедуру взаимодействия с вендором: запрос удаления/ограничения использования данных, обновление маркеров запрета обучения, подтверждение очистки бэкапов при возможности. После инцидента — разбор полётов, обновление политик и обучения, донастройка DLP/прокси и повторный тест.
Что дальше
Работодателям важно проактивно и открыто обсуждать с сотрудниками риски и допустимые способы применения ИИ, закреплять понятные политики, обновлять протоколы безопасности и обучать людей. Это защищает чувствительные данные и одновременно даёт сотрудникам инструменты для ответственных инноваций. Подготовленность позволяет извлекать выгоды от ИИ — от роста продуктивности до экономии — при контролируемом уровне риска.
10 ways to tackle the growing problem of unauthorized AI at work от 21.07.2025, Laura Lemire и Jim Vana.

Исследуем будущее работы вместе! HR-Tech, автоматизация, HR-Аналитика, digital EJM.






