Как снизить риски при использовании ИИ сотрудниками?

Искусственный интеллект приносит компаниям и новые возможности, и новые риски. Всё чаще сотрудники пользуются бесплатными или неавторизованными ИИ‑инструментами — это чревато утечками, разглашением коммерческой тайны и другими последствиями.

Свежие отчёты показывают: часть сотрудников взаимодействует с ИИ вне правил работодателя. Это подчёркивает важность политики и процедур, которые задают ответственное и осознанное использование ИИ на работе.

Мой Telegram-канал Ready.2HR.Tech.

Исследуем будущее работы вместе! HR-Tech, автоматизация, HR-Аналитика, digital EJM.

Как сотрудники используют ИИ на работе

В отчёте компании Ivanti говорится:

  • 46% офисных работников используют ИИ‑инструменты, которые работодатель им не предосталял
  • 38% сотрудников ИТ пользуются неавторизованными ИИ‑решениями
  • 32% людей, применяющих генеративный ИИ на работе, скрывают этот факт

Другое недавнее исследование Melbourne Business School показало, что среди тех, кто использует ИИ на работе:

  • 47% делали это способами, которые можно считать неуместными
  • 63% видели, как коллеги используют ИИ нарушая внутренние правила

Что может пойти не так

В отчёте Harmonic «From Payrolls to Patents» указано: 8,5% запросов в популярные генеративные ИИ содержали конфиденциальные данные. Из них:

  • 46% — данные клиентов (биллинг, данные аутентификации и т. п.).
  • 27% — данные сотрудников (зарплаты, кадровые записи).
  • 15% — юридические и финансовые данные (воронка продаж, инвестиционные портфели, материалы по M&A).
  • 12% — политики и отчёты по безопасности, ключи доступа и проприетарный исходный код.

Неправильное использование ИИ на рабочем месте может привести к киберинцидентам, угрозам нацбезопасности, рискам ответственности за нарушение ИС и к потере охраны ИС.

Например:

  • Патентоспособность. Патентные заявки проверяются на предмет предшествующего уровня техники. Хотя законодательство США даёт изобретателям год на подачу заявки после публичного раскрытия, непреднамеренное раскрытие через ИИ может стать «предшествующим уровнем техники» и помешать патентной охране.
  • Коммерческие тайны. Если сотрудник разгласил конфиденциальные сведения, компания может утратить охрану тайны.
  • Авторское право. Сотрудники, не понимающие, как работает инструмент, могут непреднамеренно передать поставщику ИИ данные компании для обучения его большой языковой модели (LLM). Кроме того, использование защищённых материалов в промптах может само по себе быть нарушением и повышает риск того, что выходные данные тоже будут нарушать чьи‑то права.
  • Товарные знаки. Бренд — исключительное право компании. Неправильное употребление марки как обозначения категории товаров или услуг может привести к вырождению знака и утрате охраны. «Thermos», «Aspirin» и «Escalator» — известные примеры. По мере обучения LLM на данных сотрудников возможны ответы, которые ослабляют отличительную способность знака.

10 шагов, чтобы снизить риски и поддержать ответственное внедрение ИИ

Наряду с техническими мерами бизнес может внедрить организационные практики, которые помогут ответственно использовать ИИ.

1. Внедрите политику использования искусственного интеллекта

В качестве основы политика может:

  • Запрещать скачивание и использование бесплатных ИИ‑инструментов без одобрения.
  • Ограничивать допустимые сценарии для бесплатных ИИ‑сервисов.
  • Запрещать делиться конфиденциальной, проприетарной и персональной информацией с бесплатными ИИ‑инструментами.
  • Ограничивать вводимые запросы и формулировки к ИИ.
  • Регламентировать использование и распространение ИИ‑выходов.

2. Обновите действующие политики

Включите ИИ в действующие регламенты: допустимое использование IT‑ресурсов, безопасность сети и данных, управление поставщиками, закупки, работу с открытым кодом. Зафиксируйте перечень одобренных инструментов и сценариев, запрет на ввод персональных данных, секретов, исходного кода и коммерческой тайны в публичные ИИ. Добавьте требования к маркировке синтетического контента, требованиям к логированию и хранению промптов/ответов моделей, а также процедуру обнаружения исключений (exceptions) с согласованием через безопасность и юристов.

3. Пересмотрите договоры на ИИ‑инструменты

В договорах с вендорами пропишите: запрет обучения моделей на ваших данных; владение правами на ввод и вывод; режим обработки и хранения данных (сроки, локации, шифрование), перечень сторонних обработчиков данных, оповещение об инцидентах, удаление по требованию и последствия для логов/бэкапов. Зафиксируйте право аудита, регулярные уведомления об изменениях модели/политик, а также технические меры (маскирование, фильтры, изоляция сред, доступ по SSO и SCIM‑прProvisioning).

С учётом ИС и регуляторики добавьте: гарантии и возмещение по искам третьих лиц (IP‑indemnity), ограничения на генерацию «конкурирующих моделей» на ваших данных, DPIA/TRA по необходимости, SLA на модерацию токсичного контента, требования к логированию для систем повышенного риска.

4. Непрерывно обучайте сотрудников ответственному использованию ИИ

Обучение должно быть коротким и практичным: примеры «плохих» и «хороших» промптов, правила маскирования данных, проверка фактов и обязательная «человеческая проверка» для внешних материалов. Дайте чек‑лист «перед отправкой»: нет ли персданных, логин-паролей, кода, клиентских сведений; проставлены ли метки и ссылки на источники; требуется ли маркировка синтетического контента.

Поддержите обучение упражнениями: песочницы с одобренными моделями, симуляции «фишинга промптами», сценарии эскалации при сомнениях. Назначьте контактную точку (AI‑офицера/чат) для быстрых консультаций. Периодически обновляйте курс под изменения инструментов и регуляторики.

5. Разработайте стратегию классификации данных

Определите уровни: «Публичные», «Внутренние», «Конфиденциальные», «Строго конфиденциальные» и свяжите их с метками в офисных системах, DLP и прокси к LLM. Включите автоматическое обнаружение персональных данных и чувствительных шаблонов в промптах, блокировку/редакцию перед отправкой, а также журналирование того, что всё прошло через политику.

Для разработчиков и аналитиков задайте отдельные правила: использование синтетических/обезличенных наборов, RAG только с источниками, к которым у пользователя есть доступ, и протокол «минимально достаточного контекста». Обеспечьте сквозные метки для промптов по всей цепочке: хранилища, почта, мессенджеры, коннекторы в ИИ.

6. Назначьте уполномоченных пользователей одобренных ИИ‑инструментов

Сформируйте процесс запроса доступа: обоснование кейса, оценка рисков, согласование с руководителем и безопасностью, ограниченный срок действия, продление по результатам. Доступ — через SSO/IdP с группами и ролями, права — минимально необходимые, все действия — в логах. Для массовых пользователей используйте «тонкие» роли с жёсткими политиками в прокси к LLM.

Выделите «амбассадоров ИИ» в ключевых подразделениях: они помогают коллегам с практиками, собирают обратную связь, передают сигналы о новых рисках. Это ускоряет внедрение и снижает нагрузку на ИТ и безопасность.

7. Логгируйте использование ИИ

Фиксируйте промпты, вложения, версии модели, системные сообщения и ключевые параметры, а также итоговые ответы и пометки рецензента. Логи храните в защищённом хранилище с доступом по принципу необходимости, с маскированием чувствительных данных и понятными сроками хранения, синхронизированными с требованиями регуляторов.

Подключите логи к единому хранилищу событий инфобеза для корреляции с событиями безопасности, добавьте поля «ссылка на тикет/задачу» для производственных сценариев. Для высокорисковых применений обеспечьте минимальный срок хранения логов и возможность восстановления цепочки принятия решений.

8. Введите процедуру проверки перед публикацией ИИ‑контента

Внедрите двойной барьер: автоматические проверки (персональные данные, токсичность, источники, плагиат) и последующую «человеческую» валидацию. Для материалов наружу закрепите обязанность маркировать синтетический контент и указывать участие ИИ, когда это требуется политикой или законом. Храните «паспорт контента» с датой, версией модели, проверками и именем рецензента.

Для маркетинга, HR‑коммуникаций и клиентских ответов используйте утверждённые шаблоны и списки запрещённых утверждений. Это снижает регуляторные и репутационные риски и облегчает ретроспективный аудит.

9. Непрерывно мониторьте использование ИИ

Отчётность минимум раз в месяц: доля обращений через одобренные каналы, заблокированные попытки, инциденты, «галлюцинации» по результатам выборочных проверок, скорость ответа, экономия времени. Отдельно отслеживайте изменения у вендоров: версии моделей, политики данных, появление новых субпроцессоров, изменения SLA и лицензий.

Тестируйте модели на дрейф и смещения, обновляйте наборы проверок и «красных» промптов, периодически проводите «редтиминг» и tabletop‑учения с ИТ и юристами. Сверяйтесь с рекомендациями отраслевых фреймворков (SAIF, NIST AI RMF) и локальной регуляторикой, чтобы не упустить новые обязательства.

10. Включите ИИ‑сценарии в план реагирования на инциденты

Подготовьте плейбуки: срочная изоляция канала (отзыв ключей/API‑токенов, блокировка прокси), фиксация и сохранение логов, первичное уведомление ответственных, оценка состава данных и юрисдикций. Для персональных данных — быстрый маршрут на DPO/юристов, готовые шаблоны уведомлений и чек‑лист регуляторных сроков.

Опишите процедуру взаимодействия с вендором: запрос удаления/ограничения использования данных, обновление маркеров запрета обучения, подтверждение очистки бэкапов при возможности. После инцидента — разбор полётов, обновление политик и обучения, донастройка DLP/прокси и повторный тест.

Что дальше

Работодателям важно проактивно и открыто обсуждать с сотрудниками риски и допустимые способы применения ИИ, закреплять понятные политики, обновлять протоколы безопасности и обучать людей. Это защищает чувствительные данные и одновременно даёт сотрудникам инструменты для ответственных инноваций. Подготовленность позволяет извлекать выгоды от ИИ — от роста продуктивности до экономии — при контролируемом уровне риска.

10 ways to tackle the growing problem of unauthorized AI at work от 21.07.2025, Laura Lemire и Jim Vana.

Как вам статья?

Поставьте оценку!

Средняя оценка 0 / 5. Количество оценок: 0

Оценок пока нет. Оцените первым

😔 Сожалеем, что вы поставили низкую оценку!

🙏 Позвольте нам стать лучше!

Расскажите, что не понравилось?

Мой Telegram-канал Ready.2HR.Tech.

Исследуем будущее работы вместе! HR-Tech, автоматизация, HR-Аналитика, digital EJM.

  • 11.08.2025