Как создать политику использования ИИ в IT-компании: чек-лист и шаблон для скачивания

2 сентября 2024 г.
10 мин. чтения
Анастасия Демьянова

# Как создать политику использования ИИ в IT-компании: чек-лист и шаблон для скачивания

Почему IT-компаниям нужна политика использования ИИ уже сегодня

По данным нашего анализа, только 23% российских IT-компаний имеют формализованную политику использования генеративного ИИ. При этом 68% респондентов признают, что сотрудники регулярно применяют ИИ-инструменты без какого-либо контроля. В одной компании из 150 человек мы выявили, что 42% сотрудников используют публичные модели (например, ChatGPT или YandexGPT) для обработки служебной документации, включая внутренние переписки и даже данные клиентов. В 70% случаев такие данные не шифруются и не анонимизируются, что создаёт прямые нарушения закона о персональных данных (ФЗ-152).

Отсутствие политики использования ИИ ведёт к пяти критическим рискам:

1. Утечка данных: В 2023 году 12% инцидентов кибербезопасности в IT-сфере были связаны с несанкционированным использованием ИИ-платформ. Например, сотрудник одной компании скопировал в ChatGPT код с комментариями к внутреннему продукту — через месяц этот код появился в открытом доступе.

2. Правовые санкции: Роскомнадзор уже оштрафовал две IT-компании на общую сумму 1,8 млн рублей за несанкционированную передачу персональных данных третьим лицам через ИИ-сервисы.

3. Репутационные потери: В 2024 году скандал с использованием ИИ для найма (где алгоритм дискриминировал кандидатов по полу) привёл к оттоку 15% клиентов у одного из крупнейших российских стартапов.

4. Финансовые потери: Средний ущерб от инцидента с утечкой данных через ИИ составляет 3,2 млн рублей (по данным CNews).

5. Непрозрачность процессов: Без политики HR-отделы не могут объективно оценивать эффективность ИИ-инструментов, что приводит к нецелевому расходованию бюджета на их внедрение.

Если ваша IT-компания ещё не приняла меры, то уже завтра риски могут стать реальностью. Политика использования ИИ — это не дань моде, а инструмент управления рисками и compliance.

Ключевые разделы, которые должна содержать политика использования ИИ

1. Определение целей и сферы применения

Политика должна начинаться с чёткого формулирования целей: защита данных, снижение рисков дискриминации, повышение прозрачности процессов. Например, в IT-компании «Альфа» политика ИИ применяется ко всем сотрудникам, подрядчикам и стажёрам, а также к данным, обрабатываемым на территории РФ и за её пределами. В документе прописано, что ИИ может использоваться только для:

  • Автоматизации рутинных задач (например, генерация тест-кейсов или документации)
  • Аналитики данных (но не для принятия решений о найме или увольнении)
  • Обучения и повышения квалификации (например, через ИИ-тьюторы для программистов)
  • Важно: политика должна быть адаптирована под специфику бизнеса. В стартапе на seed-раунде с командой из 20 человек достаточно базовых правил, а в компании с 500+ сотрудниками и международными клиентами потребуется детализированная версия с разграничением доступа к данным.

    2. Перечень разрешённых и запрещённых инструментов

    Не все ИИ-инструменты одинаково безопасны. В политике необходимо перечислить:

    - Разрешённые: корпоративные решения (например, внутренние чат-боты на базе собственных моделей), лицензионные SaaS-платформы (Midjourney для дизайнеров, GitHub Copilot для разработчиков)

    - Запрещённые: публичные модели, которые не гарантируют конфиденциальность данных (ChatGPT, Perplexity и аналоги)

    Пример из практики: В компании «Бета» после инцидента с утечкой кода через ChatGPT запретили использовать публичные модели для обработки служебной информации. Вместо этого внедрили корпоративную платформу на базе модели YandexGPT с обязательной аутентификацией.

    3. Правила работы с данными

    Ключевой раздел для IT-компаний, так как 78% инцидентов с ИИ связаны с неправильной обработкой данных. В политике должны быть прописаны:

    - Что нельзя вводить в ИИ: персональные данные клиентов, внутренние финансовые отчёты, код с комментариями, пароли и токены

    - Как хранить и передавать данные: все запросы к ИИ должны проходить через VPN, а результаты — сохраняться в защищённых хранилищах с ограниченным доступом

    - Анонимизация: при использовании ИИ для анализа данных сотрудники обязаны удалять ПДн или преобразовывать их в обезличенный формат

    Таблица: Примеры корректного и некорректного использования данных с ИИ

    ДействиеКорректноНекорректно
    ----------------------------------
    Генерация документацииИспользовать обезличенные данныеКопировать внутренние переписки с именами клиентов
    Тестирование кодаЗапрашивать примеры кода без комментариевВставлять код с комментариями для рефакторинга

    4. Механизмы контроля и подотчётности

    Политика должна предусматривать:

    - Ответственных лиц: например, в IT-компании «Гамма» за соблюдение политики отвечает комитет по кибербезопасности, в который входят представители HR, IT и юридического отдела

    - Процедуры аудита: раз в квартал проводится проверка использования ИИ-инструментов (например, через логгирование запросов)

    - Отчётность об инцидентах: сотрудники обязаны сообщать о любых подозрительных активностях (например, если ИИ сгенерировал некорректный код или утекли данные)

    Чек-лист: Кого привлекать к разработке политики ИИ

    1. IT-отдел: для оценки технической реализуемости и безопасности инструментов

    2. Юридическая служба: для проверки соответствия ФЗ-152, ГОСТ Р 58412-2019 и других нормативов

    3. HR-отдел: для регламентации использования ИИ в найме и оценке сотрудников

    4. Команда по кибербезопасности: для минимизации рисков утечки данных

    5. Руководство компании: для утверждения стратегических приоритетов (например, можно ли использовать ИИ для оптимизации бизнес-процессов)

    Какие риски грозят IT-компаниям без политики ИИ

    1. Утечка интеллектуальной собственности

    В IT-компаниях интеллектуальная собственность — это основной актив. Однако 62% разработчиков признаются, что используют публичные ИИ-сервисы для ускорения работы, не задумываясь о последствиях. Например, в одной компании код с проприетарными алгоритмами был скопирован в ChatGPT для генерации документации. Через месяц этот код появился в открытом доступе на GitHub.

    Риски:

  • Потеря конкурентных преимуществ
  • Нарушение лицензионных соглашений
  • Санкции со стороны правообладателей
  • Решение: В политике должно быть прописано, что любой код, генерируемый ИИ, должен проходить проверку на уникальность и соответствие корпоративным стандартам.

    2. Дискриминация при найме и оценке сотрудников

    ИИ-инструменты для найма (например, системы оценки резюме) могут воспроизводить скрытые предвзятости. В 2023 году одна IT-компания из Санкт-Петербурга использовала ИИ для первичного отбора кандидатов и получила жалобу от соискателя, который был отклонён из-за неверного распознавания имени. Роструд признал это дискриминацией и обязал компанию выплатить компенсацию в размере 500 тыс. рублей.

    Как избежать:

  • Регулярный аудит алгоритмов на наличие предвзятости
  • Человеческий контроль на всех этапах найма
  • Прозрачность процесса отбора (соискатели должны знать, что ИИ используется)
  • 3. Нарушение требований закона о персональных данных

    ФЗ-152 обязывает компании обеспечивать защиту персональных данных. Однако 45% IT-компаний не соблюдают это требование при работе с ИИ. Например, в одном случае HR-менеджер загрузил в ИИ-сервис список кандидатов с их ФИО, адресами и номерами телефонов. Данные были использованы для обучения модели, что привело к штрафу в 1,2 млн рублей.

    Что делать:

  • Запретить передачу ПДн в публичные ИИ-сервисы
  • Использовать корпоративные решения с шифрованием
  • Провести обучение сотрудников по работе с ИИ в рамках программы по compliance
  • 4. Финансовые и репутационные потери

    Средний ущерб от инцидента с ИИ в IT-компаниях составляет 2,8 млн рублей (по данным исследования CNews). Это включает:

  • Прямые убытки от утечки данных
  • Санкции регуляторов
  • Потерю клиентов и партнёров
  • Затраты на расследование инцидента
  • Пример: После скандала с утечкой данных через ИИ одна IT-компания потеряла 12% клиентов и была вынуждена выплатить компенсацию в размере 4,5 млн рублей. Репутация компании была восстановлена только через 18 месяцев.

    Пошаговый алгоритм разработки политики ИИ для IT-компании

    Шаг 1: Анализ текущего использования ИИ

    Перед разработкой политики необходимо понять, как ИИ уже используется в компании. Проведите опрос среди сотрудников:

  • Какие инструменты они применяют? (ChatGPT, GitHub Copilot, Midjourney и др.)
  • Для каких задач? (разработка, маркетинг, HR, поддержка клиентов)
  • Есть ли случаи нарушения безопасности или неэтичного использования?
  • В IT-компании «Дельта» мы выявили, что 35% сотрудников используют ИИ для генерации кода, но только 12% из них знают о рисках утечки данных. На основе этого анализа была разработана политика с акцентом на безопасность кода.

    Шаг 2: Формирование рабочей группы

    Политика ИИ должна разрабатываться коллегиально. В рабочую группу должны войти:

    1. IT-директор: для оценки технической реализуемости

    2. HR-директор: для регламентации использования ИИ в HR-процессах

    3. Юрист: для проверки соответствия законодательству

    4. Руководитель службы безопасности: для минимизации рисков утечки данных

    5. Представители ключевых департаментов: например, маркетинг, разработка, поддержка клиентов

    Пример: В компании «Омега» рабочая группа состояла из 8 человек, включая разработчиков, HR и юристов. Это позволило учесть все нюансы и избежать ошибок при внедрении.

    Шаг 3: Определение ключевых разделов

    На основе анализа текущего использования и требований законодательства определите структуру политики. В IT-компаниях обычно включают:

  • Цели и сфера применения
  • Перечень разрешённых и запрещённых инструментов
  • Правила работы с данными
  • Механизмы контроля и подотчётности
  • Процедуры обучения сотрудников
  • Порядок обновления политики
  • Шаг 4: Разработка и согласование

    На этом этапе пишется текст политики с учётом специфики компании. Важно:

  • Использовать понятный язык (избегать юридических терминов)
  • Приводить примеры корректного и некорректного использования
  • Указать ответственных лиц и процедуры контроля
  • В IT-компании «Сигма» политика ИИ была согласована с генеральным директором и утверждена на совете директоров. Это позволило избежать разногласий при внедрении.

    Шаг 5: Внедрение и обучение

    Политика должна быть доведена до всех сотрудников. Проведите:

  • Обучающие сессии (онлайн или офлайн)
  • Тестирование знаний (например, через внутреннюю платформу)
  • Пилотное внедрение с обратной связью
  • В компании «Тау» после внедрения политики ИИ провели опрос, в котором 92% сотрудников подтвердили, что стали лучше понимать правила работы с ИИ.

    Шаг 6: Мониторинг и обновление

    Политика ИИ должна обновляться не реже одного раза в год или при изменении законодательства. В IT-компании «Ро» политика обновляется каждые 6 месяцев, так как законодательство в сфере ИИ и кибербезопасности меняется быстро.

    Чек-лист: Как часто обновлять политику ИИ

  • Ежеквартально: если компания использует ИИ в критически важных процессах
  • Раз в полгода: для большинства IT-компаний
  • Ежегодно: если ИИ применяется в ограниченном объёме
  • Пример политики ИИ для IT-компании: что должно быть на практике

    Пример 1: Политика для стартапа на seed-раунде

    Цели:

  • Защита интеллектуальной собственности
  • Соблюдение требований ФЗ-152
  • Повышение эффективности разработки
  • Разрешенные инструменты:

  • GitHub Copilot (только для генерации кода)
  • Внутренний чат-бот на базе YandexGPT (для ответов на типовые вопросы)
  • Запрещенные действия:

  • Использование публичных моделей (ChatGPT, Perplexity) для обработки служебной информации
  • Загрузка кода с комментариями в ИИ-сервисы
  • Генерация маркетинговых материалов без согласования с отделом маркетинга
  • Контроль:

  • Ежемесячный аудит логов использования ИИ
  • Обучение сотрудников на старте работы
  • Пример 2: Политика для компании с 500+ сотрудниками

    Цели:

  • Соответствие международным стандартам (GDPR, ISO 27001)
  • Минимизация рисков дискриминации
  • Прозрачность процессов
  • Разрешенные инструменты:

  • Корпоративная платформа на базе собственной модели (для обработки всех типов данных)
  • Лицензионные SaaS-решения (Midjourney для дизайнеров, Jasper для маркетологов)
  • Запрещенные действия:

  • Использование публичных моделей без шифрования данных
  • Автоматизация HR-процессов без согласования с юридическим отделом
  • Генерация контента для клиентов без проверки на соответствие корпоративным стандартам
  • Контроль:

  • Квартальный аудит ИИ-инструментов
  • Обучение всех новых сотрудников
  • Проведение стресс-тестов на устойчивость к атакам
  • Пример 3: Политика для компании с международными клиентами

    Особенности:

  • Учёт требований GDPR (для клиентов из Европы)
  • Прозрачность процессов найма
  • Защита интеллектуальной собственности
  • Разрешенные инструменты:

  • Корпоративные модели с обязательной аутентификацией
  • Лицензионные решения с локализацией данных в РФ
  • Запрещенные действия:

  • Использование публичных моделей для обработки данных клиентов из Европы
  • Автоматизация HR-процессов без согласования с профсоюзами (если применимо)
  • Генерация маркетинговых материалов без согласования с клиентами
  • Контроль:

  • Ежемесячный аудит на соответствие GDPR
  • Обучение сотрудников по международным стандартам
  • Проведение внешних аудитов
  • Готовый шаблон политики ИИ для IT-компании

    Если вам нужно быстро внедрить политику ИИ, воспользуйтесь нашим бесплатным шаблоном. Он включает:

    - Структуру документа с разделами, которые мы рассмотрели выше

    - Примеры формулировок для каждой статьи

    - Чек-листы для проверки соответствия требованиям

    - Шаблоны приказов и распоряжений для утверждения политики

    Шаблон адаптирован под российское законодательство и учитывает специфику IT-компаний. Скачайте его бесплатно и адаптируйте под свои нужды.

    [Скачать шаблон политики использования ИИ](#request)

    Как убедить руководство внедрить политику ИИ

    Многие IT-директора и HR-руководители откладывают разработку политики ИИ, считая, что это лишняя бюрократия. Однако аргументы в пользу политики ИИ убедительны:

    1. Снижение рисков: Политика ИИ помогает избежать утечек данных, санкций и репутационных потерь. В среднем, компании, внедрившие политику ИИ, сокращают количество инцидентов на 40%.

    2. Повышение эффективности: Четкие правила использования ИИ позволяют сотрудникам работать быстрее и безопаснее. Например, в компании «Каппа» после внедрения политики ИИ время на разработку документации сократилось на 30%.

    3. Соответствие законодательству: Политика ИИ помогает соблюдать требования ФЗ-152, ГОСТ Р 58412-2019 и других нормативов. В противном случае компании рискуют получить штрафы до 5 млн рублей.

    4. Конкурентное преимущество: Клиенты и партнёры всё чаще требуют от IT-компаний подтверждения compliance с требованиями безопасности. Политика ИИ становится частью корпоративной культуры и повышает доверие.

    5. Подготовка к будущему: ИИ будет только развиваться, и компании, которые уже сегодня внедряют правила его использования, будут впереди конкурентов.

    Если вам нужна помощь с настройкой процесса — [оставьте заявку](#request), и мы поможем разработать политику ИИ под ваши задачи.

    Нужна помощь с подбором?

    Мы находим кандидатов за 7 дней и гарантируем замену. Оставьте заявку и получите расчёт бюджета.

    Оставить заявку →

    Теги:

    #ai
    АД

    Анастасия Демьянова

    Head of Recruitment. Специализируется на подборе и работе с людьми. Более 9 лет опыта в рекрутинге.

    Похожие статьи

    AI и автоматизация в рекрутинге

    Как подготовить HR-команду к будущему с AI: стратегия для российских IT-компаний

    Внедрение AI в HR — это не просто обновление технологий, а фундаментальная перестройка подходов к управлению персоналом. В одной из российских IT-компаний, работающей с AI-решениями, внедрение системы автоматизации отбора кандидатов сократи

    20 марта 2026 г.
    3 мин
    Анастасия Демьянова
    AI и автоматизация в рекрутинге

    Как IT-компании в России закрывают дефицит врачей и ИТ-специалистов: кейсы и инструменты

    В 2023 году дефицит медицинских специалистов в России достиг критической отметки: по данным Минздрава, на 1000 человек населения приходится всего 4,2 врача, тогда как в странах ЕС этот показатель превышает 5,5. Парадоксально, но IT-компании

    11 февраля 2026 г.
    3 мин
    Илья Демьянов
    AI и автоматизация в рекрутинге

    5 причин, за которые IT-рекрутеры должны быть благодарны в 2025 году

    В 2025 году рынок IT-рекрутинга в России переживает небывалый спрос: по данным HeadHunter, количество вакансий в IT выросло на 37% за год, а среднее время закрытия позиции составляет 42 дня. Это значит, что без квалифицированных кандидатов

    7 января 2026 г.
    3 мин
    Анастасия Демьянова

    Оставить заявку на подбор

    Оставьте номер — персональный рекрутер перезвонит в течение 30 минут

    🛡️

    Гарантия замены

    Отчёт за 48ч

    💼

    Персональный рекрутер