Свяжитесь с нами:

Руководители HR-отделов сталкиваются с новой проблемой соблюдения нормативных требований по мере развития искусственного интеллекта.

Лидеры мысли

Руководители HR-отделов сталкиваются с новой проблемой соблюдения нормативных требований по мере развития искусственного интеллекта.

mm

Долгие годы искусственный интеллект в сфере управления персоналом считался исключительно повышением производительности. Более быстрый найм. Более эффективная оценка результатов работы. Круглосуточная поддержка сотрудников. И какое-то время такая трактовка работала: ИИ был инструментом, обещающим повышение эффективности в отделах, долгое время обремененных ручными процессами.

Но по мере того, как ИИ становится встроенный по всему Практически во всех функциях управления персоналом происходит смена акцентов. В 2026 году HR-специалистам придется иметь дело с постоянно развивающейся системой правил, регулирующих использование ИИ. HR-менеджеров подталкивают не только к внедрению и оптимизации ИИ, но и к гораздо более сложной задаче: управлению. Это включает в себя определение порядка утверждения инструментов ИИ, типов используемых данных, процедур проверки решений и определения ответственных лиц в случае возникновения проблем.

Хотя соблюдение нормативных требований может восприниматься как бремя в постоянно меняющемся нормативном ландшанде, оно также может служить важнейшей основой для ответственного внедрения ИИ. При правильном использовании соблюдение нормативных требований не должно препятствовать прогрессу. Напротив, оно может служить руководством для внедрения ИИ таким образом, чтобы это было обоснованно, справедливо и устойчиво. Проблема заключается в том, что многие отделы кадров не получили необходимых инструментов, прозрачности или полномочий для эффективного управления ИИ.

От эксплуатации до соответствия требованиям

Специалисты по управлению персоналом теперь являются Второй по величине Пользователи ИИ, в первую очередь, сотрудники технологического сектора. ИИ интегрирован в основу HR-операций, влияя на найм, управление производительностью, компенсации и поддержку сотрудников. Кроме того, около 44 процентов В настоящее время многие работодатели используют ИИ для проверки резюме кандидатов.

Поскольку эти системы обрабатывают конфиденциальные данные о сотрудниках в разных юрисдикциях, они создают новые обязательства в отношении документации, надзора и объяснимости. Изменилось не только то, насколько широко используется ИИ, но и ожидание того, что отдел кадров сможет выявлять, обосновывать и защищать решения, принимаемые с помощью ИИ.

По мере роста этих ожиданий, применение ИИ в управлении персоналом теперь напрямую пересекается с законодательством о защите данных, трудовым законодательством, требованиями по борьбе с дискриминацией и обязательствами по ведению учета. Когда возникают проблемы, ответственность в конечном итоге ложится на работодателя, а не на поставщика программного обеспечения. Идея о том, что ответственность можно переложить на «алгоритм» или стороннего поставщика, больше не актуальна.

Более того, регулирование быстро расширяется. Национальные органы по защите данных и регулирующие органы в сфере трудовых отношений усиливают меры по обеспечению соблюдения законодательства, а в различных юрисдикциях появляется законодательство, специально посвященное искусственному интеллекту.

Однако многие HR-отделы имеют ограниченное представление о том, как инструменты ИИ на самом деле функционируют на практике, особенно когда эти инструменты встроены в сторонние платформы. От руководителей ожидается понимание того, как принимаются решения, на каких данных эти решения основаны и можно ли объяснить и обосновать результаты. На практике это понимание часто ограничено или полностью отсутствует.

Предвзятость и конфиденциальность

Одно из самых распространенных заблуждений об ИИ в сфере управления персоналом заключается в том, что автоматизация по своей сути снижает риски, исключая человеческую субъективность. Это убеждение понятно: ИИ часто позиционируется как основанный на данных, последовательный и менее подверженный индивидуальным предубеждениям, чем люди, принимающие решения. В действительности же ИИ может усугубить существующие проблемы.

Системы искусственного интеллекта отражают данные и предположения, на которых они построены. Другими словами, результат настолько же репрезентативен и объективен, насколько репрезентативны и объективны входные данные. Например, если определенная демографическая группа чрезмерно представлена ​​в обучающих данных ИИ, результаты будут более применимы к этой демографической группе, чем к другим группам — или же они могут быть даже иметь преимущество при найме или других процессов отбора. Если обучающие данные содержат предвзятость, пробелы или устаревшие методы, результаты будут отражать эти недостатки при найме, оценке и принятии решений по управлению персоналом. А поскольку эти системы часто работают в фоновом режиме, проблемы могут оставаться незамеченными до тех пор, пока не перерастут в юридические, репутационные или кадровые кризисы.

Риски нарушения конфиденциальности не менее значительны. Инструменты искусственного интеллекта часто обрабатывают большие объемы данных о сотрудниках, иногда способами, которые HR-отделы не полностью контролируют или даже не до конца понимают. Без четкого контроля организации могут потерять представление о том, где хранятся данные о сотрудниках, как они используются и соответствуют ли они местным нормативным требованиям. Данные могут передаваться через границы без надлежащих мер защиты, храниться дольше разрешенного срока, использоваться для вторичных целей, таких как модели обучения, или передаваться сторонним поставщикам, находящимся вне прямого контроля HR-отдела. Помимо юридических последствий, эти проблемы могут быстро подорвать доверие сотрудников и привлечь внимание производственных советов, профсоюзов или внутренних органов управления.

Сегодня руководителям HR-отделов задают вопросы, которые еще несколько лет назад поднимались крайне редко: Какие данные использует эта система? Где она размещена? Кто имеет к ней доступ? Можем ли мы четко объяснить результат сотруднику, регулирующему органу или суду? Если ответы на эти вопросы неясны, риск уже существует.

В Европе EU AI Act Ожидается, что внедрение начнется поэтапно, при этом к системам искусственного интеллекта высокого риска, используемым в процессе найма и трудоустройства, будут предъявляться особенно строгие требования. Компании, которые не смогут дать однозначные ответы на эти вопросы, особенно касающиеся использования ИИ в практике найма, столкнутся с серьезными санкциями.

Управление способствует инновациям

Распространенное опасение заключается в том, что ужесточение требований к соблюдению нормативных требований замедлит внедрение ИИ. На практике это часто включает в себя документированные процессы утверждения, определенные границы данных, четкие пути эскалации и регулярный анализ результатов, полученных с помощью ИИ. Четкие рамки управления позволяют организациям использовать ИИ более уверенно и эффективно, снижая неопределенность для руководителей отделов кадров, юристов и бизнес-подразделений.

Когда границы определены заранее — в отношении использования данных, полномочий по принятию решений, документации и подотчетности — команды могут тестировать новые инструменты, совершенствовать рабочие процессы и расширять варианты использования ИИ, не беспокоясь постоянно о непредвиденных последствиях. Управление формирует общие ожидания, которые ускоряют утверждения, уточняют права собственности и уменьшают количество юридических или нормативных препятствий в последний момент, упрощая переход от пилотных проектов к развертыванию в масштабах всего предприятия.

Для глобальных организаций это также означает признание того, что управление ИИ не может быть универсальным решением. Требования к соблюдению нормативных требований различаются в зависимости от страны и от функций управления персоналом, таких как найм, управление производительностью и администрирование данных о сотрудниках, и системы управления персоналом должны управляться с учетом этой сложности. Наиболее успешно этот переход осуществляют те организации, которые рассматривают ИИ в управлении персоналом как долгосрочную возможность, а не как тактический обходной путь. И при планировании на долгосрочную перспективу соответствие требованиям ИИ должно быть заложено с самого начала, а не рассматриваться как второстепенный вопрос.

Заключение

Использование ИИ в HR-сфере перестало быть техническим экспериментом или способом повышения производительности. Теперь это неотъемлемая часть обязанностей HR-отдела, требующая четкого понимания ответственности, прозрачности и постоянного контроля. Однако многие HR-отделы внедряют ИИ постепенно, часто без тех структур управления, которые теперь ожидают от них регулирующие органы.

Организации, которые не смогут устранить этот пробел, рискуют отстать – не только в технологическом плане, но и в юридическом, и репутационном. В 2026 году ответственное использование ИИ перестанет быть необязательным для HR-специалистов. Это станет частью их работы.

Меррин Робертс-Уорд, старший директор по глобальным решениям в области управления персоналом. Группа HSP Меррин — опытный международный специалист по управлению персоналом с обширным опытом поддержки организаций в различных отраслях в процессе их расширения и работы на глобальном уровне. Ее экспертиза охватывает трансграничное управление персоналом, трудовые отношения, глобальное соответствие нормативным требованиям и операционную готовность, помогая организациям решать сложные кадровые задачи в разнообразной культурной и нормативной среде. За свою карьеру Меррин консультировала как государственные, так и частные организации по вопросам международной экспансии, масштабных кадровых изменений, переводов сотрудников и разработки соответствующих нормативным требованиям, масштабируемых стратегий управления персоналом. Она тесно сотрудничает с руководящими командами для разработки практических процессов, создания надежных политик и поддержки эффективных трудовых отношений, позволяя организациям уверенно управлять своим международным персоналом и вовлекать его в работу.