Connect with us

Руководители по персоналу сталкиваются с новыми требованиями к соблюдению нормативов, поскольку ИИ расширяется

Лидеры мнений

Руководители по персоналу сталкиваются с новыми требованиями к соблюдению нормативов, поскольку ИИ расширяется

mm

На протяжении многих лет искусственный интеллект в сфере персонала считался чистой победой в плане производительности. Быстрое найм, более умные обзоры производительности, круглосуточная поддержка сотрудников. И в течение некоторого времени такая формулировка работала: ИИ был инструментом, который обещал эффективность в отделах, которые долгое время были обременены ручными процессами.

Но поскольку ИИ становится встроенным во几乎 каждую функцию персонала, разговор смещается. В 2026 году отделы персонала теперь должны иметь дело с эволюционирующей сетью нормативов, регулирующих ИИ. Менеджеры по персоналу вынуждены выходить за рамки внедрения и оптимизации ИИ и переходить к чему-то гораздо более требовательному: управлению. Это включает в себя решение о том, как инструменты ИИ одобряются, какие данные они могут использовать, как решения рассматриваются, и кто несет ответственность, когда что-то идет не так.

Хотя соблюдение нормативов может показаться бременем в быстро меняющемся нормативном ландшафте, оно также может служить критической основой для ответственного внедрения ИИ. Когда оно используется правильно, соблюдение не обязательно должно блокировать прогресс. Вместо этого соблюдение может быть руководством для развертывания ИИ способами, которые являются обоснованными, справедливыми и устойчивыми. Вызов заключается в том, что многие отделы персонала не получили инструментов, видимости или мандата, необходимых для эффективного управления ИИ.

От операций к соблюдению

Профессионалы в области персонала теперь являются вторыми по величине пользователями ИИ после сотрудников технологического сектора. ИИ встроен в ядро операций по персоналу, влияя на найм, управление производительностью, компенсацию и поддержку сотрудников. Кроме того, около 44 процентов работодателей теперь используют ИИ для скрининга резюме заявителей.

Поскольку эти системы обрабатывают чувствительные данные о персонале на различных территориях, они создают новые обязательства вокруг документации, надзора и объяснимости. То, что изменилось, не только то, насколько широко используется ИИ, но и ожидание, что отделы персонала могут определить, обосновать и защитить решения, принятые с помощью ИИ.

По мере роста этого ожидания ИИ в сфере персонала теперь напрямую пересекается с законом о защите данных, трудовым и занятостью регулирующими актами, требованиями по предотвращению дискриминации и обязательствами по ведению учета. Когда возникают проблемы, ответственность в конечном итоге лежит на работодателе, а не на поставщике программного обеспечения. Идея о том, что ответственность можно переложить на “алгоритм” или третьего поставщика, больше не действует.

Более того, нормативы расширяются быстро. Национальные органы по защите данных и регулирующие органы по занятости увеличивают количество мер по обеспечению соблюдения, в то время как законодательство, специфичное для ИИ, появляется в нескольких юрисдикциях.

Однако многие команды по персоналу имеют ограниченную видимость того, как инструменты ИИ фактически функционируют на практике, особенно когда эти инструменты встроены в платформы третьих сторон. Руководители ожидаются понять, как принимаются решения, на какие данные они опираются, и могут ли результаты быть объяснены и обоснованы. На практике это понимание часто ограничено или полностью отсутствует.

Смещение и конфиденциальность

Одним из наиболее устойчивых заблуждений об ИИ в сфере персонала является то, что автоматизация по своей сути снижает риск, удаляя человеческую субъективность. Это убеждение понятно: ИИ часто представляется как основанный на данных, последовательный и менее склонный к индивидуальной предвзятости, чем человеческие лица, принимающие решения. В реальности ИИ может усилить существующие проблемы.

Системы ИИ отражают данные и предположения, на которых они построены. Другими словами, выходные данные являются только такими же представительными и объективными, как и входные данные. Например, если демографическая группа чрезмерно представлена в обучающих данных ИИ, результаты будут более применимы к этой демографической группе, чем к другим группам – или они могут даже быть предпочтительными при найме или других процессах отбора. Если обучающие данные содержат предвзятость, пробелы или устаревшие практики, выходные данные будут масштабировать эти недостатки на процессы найма, оценки и управления персоналом. И поскольку эти системы часто работают на заднем плане, проблемы могут остаться незамеченными до тех пор, пока они не перерастут в юридические, репутационные или кризисы, связанные с сотрудниками.

Риски, связанные с конфиденциальностью, не менее значительны. Инструменты ИИ часто обрабатывают большие объемы данных о сотрудниках, иногда способами, которые команды по персоналу не полностью контролируют или даже не полностью понимают. Без ясного надзора организации могут потерять видимость того, где хранятся данные о сотрудниках, как они используются и соответствуют ли они местным нормативным требованиям. Данные могут быть переданы через границы без надлежащих гарантий, храниться дольше, чем разрешено, использоваться повторно для вторичных целей, таких как обучение моделей, или подвергаться воздействию третьих поставщиков вне прямого контроля команд по персоналу. Помимо юридической уязвимости, эти проблемы могут быстро подорвать доверие сотрудников и привлечь внимание советов по труду, профсоюзов или внутренних органов управления.

Сегодня руководители по персоналу задают вопросы, которые редко задавались всего несколько лет назад: Какие данные использует эта система? Где она размещена? Кто имеет доступ? Можем ли мы четко объяснить этот результат сотруднику, регулирующему органу или суду? Если эти ответы неясны, риск уже присутствует.

В Европе закон ЕС об ИИ ожидается начать применяться поэтапно, с высокорисковыми системами ИИ, используемыми при найме и занятости, которые будут подвергаться особенно строгим требованиям. Компании, которые не могут явно ответить на эти вопросы, особенно вокруг использования ИИ при практиках найма, столкнутся с суровыми штрафами.

Управление поддерживает инновации

Одной из распространенных проблем является то, что повышенные требования к соблюдению будут замедлять внедрение ИИ. На практике это часто включает в себя задокументированные процессы одобрения, определенные границы данных, ясные пути эскалации и регулярные обзоры результатов, полученных с помощью ИИ. Ясные рамки управления позволяют организациям использовать ИИ более уверенно и более эффективно, снижая неопределенность для команд по персоналу, юридических и деловых руководителей.

Когда границы определяются заранее – вокруг использования данных, полномочий по принятию решений, документации и ответственности – команды могут протестировать новые инструменты, усовершенствовать рабочие процессы и расширить случаи использования ИИ без постоянной обеспокоенности непредвиденными последствиями. Управление создает общие ожидания, которые ускоряют одобрения, уточняют владение и снижают последние юридические или нормативные барьеры, делая его проще перейти от пилотных проектов к развертыванию на уровне всего предприятия.

Для глобальных организаций это также означает признание того, что управление ИИ в сфере персонала не может быть универсальным. Ожидания по соблюдению варьируются по странам и по функциям персонала, таким как найм, управление производительностью и администрирование данных о сотрудниках, и системы по персоналу должны управляться с учетом этой сложности. Организации, которые наиболее успешно ориентируются в этом переходе, являются теми, которые рассматривают ИИ в сфере персонала как долгосрочную способность, а не тактический обход.

Заключительные мысли

ИИ в сфере персонала больше не является техническим экспериментом или тактическим обходом. Это теперь является основной частью ответственности по персоналу, требующей ясного владения, прозрачности и постоянного надзора. Однако многие отделы персонала приняли ИИ несколько инкрементально, часто без структур управления, которые регулирующие органы теперь ожидают.

Организации, которые не смогут устранить этот пробел, рискуют отстать – не только технологически, но и юридически и репутационно. В 2026 году ответственное использование ИИ больше не является необязательным для команд по персоналу. Это часть работы.

Merryn Roberts-Ward, старший директор, Global People Solutions в HSP Group - опытный международный специалист по персоналу с обширным опытом поддержки организаций в различных отраслях при их расширении и работе на глобальном уровне. Ее экспертиза охватывает управление трансграничной рабочей силой, отношения с сотрудниками, глобальное соблюдение требований и операционную готовность, помогая организациям ориентироваться в сложных проблемах, связанных с персоналом, в различных культурных и нормативных средах. На протяжении своей карьеры Merryn консультировала как государственные, так и частные организации по вопросам международного расширения, крупномасштабных изменений в составе рабочей силы, перевода сотрудников и разработке соответствующих, масштабируемых стратегий в области управления персоналом. Она тесно сотрудничает с руководящими командами для разработки практических процессов, создания прочных политик и поддержки эффективных отношений с сотрудниками, что позволяет организациям уверенно управлять и привлекать свою международную рабочую силу.