top of page

Legislativa: únorové drama v HR

Dne 12. července 2024 zveřejnila EU ve svém věstníku nařízení o umělé inteligenci, tzv. EU AI Act. První část vstupuje v platnost již v únoru 2025. A tentokrát to není jen IT, kdo musí zareagovat. Překvapivě se to týká zejména HR! Několik vysoce rizikových oblastí využití AI dopadá na procesy HR, zejména nábor, talent management a vzdělávání.


Na úvod trochu teorie

EU AI Act rozděluje systémy umělé inteligence do čtyř kategorií na základě jejich rizika:


  1. Zakázané systémy: Tyto systémy jsou zcela zakázány, například ty, které manipulují s chováním nebo zneužívají zranitelnosti určitých skupin lidí.


  2. Vysoce rizikové systémy: Sem spadají systémy ve zdravotnictví, dopravě, vzdělávání a zaměstnávání, tedy i nástroje pro nábor. Tyto systémy budou podléhat přísným požadavkům na bezpečnost a transparentnost.


  3. Systémy s omezeným rizikem: Tyto systémy podléhají určitým pravidlům, jako je transparentnost. Například chatboti musí informovat uživatele, že komunikují s AI.


  4. Minimální riziko: Do této kategorie patří systémy, které nemají téměř žádná omezení, například hry nebo filtry e-mailů.


Příklad z praxe – výběr kandidátů

V průběhu náborového procesu odmítáme řadu kandidátů. Každé zamítnutí musíme být schopni vysvětlit a obhájit.


První výzva: Vysvětlitelnost


Většina našich náborových aplikací obsahuje řadu funkcí využívajících AI. Jenže dnes nejsou rozhodnutí umělé inteligence již ze své podstaty vysvětlitelná. To vychází z architektur a komplexnosti neuronových sítí používaných v současných AI modelech.


Druhá výzva: Zdroje dat pro naučení AI


Každý model umělé inteligence se naučil své chování na velkém množství dat. Nově si budeme muset obhájit, že sada dat, ze kterých se učil, neobsahovala žádné zkreslení. Například, že v něm nebylo menší zastoupení žen než je v populaci, nechyběla v něm žádná věková skupina a tak dál.


Třetí výzva: Rozhodování


Finální rozhodnutí nesmí udělat „stroj“, musí ho udělat člověk. Automatizace, které například třídí kandidáty a automaticky komunikují, nesmí jednat samostatně, protože pak taková rozhodnutí neobhájíme.


Co z toho plyne pro nábor


To je jen několik velmi zjednodušených příkladů, se kterými se musíme vypořádat. Nehledě na míru využití AI v náboru budeme muset být schopni poskytnout kandidátovi jasné vysvětlení, na jakém základě systém toto rozhodnutí učinil, včetně datových vstupů a algoritmických předpokladů.


Soulad dnešních aplikací pro EU

Spousta náborových softwarů, které využívají AI, spadne do kategorie vysoce rizikových systémů. To znamená, že budete muset zajistit soulad AI nástroje s novými požadavky na transparentnost a přesnost, abyste předešli riziku diskriminace.


Audity


Budeme muset pravidelně provádět audity náborových AI systémů, abychom zajistili, že fungují spolehlivě, spravedlivě a bez chyb. Pokud zjistíte, že systém například opakovaně diskriminuje určitý typ kandidátů, budete to muset nahlásit a problém okamžitě řešit.


Další oblasti jako kariérní růst, assessmenty nebo vzdělávání

Na tyto oblasti se podíváme někdy příště, jak se legislativa bude blížit.


Několik obecných požadavků

První výzva: Transparentnost a zodpovědnost


EU AI Act klade důraz na transparentnost a zodpovědnost. Ve vysoce rizikových oblastech, tedy často HR, budou muset firmy vysvětlit, jak a proč jejich AI systémy rozhodují. To zahrnuje povinnost vést dokumentaci a uchovávat záznamy o trénování a testování.


Druhá výzva: Ochrana osobních údajů a etika


Firmy budou muset zajistit, že jejich AI systémy respektují ochranu osobních údajů a etická pravidla. To znamená, že AI nesmí zpracovávat citlivé osobní údaje bez výslovného souhlasu. Také bude zaveden mechanismus k prevenci zaujatosti nebo diskriminace.


Třetí výzva: Povinnost sledování a hlášení incidentů


Firmy budou povinny neustále sledovat své AI systémy a hlásit jakékoli incidenty, které by mohly ohrozit bezpečnost nebo vést k nesprávnému rozhodování. To zahrnuje i povinnost aktualizovat systémy tak, aby odpovídaly nejnovějším standardům a bezpečnostním požadavkům.


Čtvrtá výzva: Sankce za nedodržení nařízení


Nedodržení požadavků EU AI Act může vést k výrazným sankcím, včetně pokut až do výše 6 % celosvětového obratu firmy. V případě nedostatku může mít i lokální HR opravdu velký vliv na profit celé společnosti.



Na závěr pozitivní příležitost

Několik firem začalo pohlížet na aplikace AI podobným pohledem jako na zaměstnance. Zatím jen jako na virtuálního zaměstnance, se kterým sice nesepisuje zaměstnaneckou smlouvu, ale již se dívá na jeho výkonnost a efektivitu jako u zaměstnance.


Manažer deleguje práci svým lidem a v některých případech deleguje práci právě inteligentní AI aplikaci, která zvládne některé úkoly lépe a levněji než člověk. Dokonce popis pracovní pozice rozděluje na zaměstnance a na AI.


Takový přístup v rámci českého pracovního práva má naopak zelenou a je to oblast, kde může mít HR velmi pozitivní dopad na celkové finanční výsledky organizace a zapojit se do digitální transformace včetně změn organizační struktury a podobně.



Naše doporučení:

  • Využijte desatero otázek na dodavatele AI aplikací pro HR:



  • Zúčastněte se naší události k tématu: HOW NOW! HR 2025 in STYLE



Potřebujete zjistit více o auditu HR aplikací nebo poradit:

44 zobrazení

Nejnovější příspěvky

Zobrazit vše

Comments


bottom of page