Obsah:
Jak vybrat AI nástroj a nenaběhnout si
Průvodce výběrem AI nástrojů: jak poznat ty užitečné, vyhnout se pastem a investovat jen do řešení, která přinesou výsledky
"Náš AI nástroj vám ušetří 80% času při náboru."
"Naše umělá inteligence má 99% přesnost při výběru kandidátů."
"Stačí kliknout a AI udělá práci za vás."
"Naše umělá inteligence má 99% přesnost při výběru kandidátů."
"Stačí kliknout a AI udělá práci za vás."
Fajn sliby, že?
Ale realita je často jinde.
Nástroj na CV screening vypadal v demu skvěle. Nahrajete 50 životopisů, během pár sekund vybere relevantní kandidáty. Ale když jsem ho zkoušel na reálném náborovém projektu, tak nejlepší lidi přehlédl. Neuměl číst mezi řádky.
Nebo voicebot na pohovory. V ideálních podmínkách běhal dobře, ale na reálných případech selhal. Nechápal, co mu lidi říkají a působil dost hloupě.
Pokud chcete pracovat s AI, musíte vědět, jaké limity a nástrahy vám může připravit. Pojďme se na to společně podívat.
🧩 Užitečná, ale pořád v plenkách
Umělá inteligence, přes veškerou svojí užitečnost, má pořád velká ALE:
- Není 100% spolehlivá
- Občas si vymýšlí (tzv. halucinace)
- Umí být manipulativní - přesvědčivě argumentuje i když nemá pravdu
- Může být předpojatá - ve studii z roku 2024 měla AI nástroje pro screening CV nulovou preferenci pro životopisy s typicky černošskými mužskými jmény
- Ani sami její tvůrci pořádně neví, jak se v některých situacích chová
Nevěříte? Zde je pár čerstvých článků a kauz:
🎯 Zlaté pravidlo pro nasazení AI v HR
Při rozhodování kam AI pustit pamatujte na tato pravidla:
- AI CHYBUJE
- POUŽÍVEJTE AI TAM, KDE CHYBA NEVADÍ
- NEBO TAM, KDE CHYBU MŮŽETE SPOLEHLIVĚ ODHALIT
Co to znamená na konkrétních HR procesech?
Nízké riziko = Psaní inzerátů, emailů, employer brandingových textů, tvorba vzdělávacích materiálů...
Vysoké riziko = Hodnocení kandidátů, vedení pohovorů, poradenství v pracovním právu...
Tip: EU AI Act nastavuje několik úrovní rizikovosti AI nástrojů. To může být dobré vodítko, se kterými procesy začít a kde být mimořádně opatrní.
🔍 Jak odhalit halucinace a nepřesnosti
AI modely pracují na bázi pravděpodobnosti a statistiky. Proto vykazují halucinace (vymýšlení) a proměnlivost v rozhodování.
Musíte vědět, jak moc vám nepřesnosti vadí, a jaké kontrolní mechanismy zavedete.
Klíčové otázky pro dodavatele:
- "Jakou přesnost váš nástroj reálně dosahuje a jak byla změřena? Na jakém vzorku dat?"
- "Jak často dochází k halucinacím a jak je odhalujete?"
- "Jaké kontrolní mechanismy jsou v nástroji zabudované?"
Pokud uslyšíte následující odpovědi, je třeba zpozornět:
"Naše AI se neustále učí a zlepšuje." = výsledky nejsou konzistentní a zítřejší odpovědi se mohou lišit od dnešních.
“Máme 100 % přesnost” = buď nevíme, jak AI funguje, a nebo vás vodíme za nos.
V rámci studie nechávali hodnotit životopisy AI modely. Až v XX případech se výsledky rozcházely.
🧠 Odkud AI bere své znalosti?
Bylo by lákavé mít k ruce AI experta na pracovní právo a nemuset se vším běhat za právníky. Ale pozor - nevíte, jakými daty je systém nakrmen, jak probíhají aktualizace, a kdo za to ručí.
Klíčové otázky pro dodavatele:
- "Potvrdila nezávislá autorita správnost znalostní báze vašeho nástroje?"
- "Mohu jako zákazník nahlédnout do tréninkových dat nebo znalostní báze?"
- "Jak často a jakým způsobem aktualizujete znalosti systému?"
🔬 Testujte v extrémních podmínkách, ne za ideálního počasí
Při prezentaci vám dodavatel ukáže nástroj v "ideálních podmínkách" - to je jako testovat auto při jízdě padesátkou po rovné silnici. Vy potřebujete vědět, jak si poradí v náročném terénu. Nestačí si nový nástroj jen trochu proklikat, ale musíte ho dobře otestovat.
- Použijte reálná data z vaší firmy, ne vzorky dodavatele
- Zaveďte "parallel run" - stejný úkol řeší AI i člověk, porovnáte výsledky
- Vytvořte stresové scénáře:
- Co když uživatel zadá nejasný požadavek?
- Jak si nástroj poradí s neobvyklými případy?
- Co se stane při přetížení nebo netypickém použití?
🔮 Black-box: "Věřte nám, prostě to funguje”
Nástroj pro screening CV projede životopisy, každému přiřadí skóre a seřadí od nejlepšího po nejhorší. Wow! To zní jako sen.
Ale vy se musíte ptát:
- Kde se to skóre vzalo, podle jaké logiky vzniká?
- Proč se AI rozhodlo tak, jak se rozhodlo?
- Jak si můžu ověřit vyhodnocení každého jednotlivého případu?
- Jak můžu rozhodovací proces měnit a upravovat?
Největší problém AI produktů je tzv. "black-box" - z nástroje vypadne výsledek, ale vy nevíte, jak k němu došel.
EU AI Act zdůrazňuje princip vysvětlitelnosti (anglicky "explainability") - schopnost poskytnout jasné a srozumitelné vysvětlení, tj. odpovědět na otázku „jak AI dospělo k tomuto výsledku?". U rizikových nástrojů je důležitá auditovatelnost rozhodnutí.
🚀 Zralost produktu: Nechcete být beta tester
Mnoho AI produktů je stále v raných fázích vývoje a být "early adopter" často bolí. Nedotažený produkt může způsobit reputační riziko celé firmě.
Klíčové otázky pro ověření zralosti produktu:
- "Kolik platících zákazníků aktivně používá tento nástroj? Můžu s některým z nich mluvit?"
- "V jaké fázi vývoje je váš produkt? Jaká je produktová roadmapa na příštích 6 měsíců?"
- "Jakou úroveň podpory poskytujete při implementaci a provozu?"
- "Jakou míru spolehlivosti a dostupnosti garantujete v SLA?"
Myslete pragmaticky. Někdy se vyplatí rok počkat, až bude produkt zralý, a jeho vývoj zaplatí jiní. První vlna uživatelů často nedobrovolně slouží jako testeři.
📊 Kontrolujte, zda nástroj funguje, jak má
Otestovali jste nástroj před nasazením? Výborně, ale tím práce nekončí. AI modely se průběžně mění a ukazuje se, že ne vždy k lepšímu - některé novější verze mohou vykazovat horší výsledky než předchozí.
Jak nastavit systém průběžné kontroly:
- Vytvořte plán pravidelného testování (např. čtvrtletně)
- Připravte stálou sadu testovacích případů
- Sledujte výsledky a trendy - zlepšuje se nástroj, nebo zhoršuje?
- Provádějte pravidelný "parallel run" - stejný úkol udělá AI i člověk.
Nezapomeňte: U rizikovějších nástrojů (např. hodnocení a výběr kandidátů) musíte dle EU AI Act provést analýzu rizik, archivovat výsledky a zajistit možnost ověřitelnosti každého rozhodnutí.
🏁 Důležité tipy na závěr
- Začněte s nízkorizikovými procesy - tam, kde chyba nezpůsobí vážné škody
- Vždy testujte v reálných podmínkách - ne jen podle scénářů dodavatele
- Trvejte na transparentnosti - musíte vědět, jak nástroj funguje a rozhoduje
- Nastavte kontrolní mechanismy - důvěřuj, ale prověřuj
- Dobře si spočítejte náklady a rizika versus možné úspory
AI nástroje jsou skvělým pomocníkem pro HR, pokud k nim přistupujete s otevřenýma očima a zdravou dávkou skepse. Nenechte se oslnit marketingovým pozlátkem, nedejte na první dojem, jděte do hloubky, zjišťujte si reference… ostatně tak, jako v náboru.