Strona główna » Czy sztuczna inteligencja zagraża empatii w HR? Balans między automatyzacją a człowiekiem w centrum procesu rekrutacji.
Wprowadzenie: Sztuczna inteligencja (AI) szturmem wdziera się do działów HR, szczególnie w obszarze rekrutacji. Automatyczne systemy selekcji CV, chatboty rekrutacyjne i algorytmy oceniające kandydatów obiecują przyspieszenie procesów i redukcję kosztów. Według najnowszych danych około 44% organizacji na świecie korzysta już z AI w rekrutacji, a narzędzia te potrafią obniżyć koszty rekrutacji o ok. 30% i skrócić czas zatrudnienia nawet o połowę. Jednocześnie 75% rekruterów potwierdza, że dzięki AI mogą szybciej przeglądać CV i wyłaniać obiecujących kandydatów. To wszystko brzmi jak rewolucja na plus – ale czy w pogoni za efektywnością nie zatracamy „ludzkiej twarzy” HR? Czy automatyzacja nie odbywa się kosztem empatii i indywidualnego podejścia do kandydatów? W niniejszym artykule przyglądamy się, jak znaleźć równowagę między technologią a człowiekiem w procesie rekrutacji, zgodnie z koncepcją HR 5.0, która stawia człowieka w centrum przy jednoczesnym wykorzystaniu najnowszych technologii. Omówimy najnowsze trendy i badania, konkretne przykłady zastosowań AI w rekrutacji oraz podpowiemy, jak zapobiec dehumanizacji procesów, zachowując empatię i humanistyczne podejście.
Automatyzacja staje się nowym standardem: W dobie cyfryzacji coraz więcej firm sięga po narzędzia AI, aby usprawnić proces rekrutacji. Systemy oparte na sztucznej inteligencji potrafią automatycznie analizować treść napływających CV i porównywać je z ofertą pracy, oceniając poziom dopasowania kandydata do wymagań stanowiska. Dzięki temu rekruter otrzymuje od razu listę aplikacji najlepiej pasujących do profilu – oszczędza to długich godzin ręcznego przeglądania setek CV. Co więcej, zaawansowane algorytmy preselekcji uczą się na podstawie poprzednich procesów rekrutacyjnych, by coraz trafniej wyłuskiwać talenty. Wyniki? Bardziej efektywne i szybsze dotarcie do właściwych kandydatów. Szacuje się, że obecnie około 40% aplikacji bywa odsiewanych przez systemy AI jeszcze zanim trafią na biurko rekrutera. To ogromna zmiana w porównaniu z tradycyjnymi metodami, kiedy każda aplikacja musiała być choć pobieżnie przejrzana przez człowieka.
Chatboty i wirtualni asystenci: Kolejnym trendem jest wykorzystanie chatbotów w procesie naboru. Chatbot rekrutacyjny może na przykład odpowiadać na pytania kandydatów 24/7, pomagając im uzupełnić aplikację czy udzielając informacji o statusie rekrutacji. Bardziej zaawansowane rozwiązania idą jeszcze dalej – chatbot potrafi przeprowadzić wstępną rozmowę kwalifikacyjną z kandydatem, zadając mu podstawowe pytania, a następnie analizując udzielone odpowiedzi pod kątem kluczowych kompetencji czy dopasowania do kultury organizacji. Takie wstępne wywiady AI mogą odsiać kandydatów niespełniających podstawowych kryteriów, zanim do akcji wkroczy „żywy” rekruter. W efekcie oszczędza to czas specjalistów HR, którzy mogą skoncentrować się na bardziej obiecujących kandydatach.
Analiza wideo i mowy ciała: Coraz częściej w rekrutacji stosuje się także AI do analizy nagrań wideo z rozmów kwalifikacyjnych. Platformy wspomagane algorytmami potrafią ocenić mowę ciała, mimikę twarzy czy ton głosu kandydata podczas rozmowy. Na tej podstawie narzędzia próbują wnioskować o cechach takich jak pewność siebie, autentyczność wypowiedzi czy dopasowanie do wartości firmy. Brzmi to futurystycznie – i w istocie wiele globalnych korporacji eksperymentuje z takimi rozwiązaniami. Na przykład znane są case studies firm, które wykorzystywały AI do oceny nagrań wideo tysięcy kandydatów w procesach rekrutacji absolwenckich, co pozwoliło drastycznie zredukować liczbę osobistych rozmów. Według jednego z raportów już 58% firm deklaruje, że testuje lub używa AI do analizy video-interview z kandydatami. Warto jednak dodać, że takie podejście budzi również kontrowersje – krytycy wskazują, że wiarygodność ocen mimiki czy tonu głosu przez algorytm nie jest naukowo potwierdzona, a pochopne ufanie takim ocenom może prowadzić do pominięcia dobrych kandydatów (o tym szerzej w dalszej części artykułu).
Generatywna AI w HR: Rok 2023/2024 to także eksplozja popularności modeli generatywnych (jak ChatGPT) w zastosowaniach HR. Generatywna sztuczna inteligencja pomaga tworzyć opisy stanowisk, oferty pracy, a nawet pytania na rozmowy kwalifikacyjne. Zamiast spędzać czas na mozolnym redagowaniu ogłoszenia, rekruter może wpisać do systemu kluczowe wymagania i zakres obowiązków, a AI wygeneruje wstępną propozycję tekstu. Podobnie można uzyskać listę sugestii pytań dopasowanych do stanowiska i doświadczenia kandydata. To cenne wsparcie – AI dba o to, by nie zapomnieć o żadnym istotnym aspekcie (np. dopytać o określone umiejętności techniczne), a jednocześnie ułatwia standaryzację procesu. Dodatkowo chatboty oparte na modelach językowych mogą personalizować komunikację z kandydatem na masową skalę – np. wysyłając spersonalizowane podziękowania za udział w rekrutacji czy informując o kolejnych krokach procesu w uprzejmym, naturalnie brzmiącym tonie.
Dane i predykcje: AI nie tylko usprawnia bieżące zadania, ale i dostarcza danych do podejmowania lepszych decyzji. Trendem staje się analiza predyktywna w HR – algorytmy na podstawie danych potrafią przewidywać m.in. prawdopodobieństwo przyjęcia oferty przez kandydata, przyszłą retencję pracownika czy nawet dopasowanie do ścieżek rozwoju. Przykładowo, model może ocenić, który z dwóch finalnych kandydatów statystycznie dłużej utrzyma się w firmie na danym stanowisku, bazując na podobnych rekrutacjach z przeszłości. W miarę gromadzenia danych te predykcje będą coraz trafniejsze. HR 5.0, czyli najnowsza koncepcja rozwoju funkcji HR, zakłada właśnie takie hybrydowe podejście – wykorzystanie zaawansowanych technologii (jak AI, analityka big data, automatyzacja) w sposób, który wzmacnia strategiczne decyzje HR, ale nie gubi przy tym czynnika ludzkiego. Zanim jednak omówimy, jak utrzymać ten balans, przyjrzyjmy się bliżej ciemniejszej stronie nadmiernej automatyzacji.
Choć korzyści z AI w rekrutacji są imponujące, pojawiają się uzasadnione obawy, że zbytnie poleganie na algorytmach może prowadzić do dehumanizacji procesu i utraty empatii. Oto główne wyzwania i zagrożenia, na które wskazują specjaliści:
Kandydat traktowany jak numer: Proces rekrutacyjny zautomatyzowany od A do Z może zostawić kandydata z poczuciem, że jest tylko kolejnym wpisem w arkuszu, a nie realnym człowiekiem z unikalną historią. Brak ludzkiego kontaktu – np. automatyczne, szablonowe maile na każdym etapie, brak możliwości rozmowy z żywą osobą – może sprawić, że doświadczenie kandydata (candidate experience) stanie się chłodne i bezosobowe. W efekcie nawet wybrani kandydaci mogą mieć słabsze emocjonalne związanie z firmą, a odrzuceni – zdecydowanie gorsze wrażenia. Już dziś wiele osób opisuje szukanie pracy jako frustrujące przeżycie: aplikowanie bywa jak „wołanie w próżnię”, a firmy nierzadko pozostawiają aplikacje bez odpowiedzi. Luka empatii między wysiłkiem kandydatów a reakcją firm niestety się poszerza – kandydaci inwestują godziny w dopieszczanie CV i rozmowy, by w zamian dostać co najwyżej wygenerowany automatycznie e-mail z podziękowaniem. Taka sytuacja rodzi utracone zaufanie do pracodawców.
Ryzyko błędów i stronniczości algorytmów: Sztuczna inteligencja nie jest wolna od uprzedzeń – przeciwnie, bywa ich niezamierzonym amplifikatorem. Algorytmy uczą się na danych historycznych, które mogą odzwierciedlać biasy obecne w poprzednich decyzjach rekrutacyjnych. Klasycznym przykładem stała się głośna historia systemu AI do preselekcji CV, który okazał się dyskryminować kandydatki – ponieważ trenował na danych firmy technologicznej, gdzie historycznie zatrudniano głównie mężczyzn, model nauczył się odrzucać CV zawierające np. słowo „women” (jak udział w żeńskich organizacjach studenckich). To pokazuje, że brak nadzoru człowieka może prowadzić do nieetycznych filtrów. Innym problemem jest interpretacja kontekstu: sztywne kryteria algorytmu mogą uznać kandydata o nietypowej ścieżce kariery za „niestabilnego” i go odrzucić. Tymczasem empatyczny rekruter mógłby w takiej historii zawodowej dostrzec cenne doświadczenie i adaptacyjność – cechy pożądane, a nie wada. AI z trudem oceni takie niuanse. Podobnie z kwestią dopasowania do kultury organizacyjnej – algorytm przeanalizuje słowa z CV czy wynik testu, ale nie wyczuje „chemii” między kandydatem a zespołem, ani nie zada spontanicznego pytania, by zbadać wartości i postawę kandydującego.
Brak empatii i personalizacji: Empatia to zdolność wczuwania się w emocje i perspektywę drugiego człowieka. Żaden program tego nie „poczuje” – może co najwyżej symulować pewne reakcje. W rekrutacji empatia przejawia się np. w tym, że rekruter wyczuje stres kandydata podczas rozmowy i spróbuje go rozluźnić żartem, okaże zrozumienie dla jego sytuacji (np. dopyta o przerwę w karierze bez pochopnej oceny), czy poświęci dodatkowe 5 minut, by udzielić informacji zwrotnej po nieudanej rekrutacji. Automatyczny proces może pozbawić kandydatów takiego indywidualnego traktowania. Co gorsza, może wzmacniać zjawisko „ghostingu”, czyli znikania bez słowa wyjaśnienia. Paradoksalnie, w dobie rosnącej automatyzacji, kandydaci coraz częściej czują się ignorowani i pozbawieni informacji zwrotnej. Nie otrzymują odrzeczenia lub dostają zdawkową odpowiedź generowaną masowo, bez żadnego ludzkiego akcentu. Taka dehumanizacja procesu ma realne konsekwencje: psuje markę pracodawcy i zraża utalentowanych ludzi. Jak zauważa ekspert branży rekrutacyjnej Johnny Campbell, doświadczenie kandydatów stało się dziś problemem zaufania do firmy – większość aplikujących, którym zaserwowano chłodny, nieempatyczny proces, traci nie tylko zainteresowanie zatrudnieniem, ale i szacunek do marki, a bywa że i chęć korzystania z jej usług.
Utrata kompetencji miękkich u rekruterów: Warto też zwrócić uwagę na mniej oczywisty skutek uboczny: gdy polegamy na narzędziach automatyzujących każdy etap, istnieje ryzyko, że sami rekruterzy odzwyczają się od praktykowania empatii, uważnego słuchania, zadawania kreatywnych pytań. Jeśli rola specjalisty HR sprowadzi się do obsługi systemu i weryfikacji wygenerowanych raportów, to może zubożyć rozwój umiejętności interpersonalnych w zespołach HR. Tymczasem te kompetencje (jak komunikacja, inteligencja emocjonalna, budowanie relacji) są kluczowe nie tylko w kontakcie z kandydatami, ale i w późniejszej pracy z zatrudnionymi pracownikami. Nadmierna automatyzacja może więc prowadzić do spadku jakości interakcji wszędzie tam, gdzie jednak człowiek jest potrzebny – np. wprowadzenie nowej osoby do zespołu, rozmowy rozwojowe, mediacje konfliktów itp. W skrajnym scenariuszu HR bez empatii staje się tylko administracją personalną, tracąc swój strategiczny wpływ na kulturę organizacji.
Podsumowując, AI niesie pewne ryzyko „odczłowieczenia” HR, jeśli będzie wdrażana bezrefleksyjnie. Ale nie musi tak być – istnieją sposoby, by pogodzić automatyzację z humanistycznym podejściem. Właśnie na tym skupia się filozofia HR 5.0, o której poniżej.
Czym jest HR 5.0? To nowy paradygmat w zarządzaniu ludźmi, będący odpowiedzią na czwartą rewolucję przemysłową i lawinowy rozwój AI. Jeśli wcześniejsze etapy (HR 3.0, 4.0) koncentrowały się na cyfryzacji i efektywności, to HR 5.0 stawia na re-humanizację miejsca pracy przy wsparciu nowoczesnych technologii. Nazwa nawiązuje do koncepcji Industry 5.0, gdzie celem jest współpraca człowieka i maszyny, z podkreśleniem roli kreatywności, empatii i inkluzywności. W praktyce HR 5.0 oznacza, że zaawansowana analityka, AI i automatyzacja są wykorzystywane nie dla zastąpienia ludzi, ale dla wzmocnienia ludzkiego potencjału. To technologia w służbie empatii – pozwala odciążyć pracowników HR od powtarzalnych zadań, tak aby mogli więcej czasu poświęcić na indywidualny kontakt z drugim człowiekiem. HR 5.0 to także nacisk na hiper-personalizację doświadczeń pracowników i kandydatów, wysokie standardy etyczne (np. transparentność algorytmów, ochrona danych) oraz podejmowanie decyzji w oparciu o dane z poszanowaniem ludzkich wartości. Innymi słowy: człowiek pozostaje w centrum uwagi, a AI jest jego asystentem, nie panem.
Empatia jako nierozłączny element rekrutacji: W kontekście doboru pracowników, empatia to umiejętność spojrzenia na proces oczami kandydata i zrozumienia jego potrzeb, obaw oraz motywacji. Najlepsi rekruterzy od lat budowali na tym swoją skuteczność – potrafili odczytać niewypowiedziane pytania i emocje podczas rozmowy, zadbać o komfort kandydata, a także „sprzedać” firmę w autentyczny, ludzki sposób. Te miękkie aspekty często decydowały, czy utalentowana osoba wybierze właśnie naszą ofertę spośród wielu. Czy AI może to zastąpić? Zdecydowanie nie. Jak celnie zauważył Nitin Nahata (dyrektor HR w firmie technologicznej), „AI nigdy nie powinna zastępować empatii” – może oferować efektywność i obiektywność, ale empatia pozostaje fundamentem ludzkiej interakcji, zwłaszcza gdy chcemy naprawdę zrozumieć kandydata. Empatia przekłada się na głębsze poznanie człowieka po drugiej stronie: jego wartości, aspiracji, dopasowania do zespołu. Tego algorytm samodzielnie nie oceni, bo trudno mu wyjść poza schemat danych, podczas gdy człowiek potrafi odczytać kontekst.
Dlaczego empatia daje lepsze decyzje rekrutacyjne? Po pierwsze, pozwala nie przeoczyć świetnych kandydatów, którzy na papierze mogą nie być idealni. Tradycyjne metody (a zwłaszcza te oparte na sztywnych algorytmach) filtrują ludzi według mierzalnych kryteriów: wykształcenia, lat doświadczenia, certyfikatów. Jednak wiele najcenniejszych cech – jak potencjał do rozwoju, kreatywność, umiejętność radzenia sobie ze zmianą – nie sposób wyczytać z CV czy wyniku testu. Empatyczny rekruter dostrzeże pasję w głosie kandydata, jego błysk w oku przy opowiadaniu o projektach, doceni nietypowe hobby świadczące o ciekawości świata – czyli sygnały wskazujące, że mamy do czynienia z kimś, kto może wnieść do firmy wartość dodaną, nawet jeśli nie spełnia szablonowego „wzorca”. AI, opierając się na danych, prawdopodobnie by taką osobę odrzuciła, jeśli np. brakuje jej formalnego doświadczenia w jakimś obszarze. Empatia więc wprost przekłada się na lepszą identyfikację talentów i bardziej wszechstronne spojrzenie na kandydatów.
Po drugie, empatia zapobiega pochopnym, niesprawiedliwym ocenom. Jak wspomniano, algorytm może wykluczyć kogoś z powodu „luki w CV” czy częstych zmian pracy. Natomiast człowiek zada pytanie „dlaczego?” i może odkryć cenną historię stojącą za tym – np. chęć poszukiwania swojej ścieżki, zdobycia różnorodnych kompetencji albo trudną sytuację życiową, którą kandydat przezwyciężył. Zdolność do wczucia się w sytuację drugiej strony sprawia, że rekruter nie traktuje kandydata jak zbioru danych do odfiltrowania, ale jak osobę z unikalnym kontekstem. Taka postawa zwiększa szanse na właściwą ocenę: dostrzeżenie zarówno ostrzegawczych sygnałów, jak i ukrytego potencjału. Ponadto buduje zaufanie – kandydat czuje, że jest słuchany i rozumiany, co pozytywnie nastawia go do firmy (nawet jeśli finalnie nie dostanie oferty).
Po trzecie, empatia humanizuje cały proces – zmniejsza stres po stronie kandydatów i pracodawcy. Dla osoby aplikującej miło jest wiedzieć, że po drugiej stronie ktoś autentycznie dba o jej doświadczenie: jasno komunikuje etapy, daje szansę na pytania, informuje o decyzjach z szacunkiem. Dla menedżera rekrutującego empatyczny HR oznacza lepsze dopasowanie kandydata, bo rekruter brał pod uwagę nie tylko twarde kwalifikacje, ale i to „czy tych ludzi połączy nić porozumienia w codziennej pracy”. Ostatecznie, zatrudnienie to nie transakcja, lecz początek relacji między pracownikiem a organizacją – a relacje buduje się na zrozumieniu i zaufaniu.
AI + empatia = przyszłość rekrutacji: W idealnym scenariuszu technologie AI i ludzka empatia współpracują ze sobą, a nie konkurują. AI może pomóc wychwycić obiektywne dane, których człowiek nie przetworzy w takiej skali (np. przeskanować tysiące CV w sekundę), odciążyć rekruterów od monotonnego sortowania aplikacji czy umawiania spotkań, dostarczyć dodatkowych informacji (np. analiza umiejętności technicznych, wyniki testów). Natomiast człowiek podejmuje decyzje, włączając w to kontekst i intuicję. Taka synergia sprawia, że proces jest i efektywny, i ludzki. Przykładowo, AI może zarekomendować 10 najlepszych kandydatów na podstawie kryteriów, ale to rekruter zdecyduje, których 5 z nich zaprosić na rozmowę, kierując się także wrażeniem z rozmowy telefonicznej czy szczegółami, których algorytm nie uwzględnił. Innym przykładem jest użycie AI do przygotowania spersonalizowanych odpowiedzi dla odrzuconych kandydatów: zamiast milczenia lub suchych formułek, system może wygenerować uprzejmą informację z podaniem ogólnego powodu decyzji i sugestią innych ofert lepiej dopasowanych do profilu kandydata. Rekruter zatwierdza taką wiadomość lub ją modyfikuje – w efekcie kandydat czuje się traktowany z szacunkiem mimo porażki, a firma buduje wizerunek empatycznego pracodawcy. To właśnie esencja podejścia HR 5.0: wykorzystać technologię do zwiększenia skali empatii, a nie do jej eliminowania.
Dla działów HR i kadry zarządzającej kluczowe jest dziś pytanie: jak w praktyce wdrażać AI, by nie zagubić „człowieka w człowieku”? Oto kilka rekomendowanych strategii i dobrych praktyk, które pozwalają utrzymać zdrowy balans:
Trzymaj człowieka w pętli decyzyjnej: AI może wspierać selekcję, ale nie powinna samodzielnie podejmować ostatecznych decyzji o zatrudnieniu czy odrzuceniu kandydata. Zawsze przewiduj etap, na którym rekruter lub menedżer weryfikuje rekomendacje algorytmu. Dzięki temu unikniesz błędów i będziesz mógł skorygować niesprawiedliwe odrzucenie kogoś, kto w liczbach wygląda gorzej, ale ma cechy rokujące sukces w organizacji. Wprowadź zasadę, że algorytm podpowiada, ale nie rozstrzyga – ostatnie słowo należy do człowieka.
Używaj AI jako narzędzia do zwiększania empatii, nie redukowania: Rozważ, jak technologia może poprawić doświadczenie kandydatów. Przykładowo, zamiast wysyłać masowe, bezduszne maile z informacją o odrzuceniu, wykorzystaj system do wygenerowania bardziej osobistych wiadomości. Możesz przygotować szablony, które AI uzupełni o imię kandydata, nazwę stanowiska, a nawet krótką informację zwrotną (np. „brak wymaganego doświadczenia w obszarze X”) – brzmi to o niebo lepiej niż „Pana/i kandydatura nie została rozpatrzona pozytywnie”. Można pójść o krok dalej i zaoferować odrzuconym kandydatom wskazówki co do innych wakatów w firmie, które lepiej pasują do ich profilu. Taka drobna rzecz, wykonana na dużą skalę dzięki AI, buduje pozytywne wrażenie – kandydat widzi, że firma starała się mu pomóc, a nie potraktowała jak zbędny element.
Zapewnij transparentność i etykę algorytmów: Jeśli korzystasz z AI w rekrutacji, zadbaj o jasną komunikację tego faktu. Kandydaci mają prawo wiedzieć (a w świetle nadchodzących regulacji prawnych – np. unijnej AI Act – mogą wprost wymagać poinformowania), że np. ich CV ocenia automatyczny system. Ważne jest też, aby monitorować wyniki działania AI pod kątem biasów i dyskryminacji. Regularnie audytuj decyzje algorytmu: sprawdzaj, czy nie faworyzuje on określonej płci, wieku, grupy etnicznej czy nie pomija systematycznie jakiejś kategorii kandydatów. Jeżeli odkryjesz niepokojące wzorce, koryguj kryteria lub dane używane do trenowania modelu. Ustal również wewnętrzne kodeksy etyczne dotyczące AI – np. które dane kandydatów na pewno nie będą wykorzystywane (dla ochrony prywatności), albo że nie stosujesz kontrowersyjnych metod typu analiza mikroekspresji twarzy do podejmowania decyzji (mogą być co najwyżej pomocą, ale nie główną podstawą oceny).
Personalizuj punkty styku z kandydatem: Mimo automatyzacji pewnych etapów, wbuduj w proces momenty „high-touch”, czyli o wysokim czynniku ludzkim. Przykładowo, jeśli wstępnym screeningiem zajmuje się chatbot lub test online, to kolejnym etapem niech zawsze będzie rozmowa człowieka z człowiekiem (choćby krótka telefoniczna), aby nawiązać relację. Jeśli korzystasz z automatycznych wiadomości e-mail, postaraj się, by były pisane przyjaznym językiem – możesz nawet stworzyć „tone of voice” dla komunikacji rekrutacyjnej i tego samego wymagać od szablonów generowanych przez AI. Dobrym pomysłem jest też udostępnienie kandydatom możliwości kontaktu z żywą osobą na każdym etapie: np. podanie adresu mailowego lub telefonu do rekrutera, z dopiskiem „Jeśli masz pytania, jestem do dyspozycji”. Większość osób z tego nie skorzysta, ale świadomość, że firma jest otwarta na dialog, bardzo poprawia odbiór procesu.
Wykorzystaj zaoszczędzony czas na głębsze zaangażowanie: Automatyzacja rutynowych czynności powinna uwolnić zasoby rekruterów, które można przeznaczyć na działania wymagające empatii i kreatywności. Zamiast przekładać oszczędzony czas wyłącznie na obsługę większej liczby procesów rekrutacyjnych, zainwestuj go w poprawę jakości tych procesów. Na przykład: rekruter może poświęcić więcej czasu każdemu kandydatowi zakwalifikowanemu do finałowego etapu, lepiej go poznać, udzielić mu rozbudowanej informacji zwrotnej po rozmowie. Może także pracować nad ulepszaniem Candidate Experience: analizować feedback od kandydatów, usprawniać komunikację, personalizować elementy procesu. To działania, na które zwykle brakuje czasu, a które wymiernie zwiększają satysfakcję kandydatów i reputację firmy. W ten sposób AI staje się sprzymierzeńcem empatii – przejmuje zadania „bezduszne”, by człowiek mógł skupić się na tych wymagających serca i uwagi.
Rozwijaj kompetencje miękkie zespołu HR: Paradoksalnie, im więcej technologii w HR, tym bardziej warto inwestować w rozwój umiejętności humanistycznych u pracowników działu personalnego. Szkolenia z inteligencji emocjonalnej, komunikacji, uważnego słuchania czy zarządzania różnorodnością pomogą rekruterom świadomie kształtować proces rekrutacji z empatią. Nowoczesny rekruter powinien być biegły zarówno w obsłudze narzędzi AI, jak i w budowaniu relacji. Organizacje HR 5.0 kładą nacisk na role hybrydowe – specjalistów, którzy rozumieją dane i algorytmy, ale równocześnie są świetnymi „people person”. W przyszłości może pojawić się np. stanowisko „HR Data Analyst & Empathy Officer”, łączące analitykę z dbałością o doświadczenia ludzi. To pokazuje, że technologia nie umniejsza roli empatii, lecz zmienia kontekst jej wykorzystania – bardziej niż kiedykolwiek potrzeba ludzi, którzy będą nadawać sens i etyczny wymiar działaniom AI w HR.
Czy sztuczna inteligencja zagraża empatii w HR? Tylko jeśli na to pozwolimy. Technologia sama w sobie nie ma empatii – ale w rękach świadomych liderów HR może stać się narzędziem do wzmocnienia humanistycznego podejścia. Kluczem jest zachowanie równowagi między automatyzacją a człowiekiem w centrum. Automatyzujmy to, co powtarzalne i obiektywne, aby odciążyć ludzi od zadań administracyjnych. Wykorzystujmy AI do lepszej analizy danych i wsparcia decyzji, ale nie zapominajmy, że to człowiek nadaje sens tym danym i potrafi zrozumieć drugiego człowieka w całej jego złożoności. Empatia w HR 5.0 nie jest reliktem – przeciwnie, staje się przewagą konkurencyjną organizacji. Firmy, które mądrze łączą algorytmy z ludzkim dotykiem, zyskują opinię sprawnych i przyjaznych kandydatom. W świecie, gdzie doświadczenie kandydata wpływa na markę pracodawcy (a nawet na biznes – bo kandydat może stać się klientem lub hejterem marki), projektowanie procesów „z empatią” to już nie tylko kwestia dobrego serca, ale i strategicznej konieczności.
Przyszłość rekrutacji bez wątpienia będzie coraz bardziej wspierana przez AI – pytanie brzmi, jak ją zaprojektujemy. Możemy pójść drogą bezdusznej automatyzacji, która sprowadzi rekrutację do transakcji danych. Ale możemy też wybrać drogę opartą na założeniu, że każdy kandydat to człowiek, a nie wynik algorytmu. Wtedy sztuczna inteligencja stanie się naszym sojusznikiem w poszukiwaniu talentów, podczas gdy my – ludzie – zadbamy o to, by w tym wszystkim nie zagubić ludzkiej twarzy HR.
eRecruiter – Centrum prasowe: artykuł „HR czy AI – kto buduje dziś zespoły w organizacji?” (lipiec 2024) erecruiter.plerecruiter.pl.
Johnny Campbell, „Mind the Empathy Gap: Rebuilding Candidate Trust in the Age of AI”, SocialTalent Blog (22 maja 2025) socialtalent.comsocialtalent.com.
Nitin Nahata, „Should AI Replace Empathy? The Limits of Technology in Hiring”, All Things Talent (18 listopada 2024) allthingstalent.orgallthingstalent.org.
Hirebee.ai – raport „100+ AI in HR Statistics 2025” (dostęp 2025) hirebee.aihirebee.ai.
Sanjeev Thakur & Neha Jha, „HR 5.0: Bringing Together Technological Intelligence and Human Empathy for a Sustainable Workforce” – IJSREM, vol. 2, May 2025 (abstrakt)
Jeśli masz do nas jakieś pytania, skontaktuj się z nami wypełniając formularz kontaktowy lub dzwoniąc na numer podany w kontakcie.