Wybór odpowiedniego narzędzia AI to kluczowy element rozwoju startupu z branży HR. Oczywiście, proces ten rozpoczyna się zwykle od dokładnego zdefiniowania wyzwań, analizy dostępnych rozwiązań oraz weryfikacji ich funkcjonalności. Jednak nie bez znaczenia pozostaje kwestia bezpieczeństwa, a następnie wdrożenie wybranego narzędzia i przeszkolenie zespołu oraz systematyczne monitorowanie osiąganych efektów. Na każdym z tych etapów istotne są obowiązki wynikające z przepisów prawnych, w tym zwłaszcza z AI Act, RODO, ale też i przepisów prawa pracy.
Czy AI Act odnosi się do HR?
Warto przypomnieć, że w AI Act dokonano klasyfikacji systemów sztucznej inteligencji według poziomu ryzyka: niskiego, średniego i wysokiego. I tak systemy AI wykorzystywane w rekrutacji z któregokolwiek z obszarów z zatrudniania, zarządzania pracownikami i dostępu do samozatrudniania mogą zostać zakwalifikowane jako systemy wysokiego ryzyka. Przykładowo będą to właśnie systemy przeznaczone do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizy i filtrowania podań o pracę oraz do oceny kandydatów. Kwalifikacja systemu jako systemu wysokiego ryzyka wpływa na zakres obowiązków (zarządzanie ryzykiem, nadzór, monitorowanie etc.).
Natomiast, system AI nie będzie już uznawany za wysokiego ryzyka, jeśli np. będzie przeznaczony do wykonywania wąsko określonego zadania proceduralnego i nie będzie stwarzać znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych. Jednak wyjątek ten nie ma już zastosowania, jeśli system AI dokonuje profilowania osób fizycznych, w takim przypadku zawsze uznaje się go za wysokiego ryzyka, niezależnie od innych okoliczności. Pamiętajmy jednak, że AI Act jednocześnie bardziej „specjalnie” traktuje mniejszych przedsiębiorców, w szczególności start-upy, starając się uwzględnić ich interesy.
Przykładowo, w przypadku startupu może mieć zastosowanie uproszczona forma podawania elementów dokumentacji technicznej. Jednocześnie, podkreśla się, że w celu wspierania środowiska startupowego państwa członkowskie powinny opracować skierowane do nich inicjatywy, chociażby takie, które będą miały na celu służyć podnoszeniu świadomości i przekazywaniu informacji.
Stąd też, mimo że AI Act nakłada surowe wymogi na firmy korzystające z systemów AI w rekrutacji, zwłaszcza w przypadku zakwalifikowania ich jako systemy wysokiego ryzyka to istnieją pewne okoliczności, które mogą złagodzić te obciążenia.
Jak zminimalizować ryzyka związane z korzystaniem z AI w branży HR?
Sztuczna inteligencja ma ogromny potencjał, aby zrewolucjonizować zarządzanie zasobami ludzkimi, jednak jej wprowadzenie wymaga starannego przemyślenia i odpowiedniego przygotowania. Pierwszym krokiem do skutecznego wykorzystania AI w HR jest zrozumienie zarówno potencjału, jak i ograniczeń tej technologii. Po pierwsze, ważne jest regularne monitorowanie i audytowanie algorytmów, aby upewnić się, że nie prowadzą one do dyskryminacji ani nie utrwalają istniejących uprzedzeń. Po drugie, należy zadbać o różnorodność danych treningowych, aby algorytmy były bardziej reprezentatywne i sprawiedliwe.
Kolejnym krokiem jest zapewnienie przejrzystości w zakresie wykorzystania AI, co oznacza informowanie kandydatów o tym, jak ich dane są przetwarzane oraz jakie decyzje są podejmowane przez systemy AI. Ważne jest również, aby w procesie rekrutacji zawsze istniała możliwość weryfikacji decyzji przez człowieka, co pozwoli na uniknięcie błędów wynikających z działania algorytmu.
Wreszcie, firmy powinny inwestować w szkolenia dla pracowników z zakresu etyki AI oraz przepisów dotyczących ochrony danych, aby zapewnić odpowiedzialne i zgodne z prawem korzystanie z technologii. To pracownicy/współpracownicy w Twoim startupie będą odpowiedzialni za monitorowanie, interpretację i wykorzystywanie wyników generowanych przez systemy AI. Szkolenia powinny obejmować zarówno aspekty techniczne, jak i etyczne. Pracownicy muszą zrozumieć, jak działają algorytmy, jakie dane są wykorzystywane oraz jakie mogą być konsekwencje ich decyzji.
Firmy muszą być przy tym transparentne w zakresie tego, jak i dlaczego wykorzystują AI, zwłaszcza w procesach rekrutacyjnych i ocenie pracowników. Pracownicy powinni być informowani o tym, że ich dane są analizowane przez systemy AI, a także o tym, jakie decyzje są podejmowane na podstawie tych analiz. Ważne jest również, aby firmy miały jasno określone zasady dotyczące wykorzystywania AI, w tym mechanizmy umożliwiające odwoływanie się od decyzji podjętych przez algorytmy.
Nie zapominajmy oczywiście, że AI Act wprowadza wymóg nadzoru nad systemami AI przez człowieka, co oznacza, że decyzje podejmowane przez AI w procesie rekrutacji muszą być monitorowane przez odpowiednie osoby. W przypadku nieprawidłowości lub skarg kandydatów firmy będą musiały być w stanie dokładnie przeanalizować działanie systemu i w razie potrzeby interweniować. Chociaż AI może wspierać podejmowanie decyzji, nie powinna być jedynym decydentem w kluczowych kwestiach dotyczących zatrudnienia. Zawsze pamiętajmy o nadzorze nad systemem przez człowieka. Tylko w ten sposób można w pełni wykorzystać zalety AI, minimalizując jednocześnie ryzyka związane z jej stosowaniem.
Jakie są kluczowe aspekty w kontekście danych osobowych?
Bez wątpienia, wykorzystanie AI w rekrutacji wiąże się z przetwarzaniem danych osobowych, zwykle ma to miejsce w kontekście kandydatów. Procesy te muszą być zgodne zwłaszcza z przepisami RODO, ale też należy pamiętać o takich jak przepisach jak kodeks pracy (pamiętajmy, że w Polsce jednak domyślnym stosunkiem prawnym powinien być stosunek pracy).
Kluczową zasadą, którą pracodawcy powinni kierować się w każdym procesie rekrutacyjnym, jest zasada minimalizacji danych. Oznacza ona, że administrator (w tym przypadku pracodawca) może pozyskiwać tylko te dane, które są niezbędne do realizacji określonego celu przetwarzania.
Pamiętajmy, że przepisy kodeksu pracy wprost wskazują jakich danych osobowych może żądać pracodawca. Jest to: imię (imiona), nazwisko, datę urodzenia, dane kontaktowe wskazane przez taką osobę, wykształcenie, kwalifikacje zawodowe, przebieg dotychczasowego zatrudnienia.
Przetwarzanie danych osobowych przez AI (ale nie tylko w przypadku AI) wymaga także zapewnienia zgodności z zasadą przejrzystości – kandydaci muszą być jasno poinformowani o celu i zakresie przetwarzania. W odniesieniu do AI należy zastanowić się w szczególności, czy cel przetwarzania przy pozyskiwaniu zgody na przetwarzanie został jasno zdefiniowany. Dodatkowo należy pamiętać, że RODO ogranicza możliwość podejmowania decyzji opartych wyłącznie na zautomatyzowanym przetwarzaniu danych, jeśli mają one istotny wpływ na osobę, chyba że są one dopuszczone prawem i osoba ma możliwość odwołania się do człowieka.
Oczywiście, pojawia się pytanie o zgodę na przetwarzanie danych przez AI. Czy zawsze jest ona wymagana? To zależy nie tyle od metody przetwarzania, co od samego procesu – jeśli nie dochodzi do zautomatyzowanego podejmowania decyzji, to zgoda nie zawsze będzie konieczna. Ważne jest również, z jakim systemem AI mamy do czynienia – czy pełni jedynie rolę wspierającą ocenę, czy też przetwarza dane w celu samodoskonalenia, rozwoju tego systemu. Dlatego też, w trakcie tworzenia i trenowania modeli AI, podmioty przetwarzające dane muszą jasno określić cele, dla których zbierają i wykorzystują dane osobowe, oraz upewnić się, że są one zgodne z prawem. Konieczne jest również poinformowanie osób, których dane dotyczą, o tych celach i uzyskanie ich zgody lub opieranie się na innej podstawie prawnej. W każdym przypadku należy ograniczyć zakres i czas przetwarzania danych osobowych do minimum niezbędnego do realizacji celów przetwarzania.
Stąd też należy mieć na uwadze, że w przypadku korzystania z narzędzi AI także należy pamiętać o prawie do uzyskania interwencji człowieka, wyrażenia swojego stanowiska oraz zakwestionowania decyzji. Ponadto ważne jest, aby uzyskać wyraźną zgodę kandydatów na przetwarzanie ich danych przez AI (o ile taka zgoda będzie wymagana zgodnie z przepisami) i szczegółowo informować o celach oraz sposobach przetwarzania tych danych. Nie zapominajmy, że administrator powinien także zapewnić usunięcie danych osobowych z systemu w przypadku takiego żądania (co jak wiemy – pomimo najlepszych intencji może napotkać trudności).
Wdrożenie AI w procesach rekrutacyjnych i zarządzaniu zasobami ludzkimi w startupach wiąże się z wieloma korzyściami, ale także z istotnymi wyzwaniami prawnymi. Aby skutecznie wykorzystać potencjał AI, startupy muszą być świadome obowiązujących regulacji prawnych i dbać o ich przestrzeganie na każdym etapie, ale też dzięki znajomości prawa znać ewentualne wyłączenia/odstępstwa, które mogą ich dotyczyć jako mniejszych przedsiębiorców.
Właśnie dlatego, żeby ułatwić sobie planowanie odpowiednich działań, zachęcamy dodatkowo do pobrania naszej checklisty Zgodnego z prawem korzystania z AI: https://lawmore.pl/checklistaai/.
Czytaj także:
Czy GenAI oznacza nową erę logistyki? Przeglądamy nowy raport EY o bezosobowych łańcuchach dostaw