Projekt Lewicy, dotyczący zmian w ustawie o związkach zawodowych, nie trafił jeszcze do Sejmu, ale najnowsza wersja zakłada przyznanie związkom prawa dostępu do parametrów, zasad i instrukcji, na których opierają się algorytmy.
Algorytmy nadzorujące pracę i przydzielające zadania są codziennością coraz większej grupy pracowników. Pandemia COVID-19 przyzwyczaiła do elektronicznego szefa osoby pracujące za biurkiem, ale technologicznego nadzoru od lat doświadczali już pracownicy i pracowniczki branży logistycznej, call center czy magazynów. Niektórzy co prawda przekonują, że algorytmiczne zarządzanie zwiększa efektywność pracy, jednak pracownicy i związki zawodowe coraz częściej głośno mówią o negatywnych doświadczeniach związanych chociażby z wyśrubowanymi normami wydajności czy nieprzejrzystymi zasadami ustalania wynagrodzeń w tak zautomatyzowanej pracy.
Solidarność w Amazonie. Czy Ameryka da drugą szansę związkom zawodowym?
czytaj także
Problemy zaczynają dostrzegać również politycy, którzy wyszli z konkretnymi pomysłami na regulacje mające zagwarantować pracownikom i pracowniczkom lepszą ochronę przed nieprzejrzystymi i niesprawiedliwymi algorytmami. W Polsce sejmowy klub Lewicy, inspirowany rozwiązaniami już funkcjonującymi w Hiszpanii, proponuje przyznanie związkom zawodowym dostępu do parametrów algorytmów stosowanych wobec pracowników i pracowniczek. Krok dalej idzie Unia Europejska, która w grudniu 2021 roku zaproponowała projekt dyrektywy o pracy platformowej. Regulowałaby ona wykorzystywanie algorytmów wobec osób zatrudnionych przez aplikacje takie jak Uber czy Glovo. Poza sektorowymi regulacjami w UE toczą się także intensywne prace nad przepisami o sztucznej inteligencji (AI Act), także tej stosowanej do zarządzania pracownikami.
Praca w aplikacji – samozatrudnienie na niby?
Pracownicy, którzy znaleźli się pod nadzorem algorytmów, skarżą się na niezrozumiałe i niesprawiedliwe zasady działania systemów, które przecież decydują o tym, ile zarobią, jakie dostaną zlecenie i jak szybko będą zmuszeni pracować. Poczucie bycia „na łasce” algorytmu jest jeszcze większe w przypadku tzw. pracy platformowej, w ramach której zlecenia są przydzielane, monitorowane i wynagradzane za pośrednictwem internetowej aplikacji, bez bezpośredniego kontaktu z człowiekiem (ani z klientem, ani z pośrednikiem). Wedle szacunków Komisji Europejskiej w taki sposób pracuje aż 28 mln osób w UE. Tej formie bardzo często towarzyszą prekaryjne warunki pracy, w których z pracownikiem lub pracowniczką łatwo się rozstać, bo forma umowy nie przewiduje gwarancji, jakie znamy z Kodeksu pracy.
czytaj także
Aż 90 proc. dostępnych w UE platform klasyfikuje ludzi jako samozatrudnionych, mimo że – jak podnoszą osoby zatrudnione przez aplikacje – relacje między nimi a dostawcą platformy przypominają tradycyjny stosunek pracy. Na przykład platformy często dyktują warunki wynagrodzenia, ustalają minimalne standardy jakości obsługi klientów, automatycznie przydzielają zlecenia, organizują czas pracy oraz monitorują i oceniają pracowników, co ostatecznie decyduje o liczbie otrzymywanych zleceń.
Pracownicy przeciwko algorytmom
W maju 2021 roku sprzeciw wobec niesprawiedliwych algorytmów decydujących o wynagrodzeniach wyprowadził na ulice kurierów Glovo w Gdańsku i Białymstoku. Powodem strajku, który polegał na nierealizowaniu przyjętych zleceń, była zmiana algorytmu ustalającego wynagrodzenia: Glovo przestało naliczać zapłatę za dojazd do restauracji, z których kurierzy odbierają zamówienia – naliczało ją tylko za dojazd od restauracji do klienta, co znacząco obniżyło zarobki. Glovo nie konsultowało tych zmian z kurierami, a tych, którzy strajkowali, zablokowało w aplikacji.
Głośno o problemach algorytmicznego ustalania i mierzenia wydajności m.in. w polskich magazynach Amazona mówią pracownicy zrzeszeni w OZZ Inicjatywa Pracownicza. Amazon stosuje algorytm, który monitoruje i ocenia szybkość pracy. Jeśli dana osoba nie zrealizuje oczekiwanego minimum, otrzymuje ostrzeżenie, a po trzecim ostrzeżeniu może zostać zwolniona. Problem w tym, że normy wyznaczone przez Amazon są wyśrubowane, a zasady, jakimi kieruje się algorytm, są nieprzejrzyste i zmieniane z miesiąca na miesiąc, bez jakichkolwiek konsultacji z pracownikami.
Czy osoby o lewicowych poglądach mogą zatrudniać pomoc domową?
czytaj także
Lewica: związki zawodowe z dostępem do parametrów algorytmu
Problemy podnoszone przez pracowników zarządzanych przez algorytmy coraz wyraźniej przebijają się do świadomości polskich polityków i polityczek. Dyskutowano o nich chociażby w ramach sejmowej podkomisji ds. algorytmów cyfrowych, w której posiedzeniach regularnie uczestniczy Fundacja Panoptykon. Efektem jest niedawna propozycja Lewicy, mająca na celu wzmocnienie pozycji związków zawodowych wobec pracodawców stosujących nadzorcze algorytmy. Projekt zmian w ustawie o związkach zawodowych nie trafił jeszcze do Sejmu, ale najnowsza wersja zakłada przyznanie związkom prawa dostępu do „parametrów, zasad i instrukcji, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, które mogą mieć wpływ na warunki pracy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie”. To rozwiązanie miałoby ułatwić reagowanie na niesprawiedliwe lub naruszające BHP założenia algorytmu, a pracownikom i pracowniczkom zapewnić jasność co do stawianych im oczekiwań.
W naszej ocenie ta propozycja idzie w dobrym kierunku, ale – jak zresztą przyznają projektodawcy – to dopiero pierwszy krok. Dostęp związków zawodowych do zasad działania algorytmów stosowanych wobec pracowników i pracowniczek to absolutne minimum. To też ważne uzupełnienie przepisów RODO, które zobowiązują do informowania o logice algorytmu wyłącznie w sytuacji, gdy algorytm podejmuje decyzje bez udziału człowieka, podczas gdy w wielu przypadkach rekomendacje algorytmu są teoretycznie weryfikowane (a w praktyce zazwyczaj potwierdzane) przez ludzkiego menedżera. Jednak biorąc pod uwagę to, że w Polsce mamy do czynienia z niskim poziomem uzwiązkowienia, wydawałoby się zasadne, by wszyscy pracownicy i pracowniczki – nie tylko ci zrzeszeni w związkach – mogli uzyskać informacje o funkcjonowaniu algorytmów wpływających na ich warunki pracy.
Nie ulega wątpliwości, że informacja o podstawowych założeniach, na jakich opiera się algorytm, jest niezbędna do tego, by kontrolować nadużycia i egzekwować prawo. Ale naruszaniu praw pracowniczych i przepisów o ochronie danych mogłaby zapobiec interwencja pracowników lub ich reprezentantów jeszcze przed wdrożeniem algorytmu. Brak konsultacji przed wprowadzaniem zmian w algorytmach, np. organizujących pracę lub wyliczających wynagrodzenie, jest jednym z głównych problemów zgłaszanych przez osoby poddawane działaniu algorytmu. Dlatego widzimy potrzebę idącej dalej regulacji, która zobowiązywałaby np. do przeprowadzenia konsultacji z pracownikami i pracowniczkami oraz do przeprowadzenia oceny wpływu projektowanego rozwiązania na ich sytuację.
Unia Europejska chce uregulować prace „przez aplikacje”
Nawet jeśli propozycja Lewicy nie zawiera docelowych rozwiązań, bardziej kompleksowa regulacja, przynajmniej dla osób, które pracują za pośrednictwem aplikacji (tzw. pracowników platformowych) – to wyłącznie kwestia czasu. W grudniu 2021 roku za regulację „gig economy”, czyli systemu pracy „od zlecenia do zlecenia”, zabrała się Unia Europejska. Komisja Europejska przedstawiła projekt dyrektywy w sprawie poprawy warunków pracy za pośrednictwem platform internetowych, a zakłada on:
– uregulowanie statusu osób zatrudnionych przez aplikacje (przez stworzenie kryteriów pozwalających stwierdzić, czy platforma jest pracodawcą);
– zwiększenie przejrzystości parametrów stosowanych algorytmów (nie tylko dla związków zawodowych, ale dla każdej zatrudnionej osoby);
– zapewnienie monitorowania działania algorytmów przez człowieka;
– prawo do wyjaśnienia i zakwestionowania decyzji (nawet tej półautomatycznej, czyli wydanej przez człowieka na podstawie rekomendacji algorytmu);
– obowiązek konsultowania pracowników przed wprowadzeniem algorytmu;
– obowiązek ciągłego monitorowania wpływu algorytmu na prawa pracowników.
Ekonomia fuchy, czyli jak zburzyć poczucie stabilności pracy
czytaj także
Na ostateczny efekt jeszcze trochę poczekamy: prace nad dyrektywą trwają, a po jej przyjęciu przez instytucje unijne państwa członkowskie będą miały jeszcze dwa lata na jej wdrożenie do krajowych przepisów. Pozostaje też dylemat: dlaczego powyższe zasady miałyby się stosować tylko wobec pracowników i pracowniczek platformowych, a nie wszystkich poddanych działaniu algorytmów.
Czy unijny akt o AI ochroni wszystkich pracowników przed algorytmicznym szefem?
Ten ostatni problem może rozwiązać unijny akt o sztucznej inteligencji, który będzie regulował wykorzystanie wszelkich systemów AI do zarządzania pracownikami i pracowniczkami. Jednak żeby ta regulacja faktycznie wzmacniała pozycję osób nadzorowanych przez algorytmy, potrzebne są w niej daleko idące zmiany. Podsumowując, widzimy konieczność ulepszeń polegających na:
– wprowadzeniu obowiązku oceny wpływu algorytmu na prawa pracowników przez podmioty wdrażające system (a nie tylko tworzące go);
– opublikowaniu wyników tej oceny wraz z informacjami o podstawowych założeniach, celach, logice systemu i kluczowych decyzjach projektowych – wraz z uzasadnieniem;
– wprowadzeniu prawa do wyjaśnienia decyzji podejmowanych w indywidualnych sprawach z wykorzystaniem systemu;
– wprowadzeniu prawa do skargi, jeśli system naruszył prawa pracownika lub pracowniczki (w tym do reprezentacji przez organizację pozarządową lub związek zawodowy);
– umożliwieniu organizacjom i związkom zgłaszania naruszających prawo systemów bezpośrednio do organów nadzorczych, nawet jeśli pracownik lub pracowniczka – np. ze względu na obawę przed reperkusjami – nie złoży skargi indywidualnej.
**
Karolina Iwańska – prawniczka specjalizująca się w monitoringu procesu legislacyjnego i rzecznictwie dotyczącym regulacji platform internetowych i sztucznej inteligencji na poziomie unijnym. W latach 2019–2020 stypendystka Mozilla Foundation w obszarze EU Tech Policy. Ukończyła prawo na Uniwersytecie Jagiellońskim.
Współpraca: Dominika Chachuła, Anna Obem. Tekst pierwotnie ukazał się na stronie Fundacji Panoptykon.