Unia Europejska

Algorytmem w samotne matki. Na aferze zasiłkowej w Holandii wyłożyli się nie tylko politycy

Holenderski skandal zasiłkowy powinien stanowić memento dla wszystkich decydentów marzących o tanim i bezobsługowym państwie, w którym urzędników zastąpią algorytmy.

Po czterech miesiącach od wyborów parlamentarnych holenderska scena polityczna pozostaje w zawieszeniu. Nowa koalicja powstaje w bólach, a ustępujący w żółwim tempie rząd Marka Ruttego jest punktowany za liczne stare grzechy.

Najnowszym rozdziałem tych rozliczeń są ustalenia parlamentarnej komisji ds. skandalu zasiłkowego, który wstrząsnął krajem w 2018 roku. Dzięki mediom i garstce polityków dowiedzieliśmy się o prowadzonej przez wiele lat bezwzględnej operacji służb skarbowych, w wyniku której 26 tysięcy osób błędnie posądzono o wyłudzenie świadczeń opiekuńczych. 10 tysiącom gospodarstw nakazano zwrot wszystkich wypłaconych środków – nierzadko były to kwoty przekraczające 100 tys. euro.

Upadek rządu na życzenie premiera

Efekt? Rodzinne tragedie, rozwody, zwolnienia z pracy, eksmisje, dwa tysiące dzieci umieszczonych w pieczy zastępczej. Gdy okazało się, że w większości przypadków pieniądze wydawano zgodnie z przeznaczeniem, było już za późno.

Afera doprowadziła w końcu do upadku trzeciego gabinetu Ruttego w lutym 2021 roku. Przeprowadzone krótko potem wybory pokazały jednak, że przydomek lidera centroprawicowej VVD nie wziął się znikąd. „Teflonowy Marek” nie tylko poprowadził partię do zwycięstwa, ale zachował też stanowisko premiera.

Rutte nie może odejść, ale musi się tłumaczyć

Raport liczący blisko 600 stron i sporządzony po przesłuchaniu 40 świadków, w tym Ruttego, zaprezentowano 26 lutego 2024 roku w siedzibie parlamentu. Dokument pod wymowną nazwą Ślepi na człowieka i prawo to akt oskarżenia wobec właściwie całego państwa.

Ze swoich obowiązków nie wywiązali się zarówno uchwalający wadliwe prawo parlament, jak i rząd oraz podległe mu służby, bezpośrednio odpowiedzialne za ściganie rzekomych oszustów. Kolejną kostką domina był wymiar sprawiedliwości, najpierw „klepiący” fatalnej jakości przepisy, a później, już w epicentrum kryzysu, obojętny na los poszkodowanych.

„Państwo zwróciło się przeciwko własnym obywatelom i naruszyło ich konstytucyjne prawa, nie zważając w najmniejszym stopniu na zasadę praworządności” – ocenili posłowie.

Pod obserwację skarbówki można było trafić za prostą, niezamierzoną pomyłkę przy wypełnianiu wniosku o wsparcie pieniężne, którym rodzice pokrywali część opłat za opiekę nad dzieckiem w żłobkach i przedszkolach. Według komisji w praktyce urzędniczej zbyt często nie odróżniano umyślnego złamania prawa od nieintencjonalnego niedopatrzenia.

Rasizm z algorytmu

Zespół pod przewodnictwem Michiela van Nispena z Partii Socjalistycznej stwierdził też, że w Holandii przez długi czas narastała swoista nagonka na samą instytucję świadczeń społecznych. W rezultacie opinia publiczna zaczęła utożsamiać ich beneficjentów z wyłudzaczami, a służby skarbowe, inspirowane skrajnie jednostronną narracją, czuły się uprawnione, by tych wyłudzaczy karać z coraz większą surowością.

Ramię w ramię z politykami działały media rozdmuchujące najmniejszą nieprawidłowość do nieproporcjonalnych rozmiarów. Jak choćby w 2013 roku, gdy krzykliwe nagłówki donosiły o „bułgarskim oszustwie”.

Ustawa o sztucznej inteligencji: zakamuflowana deregulacja

czytaj także

„Łatwo było odnieść wrażenie, że wszyscy Bułgarzy to naciągacze. W rzeczywistości była to niewielka grupa przestępców, a wszystkie wytransferowane za granicę środki udało się odzyskać. Ale nikt nie bawił się wtedy w niuansowanie” – komentował przed komisją dziennikarz Gijs Herderscheê.

W holenderskiej aferze zasiłkowej szokuje nie tylko jej skala, ale także to, w jaki sposób typowano podejrzanych. W zbyt dużym stopniu zawierzono bowiem sztucznej inteligencji operującej z góry określonymi profilami ryzyka.

I tak według algorytmu prawdopodobieństwo wyłudzenia rosło, jeśli wniosek złożył ktoś z podwójnym obywatelstwem lub „obco brzmiącym” nazwiskiem. Urzędnicy, zadowoleni z automatyzacji całego procesu, brali te sugestie za dobrą monetę. Komisja twierdzi, że taką motywowaną rasowo, ściślejszą obserwację zaordynowano wobec 11 tys. osób, które nie wiedziały nawet, kto (czy raczej co) i według jakich kryteriów analizuje ich wrażliwe dane hulające swobodnie po resortach.

Ludzie dyskryminują, więc algorytmy też

„Wśród uczestników było może 10 procent osób białych” – tak jedno ze spotkań z ofiarami skandalu opisywał w rozmowie z „Guardianem” Orlando Kadir, prawnik zaangażowany w pomoc pokrzywdzonym.

Podobny obraz wyłania się z relacji Chermaine Leysner i Martine van Bruggen, z którymi rozmawiali dziennikarze agencji Reutera i portalu Politico. Pierwsza z kobiet, studentka o surinamskich korzeniach, w 2012 roku otrzymała wezwanie do zwrotu 100 tys. euro – stres związany z błędnie nałożoną karą doprowadził do depresji i rozpadu związku.

W przypadku van Bruggen, pracownicy banku, zastrzeżenia służb dotyczyły tylko jednej z jej dwóch córek uczęszczających do tego samego przedszkola. Tak się akurat złożyło, że dziewczynka nosiła tureckie nazwisko ojca.

„To był po prostu rasizm” – twierdzi van Bruggen. Jej ocenę podziela m.in. Amnesty International, która we własnym raporcie wprost pisze o „profilujących rasowo, ksenofobicznych algorytmach” bez wystarczającego ludzkiego nadzoru.

Tykająca bomba. Holendrzy nie uczą się na własnych błędach

Na ile wycenić zrujnowany życiorys? Rodzinom skrzywdzonym przez państwo ekipa Ruttego zaoferowała 30 tys. euro odszkodowania. Wydaje się, że do funduszu pomocy pokrzywdzonym przez AI trzeba będzie sporo dosypać, bo naruszających prywatność przepisów wciąż nie zmieniono. „Skandal zasiłkowy może powtórzyć się w każdej chwili” – alarmuje komisja.

Co gorsza, instytucjonalny i technologiczny rasizm zdążył rozlać się na inne obszary funkcjonowania państwa, w tym na szczebel samorządowy. Jak ujawnił portal Wired, algorytm, z którego przez lata korzystały władze Rotterdamu, był szczególnie wyczulony na kobiety, samotne matki, osoby młode, bezrobotne i niemówiące dobrze po niderlandzku. Równie niepokojące doniesienia płynęły z Utrechtu i Zaandamu.

Wyłudzaczy świadczeń i stypendiów podobną metodą szukano także wśród studentów. Tu również rdzenni Holendrzy byli w mniejszości, a później minister edukacji musiał przepraszać za pośrednią dyskryminację i zapowiedzieć audyt. Dodajmy do tej wyliczanki amsterdamską policję układającą listy potencjalnych przestępców na podstawie podpowiedzi sztucznej inteligencji.

Zwalnia, pozbawia mieszkań, szpieguje pracowników. AI to nie „problem przyszłości”

Eksperci Amnesty International przestrzegają, że problem profilujących rasowo algorytmów nie dotyczy jedynie Holandii, bo cyfryzacja sektora publicznego przyspiesza na całym świecie.

Nowoczesne technologie mogą oczywiście świetnie sprawdzić się w likwidacji administracyjnych wąskich gardeł i antycypacji przestępstw, o ile zachowamy decydującą rolę czynnika ludzkiego. Bo gdy na którymś etapie dojdzie do wypaczeń, obrywają nie maszyny, a ludzie – i to zwykle ci najbardziej wykluczeni i potrzebujący pomocy. Pozostaje mieć nadzieję, że sytuację ucywilizuje unijny rejestr algorytmów wysokiego ryzyka zapowiedziany w przepisach regulujących sztuczną inteligencję.

**
Michał Litorowicz – dziennikarz i wydawca w przeszłości związany z portalami Gazeta.pl i Bankier.pl, publikował też w OKO.press.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij