Nauka, Świat, Weekend

Czy da się zbuntować przeciwko sztucznej inteligencji?

Szczegóły działania algorytmów sztucznej inteligencji są tajemnicą nawet dla ludzi, którzy je tworzą. Co będzie, gdy niezrozumiałe decyzje AI zaczną wpływać na nasze życie? Jak rzucić wyzwanie władzy, kiedy nie wiadomo, kto – i czy w ogóle ktoś – ją sprawuje?

W 2016 roku sąd w Wisconsin skazał Erica Loomisa na sześć lat więzienia – m.in. za prowadzenie auta, którego użyto wcześniej podczas strzelaniny. Nie byłoby w tej sprawie nic szczególnego, gdyby nie to, że wydając wyrok, sędzia posiłkował się algorytmem o nazwie COMPAS.

COMPAS ocenił, że Loomis stanowi duże zagrożenie dla społeczności i w jego przypadku istnieje znaczące ryzyko recydywy. Na jakiej podstawie? Trudno powiedzieć. Jak pisał swego czasu „New York Times”: „Nikt dokładnie nie wie, jak działa COMPAS; jego producent odmawia ujawnienia zastrzeżonego algorytmu. Znamy tylko końcową ocenę ryzyka dostarczoną przez algorytm, którą sędziowie mogą wziąć pod uwagę podczas wydawania wyroków”.

Utracona nowoczesność?

Przypadek Erica Loomisa to jedna z wielu historii, które przytacza Meghan O’Gieblyn w książce God, Human, Animal, Machine: Technology, Metaphor, and the Search for Meaning. Ten nieco zagmatwany tytuł dobrze oddaje wielowątkowość książki. Rzeczywiście jest to pozycja o Bogu, ludziach, zwierzętach, maszynach, technologii, metaforach i poszukiwaniu sensu. Jednym z motywów przewodnich, który spaja te wszystkie rozważania, jest przekonanie autorki, że postęp techniczny w żadnej mierze nie uwolnił nas od dylematów filozoficznych, etycznych czy nawet teologicznych. Wręcz przeciwnie, czasem przywraca w nowej wersji stare pytania i dylematy.

System COMPAS jest doskonałym przykładem.

Jak zauważa O’Gieblyn, ambicją oświecenia i nowoczesności była chęć zwiększenia przejrzystości świata. Ludzie uczyli się nie tylko zauważać pewne zjawiska, ale też dociekać, co za nimi stoi. Weźmy medycynę: stopniowo uczyliśmy się dostrzegać nie tylko choroby i ich objawy, ale poznawaliśmy, co je powoduje: wirusy, bakterie, pasożyty itp. Podobnie wyglądał postęp w innych dziedzinach, szczególnie w fizyce i chemii.

Zdaniem O’Gieblyn przypadek Loomisa pokazuje, że rozwój sztucznej inteligencji prowadzi nas, przynajmniej czasami, w odwrotną stronę. Jak pisze, „aby uzyskać wyższą wiedzę, którą posiadają maszyny, zostajemy zmuszeni, by porzucić nasze pragnienie poznania »dlaczego« i zaakceptować wyniki dostarczane przez te maszyny jako czyste objawienie”.

Jeszcze rok temu można by uznać to za zbyt wybujałą analogię. OK, istnieje problem z tym, że prywatne firmy nie chcą udostępniać szczegółów na temat działania swoich algorytmów, ale jest to problem raczej prawny niż filozoficzny. Wystarczy stworzyć odpowiednie regulacje.

ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje

Sprawy są jednak bardziej skomplikowane, o czym świadczy dyskusja wokół ChataGPT. Pomińmy już to, że przegłosowanie potrzebnych regulacji może być trudne w obliczu siły biznesowego lobby. Problem sięga głębiej. Trafnie podsumował go amerykański dziennikarz Ezra Klein. Gdy amerykański rząd zaproponował ustawę, która wymusiłaby na firmach wypuszczających kolejne wersje sztucznej inteligencji przejrzystość działania ich algorytmów, Klein zauważył: „Każdy ekspert, z którym rozmawiam, mówi w zasadzie to samo: nie poczyniliśmy żadnych postępów w zakresie interpretowalności. Z pewnością istnieje szansa, że to zrobimy, ale to tylko szansa. Na razie nie mamy pojęcia, co dzieje się wewnątrz tych systemów predykcyjnych”.

Mówiąc jeszcze prościej, czasem szczegóły działania algorytmów sztucznej inteligencji są tajemnicą nawet dla ludzi, którzy je konstruują. Co powinno rodzić proste pytanie: na ile chcemy wpuścić takie algorytmy do naszych społeczeństw? Jakimi kompetencjami zamierzamy je obdarzyć?

Jak oprotestować algorytmy?

Meghan O’Gieblyn zauważa, że porzucenie oświeceniowego ideału poznawania świata ma groźne konsekwencje. Jednocześnie podkreśla, że jeden z tych ideałów – ideał obiektywności – może odgrywać rolę zasłony dymnej dla osób wykorzystujących różne wersje sztucznej inteligencji: zarówno prywatnych firm, jak i publicznych instytucji, na przykład policji i sądów.

Na pozór sztuczna inteligencja jest obiektywna, ponieważ wolna od ludzkiej interesowności czy preferencji ideologicznych. Tym samym „wyroki” tej inteligencji znajdowałyby się poza krytyką. I właśnie to przekonanie o neutralności algorytmów stwarza zdaniem O’Gieblyn – największe ryzyko.

Tak naprawdę jednak sztuczna inteligencja jest trenowana na bazie historycznych danych, więc może powielać ideologiczne przesądy z naszej przeszłości.

Ludzie dyskryminują, więc algorytmy też

Jak pisze O’Gieblyn:

„Algorytmy Google’a wyświetlają więcej reklam nisko płatnych prac kobietom niż mężczyznom. Potwierdzono, że algorytmy Amazona dotyczące dostawy tego samego dnia omijają czarne dzielnice. Raport ProPublica wykazał, że szacunki systemu COMPAS znacznie częściej przypisywały wyższe wskaźniki recydywy czarnym oskarżonym niż białym. Algorytmy te nie są ukierunkowane na określone rasy lub płcie, a nawet nie uwzględniają tych czynników. Niemniej często biorą pod uwagę inne informacje – o kodach pocztowych, dochodach, wcześniejszych kontaktach z policją – które są obciążone dziedzictwem historycznych nierówności”.

Powielanie ideologicznych uprzedzeń pod płaszczykiem neutralności to jedno. Jeszcze innym problemem jest kwestia protestów społecznych. Jak słusznie zauważa Jackie Wang w książce Carceral Capitalism (Kapitalizm więzienny), znacznie łatwiej protestuje się nam przeciwko ludziom niż algorytmom. Tak więc mniej czynnika ludzkiego oznacza mniej okazji do buntu.

Wang przytacza słynne hasło „All Cops Are Bastards”, czyli „wszystkie gliny to dranie”, po które sięgają często osoby protestujące przeciwko brutalności policji. „Wszystkie policyjne bazy danych to dranie” nie ma już takiej siły przebicia.

W pewnym sensie zjawisko nieprzejrzystości algorytmów, które omawiają O’Gieblyn oraz Wang, jest przedłużeniem problemu opisanego kiedyś przez słynnego francuskiego filozofa Michela Foucaulta.

Nieprzejrzystość władzy, a tym samym niemożność określenia, kto konkretnie pociąga za sznurki, to poważne utrudnienie dla ludzi, którzy chcą rzucić wyzwanie obowiązującemu porządkowi rzeczy – przekonywał Foucault. Bo nie do końca wiadomo, komu dokładnie rzucać to wyzwanie: rządowi, wielkim korporacjom, a może międzynarodowym instytucjom?

Wprowadzenie do tego równania „obiektywnych” algorytmów grozi jeszcze większym rozmyciem kwestii decyzyjności i odpowiedzialności.

ChatGPT o rzezi Woli: masakra czarnoskórych żołnierzy radzieckich dokonana przez powstańców

Ku pytaniom podstawowym

Najcenniejsze w książce O’Gieblyn jest właśnie to, że każde podejmowane przez siebie zagadnienie stara się sprowadzić do podstawowych pytań natury filozoficznej, a czasem nawet religijnej. Co z naszą możliwością poznawania świata? Czy sztuczna inteligencja nie zamienia się w rodzaj niedostępnego boga, który skrywa przed nami swoje drogi? Jak te wszystkie zmiany wpłyną na naszą możliwość kwestionowania zastanego porządku rzeczy?

W czasach nowożytnych – zauważa O’Gieblyn – filozofowie, którzy chcieli odróżnić człowieka od zwierząt, podkreślali takie cechy naszego gatunku jak zdolność do rozumowania, abstrakcyjnego myślenia czy poruszania się po niematerialnym świecie idei. Klasycznym przykładem jest filozofia Kartezjusza. Teraz jednak, chcąc odróżnić ludzi od maszyn, niektórzy zaczynają podkreślać rzeczy, które najbardziej łączą nas ze zwierzętami: posiadanie ciała, reakcje emocjonalne, zanurzenie w świecie materii.

Do czego to doprowadzi: jaką koncepcję człowieka sobie wyrobimy? – trudno dzisiaj przewidzieć.

Na kogo głosuje sztuczna inteligencja?

Tym bardziej że – jak znowu słusznie wyłapuje O’Gieblyn – są w naszej kulturze także tendencje przeciwne, czyli do upodabniania nas samych do maszyn. Bardzo dobrze widać to, gdy prześledzi się historię niektórych metafor. Najpierw określamy maszyny za pomocą metaforycznych określeń nawiązujących do ludzi, na przykład mówimy, że komputery mają „pamięć”. Potem zaś idziemy w drugą stronę: używamy określeń odnoszących się do komputerów, aby opisać człowieka. Na przykład porównujemy ludzką pamięć do „dysku twardego” albo mówimy o ograniczonej „przepustowości” umysłu.

W konsekwencji zaczynamy wierzyć w to, że ludzki mózg to rodzaj szczególnie skomplikowanego komputera, a człowiek jako taki może być postrzegany jako rozbudowana maszyna.

Część osób zapewne uzna za lekko frustrujące to, że O’Gieblyn czasem mnoży problemy w taki właśnie sposób, ale nie proponuje rozwiązań. Być może jednak to jest najcenniejsza cecha jej książki: ukazanie, że za kwestiami technicznymi kryje się cała galaktyka pytań o ludzką naturę, priorytety polityczne i sposób funkcjonowania społeczeństwa.

Najgorsze, co moglibyśmy zrobić jako społeczeństwo, to przeoczyć tę galaktykę i pozwolić, by odpowiedzi zapadły bez naszego udziału.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Tomasz S. Markiewka
Tomasz S. Markiewka
Filozof, tłumacz, publicysta
Filozof, absolwent Uniwersytetu Mikołaja Kopernika, tłumacz, publicysta. Autor książek „Język neoliberalizmu. Filozofia, polityka i media” (2017), „Gniew” (2020) i „Zmienić świat raz jeszcze. Jak wygrać walkę o klimat” (2021). Przełożył na polski między innymi „Społeczeństwo, w którym zwycięzca bierze wszystko” (2017) Roberta H. Franka i Philipa J. Cooka.
Zamknij