Marzenie o obejściu polityki za pomocą nauki jest mocno zakorzenione w naszej kulturze. Kiedy jednak słyszymy, że sztuczna inteligencja jest takim apolitycznym narzędziem do podejmowania doskonale obiektywnych decyzji, warto pamiętać, że AI również jest na wskroś polityczna. Oraz że nie ma skuteczniejszego sposobu forsowania rozwiązań politycznych niż udawanie, że nie mają one nic wspólnego z polityką.
Zapytani o największych naukowców w historii ludzkości wymieniamy najczęściej Alberta Einsteina, Isaaca Newtona czy Marię Skłodowską-Curie. Badacze zainteresowani historią nauki dodają do tego grona pewną mniej znaną postać, przypisując jej kluczową rolę w rozwoju działalności naukowej. Chodzi o Roberta Boyle’a, XVII-wiecznego brytyjskiego fizyka i chemika czy też – jak zwali go współcześni mu ludzie – filozofa przyrody. Boyle jest uważany nie tylko za jednego z pionierów metod eksperymentalnych, ale też za człowieka, który wpłynął na nasze wyobrażenia i nadzieje związane z nauką i techniką.
Francuski socjolog Bruno Latour twierdzi, że to między innymi Boyle’owi zawdzięczamy przekonanie, iż rozwój naukowy i techniczny może nas w końcu wyrwać z matni politycznych sporów. Gdy znajdziemy bezstronną metodę prowadzącą do odkrywania niepodważalnych prawd, łatwiej będzie się nam ze sobą dogadać. Innymi słowy, znajdziemy niepolityczny sposób robienia polityki, czyli nadawania kształtu naszym społeczeństwom. Taką nadzieję, zdaniem Latoura, żywił Boyle, zmęczony krwawymi konfliktami, którymi były naznaczone jego czasy.
czytaj także
Nie wiemy, czy ambicje Boyle’a naprawdę sięgały tak daleko, ale samo marzenie obejścia polityki za pomocą nauki jest mocno zakorzenione w naszej kulturze. Dziś niektórzy snują na przykład plany hakowania klimatu. Skoro nie potrafimy się dogadać, jak rozwiązać problem katastrofy klimatycznej za pomocą narzędzi politycznych – mówią – to po prostu wykorzystajmy najnowsze zdobycze techniczno-naukowe do pozbycia się tego kłopotu. Rozpylmy aerozole, które będą absorbować promieniowanie słoneczne. To prostsze rozwiązanie niż niekończące się spory na temat kapitalizmu, podatków czy regulacji nakładanych na działalność wielkich korporacji. Tam, gdzie zawodzi polityka, niech przyjdzie z pomocą nauka.
Ze sztuczną inteligencją poza politykę
Podobne nadzieje wiąże się z rozwojem algorytmów komputerowych czy też – by użyć szumniejszej nazwy – sztucznej inteligencji. Czy sztuczna inteligencja nie mogłaby nam pomóc w rozstrzygnięciu lub po prostu ominięciu politycznych sporów? – pytają jej entuzjaści.
Marzenie obejścia polityki za pomocą nauki jest mocno zakorzenione w naszej kulturze.
Aby zrozumieć to marzenie, trzeba pamiętać o jednej rzeczy. Ludzki umysł jest podatny na wiele błędów poznawczych. Mamy na przykład tendencję do faworyzowania informacji zgadzających się z naszym światopoglądem. Udzielamy też różnych odpowiedzi na ten sam problem w zależności od tego, jak został on sformułowany. Przykłady można mnożyć. Na angielskiej stronie Wikipedii lista błędów poznawczych zawiera ponad setkę pozycji. Pozbawiona tego rodzaju ułomności sztuczna inteligencja mogłaby wznieść się ponad jałowe spory polityczne. Jej bezstronność i niezawodność poznawcza stanowiłyby doskonałą receptę na nasz ograniczający subiektywizm.
Tyle teoria. W praktyce nie jest to łatwe zadanie, o czym świadczy kilka znanych przykładów pokazujących, jak polityczne może być działanie algorytmów. W 2015 roku głośno było o aplikacji Google Image, która oznaczała osoby czarnoskóre jako goryle. Nie było to oczywiście celowe działanie ze strony jej twórców. Niemniej, zważywszy na historię dyskryminacji i odczłowieczania ludzi o ciemniejszym kolorze skóry, trudno się dziwić, że wiele osób uznało ten błąd w działaniu algorytmu za mało zabawny. Zresztą Google nie radzi z nim sobie do dziś. Co ważne, u podstaw takich błędów często znajdują się ludzkie skrzywienia poznawcze: kiedy na przykład ktoś uczy algorytm, jak rozpoznawać ludzi, a jako punktów odniesienia używa głównie zdjęć białych przedstawicieli naszego gatunku.
czytaj także
Jeszcze głośniejsza była afera z botem Microsoftu, który miał stawać się coraz inteligentniejszy dzięki rozmowom prowadzonym z użytkownikami Twittera. Rozmowy te rzeczywiście na niego wpłynęły, choć nie tak, jak wyobrażali sobie jego twórcy. Bot nauczył się bowiem wygłaszać rasistowskie i seksistowskie komentarze. Przypomina to sytuację z opowiadania Ananke Stanisława Lema. W tekście polskiego pisarza sztuczna inteligencja odpowiedzialna za pilotowanie statku kosmicznego przejmuje obsesje jednego z ludzkich testerów, co prowadzi do tragicznego w skutkach wypadku. Tutaj „testerem” byli użytkownicy Twittera ze swoim typowym zestawem manii politycznych.
Wszystko to rodzi pytanie, czy naprawdę potrafimy oddzielić sztuczną inteligencję od ludzkich ułomności. Czy da się sprawić, aby nasze przesądy i wady nie przenikały do tworzonych przez nas algorytmów? Co jeśli rasistowskie przesądy przedostaną się nie do stosunkowo niewinnej aplikacji zdjęciowej, lecz do algorytmów wspomagających działania policji? A takie rzeczy już powstają. W ramach tzw. predictive policing są tworzone programy mające przewidywać, jakie rodzaje miejsc lub osób wiążą się ze zwiększonym ryzykiem popełnienia przestępstwa.
Oczywiście, można na te wątpliwości odpowiedzieć, że zarówno bot Microsoftu, jak i Google Image opierają się na stosunkowo prymitywnych algorytmach, które są nazywane sztuczną inteligencją jedynie ze względów marketingowych. Prawdziwie zaawansowana AI będzie pozbawiona takich wstydliwych wad. Skoro potrafimy tworzyć algorytmy, które wygrywają już nie tylko w szachy, lecz także w go, a nawet są w stanie namalować obraz w stylu Rembrandta, to z pewnością odporność na przesądy też leży w ich zasięgu, prawda?
Niestety niekoniecznie. Problem z apolityczną sztuczną inteligencją nie polega jedynie na stopniu zaawansowania algorytmów.
Powrót polityki
Wróćmy na chwilę do przykładu z hakowaniem klimatu. Przyjmijmy, że udało się nam opracować skuteczny sposób powstrzymania efektu cieplarnianego za pomocą aerozoli. Czy to znaczy, że uniknęliśmy dzięki temu niewygodnego sporu politycznego dotyczącego na przykład regulowania gospodarki przez państwo? Nie, po prostu zastąpiliśmy jeden rodzaj dylematów politycznych innymi. Jak przytomnie zauważa Ewa Bińczyk, autorka książki Epoka człowieka, hakowanie klimatu jest nierozerwalnie związane z wyborem określonej polityki.
„Kontrola nad technologiami geoinżynierii będzie oznaczać dostęp do skoncentrowanej władzy na niesłychaną skalę. Z całą pewnością hakowanie klimatu przyniesie też znaczne zyski. Czy trafią one w ręce podmiotów prywatnych czy raczej najsilniejszych państw? Kto powinien o tym decydować? Na podstawie jakich dokładnie kryteriów będziemy decydowali, kiedy i gdzie należy rozpocząć interwencje geoinżynieryjne? Które kraje zostaną narażone na największe szkody? Kto otrzyma odszkodowania? Jak będziemy weryfikować to, czy już odnieśliśmy sukces?” – pyta słusznie Bińczyk.
Bińczyk: Ludzkość jest dziś jednocześnie supersprawcza i bezradna!
czytaj także
Nie inaczej jest ze sztuczną inteligencją. Niezależnie od tego, jak zaawansowane będą jej algorytmy, wciąż będą działać w naszym, ludzkim świecie. Tym samym będą wywoływały typowe polityczne dylematy i spory. Komu służy dane zastosowanie sztucznej inteligencji? Jakie ma skutki uboczne? Kto ponosi ich koszty? Kto ma prawo do korzystania z tej technologii? Kto na niej zarabia? Realizacji jakich wartości ona sprzyja?
Co jeśli rasistowskie przesądy przedostaną się do algorytmów wspomagających działania policji?
Ostatecznie spory polityczne nie wynikają tylko z ludzkich ułomności, lecz również z tego, że polityka jest domeną wartości. Podążanie za tą bądź inną wartością wymaga zaś… cóż, faworyzowania właśnie tej wartości. Sztuczna inteligencja, tak jak każde rozwiązanie techniczno-naukowe, może oczywiście dostarczyć dobrych argumentów za określoną wartością i pomóc w jej realizacji. Jest jednak mało prawdopodobne, aby sama w sobie mogła służyć jako apolityczne narzędzie rozstrzygania politycznych sporów.
Musimy o tym pamiętać, bo część ludzi używa sztucznej inteligencji jako rzekomo bezstronnego, apolitycznego argumentu na rzecz określonych rozwiązań. Adam Greenfield podaje w książce Radical Technologies ciekawy przykład. Republikański senator Jeff Brandes podjął w 2014 roku próbę zlikwidowania dopłat do transportu zbiorowego w swoim okręgu. Jego argumentacja sprowadzała się do tego, że nie ma sensu marnować pieniędzy na komunikację publiczną, skoro w sposób nieuchronny nadciąga era autonomicznych pojazdów sterowanych przez sztuczną inteligencję. „To jak tworzenie poczty konnej w czasach telegrafu” – mówił. Brandes dopiął swego i dopłaty zlikwidowano.
Nowa generacja rentierów. Evgeny Morozov o cyfrowym kapitalizmie, danych i smart cities [WYWIAD]
czytaj także
Republikański senator wykorzystał znaną technikę retoryczną. Udawał, że jego argumentacja nie ma nic wspólnego z polityką, że on po prostu obwieszcza nieuchronny, apolityczny postęp. To bujda. Nawet gdyby era autonomicznych pojazdów rzeczywiście była blisko, to decyzja o tym, czy stawiamy na transport zbiorowy, czy indywidualny, jest na wskroś polityczna. Dotyczy bowiem tego, jaką mamy wizję naszej społeczności i jakimi wartościami się kierujemy. Nie ma czegoś takiego jak niepolityczna decyzja dotycząca kształtu naszego społeczeństwa, ponieważ rozstrzyganie, jak ma wyglądać społeczeństwo, jest kwintesencją polityki.
Zachować czujność
Dotychczasowy postęp naukowo-techniczny przyniósł nam wiele korzyści. Podobnie może być z rozwojem sztucznej inteligencji. Musimy jednak unikać pokusy myślenia o nim jako procesie, który zachodzi obok polityki bądź ponad nią. Przykład likwidacji dopłat do transportu zbiorowego pokazuje, jak perswazyjna bywa narracja o nieuchronności pewnych zmian, nad którymi nie mamy rzekomo żadnej kontroli politycznej. Nie istnieje skuteczniejszy sposób forsowania określonych rozwiązań politycznych niż udawanie, że nie mają one nic wspólnego z polityką, bo wynikają z obiektywnych mechanizmów rządzących światem.
Nie ma czegoś takiego jak niepolityczna decyzja dotycząca kształtu naszego społeczeństwa.
Peter Bloom i Carl Rhodes piszą w książce CEO Society, że język nieuchronności jest od dawna wykorzystywany do tego, aby wprowadzać rozwiązania korzystne dla korporacji i wielkiego biznesu. Tak właśnie rozpowszechnił się fundamentalizm rynkowy. Doszliśmy do punktu, w którym wdrażanie rozwiązań korzystnych dla międzynarodowych korporacji traktuje się automatycznie jako coś pozytywnego dla gospodarki w ogóle.
Doskonale widać to w dyskusji nad międzynarodowymi traktatami handlowymi, jak CETA czy TTIP. Jedyne, co można powiedzieć o tych traktatach na pewno, to tyle, że ich zapisy są korzystne dla międzynarodowych korporacji. Dużej części opinii publicznej wystarcza to do uznania, że te traktaty są po prostu dobre. Wynika to z tego, że trudno nam sobie wyobrazić inną drogę rozwoju niż ta, którą forsuje wielki biznes. Taka jest potęga „apolitycznego” języka nieuchronności.
Dlatego kiedy ktoś mówi, że rozwój sztucznej inteligencji jest bezproblematycznym dobrem, w naszych głowach powinien włączać się alarm. Podobnie w sytuacji, gdy przekonuje się nas, że sztuczna inteligencja jest skutecznym sposobem na ominięcie politycznych sporów. Albo że nie wymaga regulacji. Kiedy większość społeczeństwa zaczyna wierzyć, że jakieś zjawisko nie potrzebuje politycznej i demokratycznej kontroli, otwiera się furtka dla różnych grup interesu czerpiących zyski dzięki naszej osłabionej czujności.
czytaj także
Sztuczna inteligencja – czy nam się to podoba czy nie – jest polityczna. A skoro tak, podlega standardowemu zestawowi politycznych pytań. Kto czerpie zyski z danego rozwiązania? Kto na nim traci? Kto je kontroluje? W jaki sposób można je uregulować dla dobra ogółu? Jeśli nie będziemy konsekwentnie zadawać takich pytań, sztuczna inteligencja stanie się po prostu jeszcze jednym narzędziem do manipulacji społeczeństwem i czerpania zysków przez największych graczy na światowym rynku.