Nie wystarczy sześciomiesięczne moratorium na rozwój sztucznej inteligencji, by zagwarantować, że w nowym świecie „inteligentnych” maszyn ludzie nie staną się przeżytkiem, a ich życie nie utraci znaczenia.
Tysiące osób publicznych, w tym Elon Musk, podpisały list otwarty przygotowany przez Future of Life Institute, wzywający do prewencyjnego zawieszenia na sześć miesięcy pracy nad rozwojem sztucznej inteligencji. Sygnatariusze i sygnatariuszki obawiają się, że laboratoria AI „uwikłały się w niekontrolowany wyścig” opracowywania i wdrażania coraz potężniejszych systemów, których zachowania nikt – łącznie z twórcami – nie potrafi zrozumieć, przewidzieć ani opanować.
Jak wyjaśnić ten wybuch paniki w pewnej grupie elit? Wszystko kręci się oczywiście wokół nadzoru i regulacji, ale kogo i przez kogo? Podczas proponowanej półrocznej przerwy spędzonej na inwentaryzacji zagrożeń kto opowie się po stronie ludzkości? A skoro w chińskich, indyjskich i rosyjskich laboratoriach praca nad AI będzie toczyć się dalej (być może potajemnie), trudno wyobrazić sobie prawdziwie globalną debatę na ten temat.
czytaj także
Mimo wszystko warto rozważyć, jaka stawka wchodzi w grę. W książce Homo Deus (2015) historyk Juwal Harari przewiduje, że najbardziej prawdopodobnym skutkiem działania sztucznej inteligencji będzie radykalny, nierówny podział społeczeństw, znacznie silniejszy niż podział klasowy. Już wkrótce biotechnologia i algorytmy komputerowe połączą siły, aby wytwarzać „ciała, mózgi i umysły”. Luka „między tymi, którzy będą umieli konstruować ciała i mózgi, a tymi, którzy tego umieli nie będą” będzie się rozszerzać. W takim świecie „ci, którzy pojadą pociągiem postępu, posiądą boską zdolność tworzenia i niszczenia, a ci, którzy zostaną, będą skazani na wymarcie”.
Panika widoczna w liście otwartym o sztucznej inteligencji bierze się z obawy, że nawet pasażerowie „pociągu postępu” nie zdołają nim sterować. Nasi obecni cyfrowi feudałowie się boją. Nie pragną jednak debaty publicznej, ale porozumienia pomiędzy rządami a korporacjami technologicznymi, które utrzymałoby władzę w dotychczasowych rękach. [Wkrótce po podpisaniu listu otwartego Elon Musk ogłosił, że zamierza powołać własną firmę, która ma rozwijać sztuczną inteligencję i rywalizować z OpenAI – red.].
Gigantyczna ekspansja możliwości sztucznej inteligencji stanowi poważne zagrożenie dla ludzi u władzy, łącznie z tymi, którzy pracują nad AI, posiadają ją i kontrolują. Zwiastuje ona wręcz koniec kapitalizmu, jaki znamy, niesiony przez perspektywę samoreprodukującego się systemu AI, który będzie potrzebował coraz mniej ludzkiego wkładu. (Algorytmy handlujące na giełdzie to dopiero pierwszy krok w tym kierunku). Pozostanie nam więc wybór między nową formą komunizmu a nieopanowanym chaosem.
Nowe chatboty dostarczą wielu samotnym (i nie tylko) ludziom niekończących się wieczornych pogawędek o filmach, książkach, gotowaniu czy polityce. By sięgnąć po moją starą metaforę, ludziom zostanie podana algorytmiczna wersja kawy bezkofeinowej czy coli bez cukru: przyjazny sąsiad bez trupów w szafie; Inny, który po prostu dostosowuje się do twoich potrzeb. Wystąpi struktura fetyszystycznego wyparcia: „Doskonale wiem, że nie rozmawiam z prawdziwym człowiekiem, ale czuję się, jakbym rozmawiał – i to bez towarzyszącego temu zwykle ryzyka”.
czytaj także
W każdym razie bliższa lektura listu dotyczącego AI wykazuje, że jest on kolejną próbą zakazania niemożliwego. To stary paradoks: jako ludzie nie możemy uczestniczyć w postludzkiej przyszłości, więc musimy zakazać rozwoju, który do niej prowadzi. Aby jakoś ustosunkować się do tych nowych technologii, trzeba zadać sobie stare pytanie Lenina: wolność czego i dla kogo? W jakim sensie byliśmy przedtem wolni? Czy już nie kontrolowano nas znacznie surowiej, niż sobie z tego zdawaliśmy sprawę? Zamiast narzekać na zagrożenia czyhające na naszą wolność i godność w przyszłości, może powinniśmy najpierw rozważyć, co ta wolność oznacza dziś. Zanim się nad tym zastanowimy, będziemy przypominać histeryków, którzy – jak pisał francuski psychoanalityk Jacques Lacan – rozpaczliwie potrzebują mieć pana, ale tylko takiego, którego mogą zdominować.
W książce The Age of Spiritual Machines futurolog Ray Kurzweil przewidywał, że ze względu na wykładnicze tempo postępu technicznego wkrótce będziemy mieć do czynienia z „uduchowionymi” maszynami, nie tylko przejawiającymi oznaki samoświadomości, lecz także dalece przewyższającymi ludzki intelekt. Tej posthumanistycznej postawy nie powinno się jednak mylić z paradygmatycznie przynależną nowoczesności totalną dominacją technologii nad przyrodą. Przeciwnie: obserwujemy obecnie dialektyczną odwrotność takiego procesu.
W dzisiejszych naukach posthumanistycznych nie chodzi o dominację. Ich credo to niespodzianka. Jakie ewentualne, nieplanowane, nowo powstałe umiejętności mogą w sobie wykształcić modele AI działające na zasadzie czarnej skrzynki? Tego nikt nie wie i stąd bierze się dreszczyk – albo, zaiste, banalność – całego przedsięwzięcia.
ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje
czytaj także
Dlatego też na początku XXI stulecia francuski filozof i inżynier Jean-Pierre Dupuy dostrzegł w nowej robotyce, genetyce, nanotechnologii, sztucznym życiu i AI dziwne odwrócenie tradycyjnej, antropocentrycznej arogancji, do której prowadziła technologia:
„Jak wyjaśnić to, że nauka stała się tak »ryzykowną« działalnością, iż według niektórych najbardziej znamienitych naukowców to ona stanowi dziś główne zagrożenie dla przetrwania ludzkości? Niektórzy filozofowie odpowiadają, że marzenie Kartezjusza o zostaniu »panem i władcą przyrody« przybrało zły obrót i że powinniśmy czym prędzej powrócić do »opanowania panowania«. Niczego nie rozumieją. Nie widzą, że majacząca na horyzoncie technologia poprzez »konwergencję« wszystkich dyscyplin zmierza właśnie ku brakowi panowania. Inżynier jutra zostanie uczniem czarnoksiężnika nie z zaniedbania czy ignorancji, ale z wyboru”.
Ludzkość właśnie tworzy sobie boga albo diabła. Choć skutku nie da się przewidzieć, jedno jest pewne. Jeśli coś takiego jak rzeczywistość postludzka stanie się powszechnym faktem, nasz światopogląd utraci wszystkie trzy określające go, zazębiające się podmioty: ludzkość, naturę i boskość. Nasza tożsamość jako ludzi może istnieć tylko na tle nieprzeniknionej natury. Jednak jeśli pojawi się możliwość pełnej manipulacji życia poprzez technologię, straci ono swój „naturalny” charakter. Całkowicie kontrolowana egzystencja pozbawiona jest znaczenia, nie mówiąc już o przypadkowości i zdumieniu.
Morozov: Socjalizm cyfrowy, czyli nowa socjaldemokracja na XXI wiek
czytaj także
To samo dotyczy jakiegokolwiek poczucia boskości. Ludzkie doświadczenie „boga” ma sens tylko z punktu widzenia ludzkiej skończoności i śmiertelności. Gdy człowiek stanie się homo deus i nauczy się tworzyć właściwości „nadprzyrodzone” z naszego dawnego, ludzkiego punktu widzenia, znikną bogowie, jakich znamy. Pytanie brzmi, co – o ile cokolwiek – nam pozostanie. Czy będziemy czcić stworzone przez nas AI?
Mamy wszelkie powody do obaw, że techno-gnostyczne wizje postludzkiego świata są ideologicznymi fantazjami, przysłaniającymi otchłań, która na nas naprawdę czeka. Nie trzeba dodawać, że do zagwarantowania ludziom, iż w tym nowym świecie nie staną się przeżytkiem, a ich życie nie utraci znaczenia, nie wystarczy sześciomiesięczna przerwa.
**
Copyright: Project Syndicate, 2023. www.project-syndicate.org. Z angielskiego przełożyła Aleksandra Paszkowska.
Cytat z Homo deus Juwala Harariego w przekładzie Michała Romanka, Wydawnictwo Literackie, Warszawa 2015.