Główny problem ze sztuczną inteligencją nie polega na tym, że tekst wygenerowany przez chatbota możemy wziąć za słowa żywego człowieka. Gorzej będzie, gdy ludzie zaczną mówić jak chatboty.
Miliony ludzi używają już „chatbotów”, programów komputerowych zdolnych do prowadzenia z użytkownikiem rozmowy w języku naturalnym i odpowiadających zgodnie z wcześniej ustalonymi zasadami, na podstawie danych, jak gdyby rozumiały intencje rozmówcy. Niedawno jednak ich zdolności radykalnie się rozszerzyły, zatem trudno się dziwić, że uczelnie wyższe i szkoły średnie wpadły w popłoch, a niektóre zdecydowały się przeprowadzać odtąd wyłącznie egzaminy ustne.
Wśród nastręczających się problemów jeden zasługuje na szczególną uwagę – jak powinien zareagować chatbot, gdy ludzki rozmówca mówi coś agresywnie seksistowskiego czy rasistowskiego, opowiada o niepokojących fantazjach seksualnych czy używa języka powszechnie uznawanego za obraźliwy? Co zrobić, gdy w takiej sytuacji chatbot odpowie w tym samym tonie, bo zaprogramowano go tak, by dopasowywał się do stylu zadawanych mu pytań?
Wszystko, co chcielibyście wiedzieć o sztucznej inteligencji, ale baliście się zapytać
czytaj także
Odpowiedź, która nasuwa się automatycznie, to wprowadzenie uregulowań, które ustanowią wyraźne granice, czyli cenzury. Któż jednak ma decydować, jak daleko taka cenzura może być posunięta? Czy poglądy polityczne, które niektórzy uznają za „obraźliwe”, także powinny zostać zakazane? Czy solidarność z Palestyńczykami z Zachodniego Brzegu Jordanu lub twierdzenie, że w państwie Izrael panuje apartheid (jak to ujął Jimmy Carter w tytule swojej książki), mogą być blokowane jako „antysemickie”?
Problem jednak leży głębiej, a zwięźle przedstawił go w „Guardianie” James Bridle: „Sztuczna inteligencja w swojej obecnej postaci opiera się na całościowym przywłaszczeniu istniejącej kultury, przekonanie zaś, że w istocie odznacza się ona inteligencją, może rodzić czynne niebezpieczeństwo”. Nie należy nie doceniać zdolności algorytmów SI generujących obrazy:
„Podejmując próbę zrozumienia i odtworzenia całości ludzkiej kultury wizualnej, wydają się [one] odtwarzać także nasze najmroczniejsze lęki. Być może jest to tylko oznaką tego, że systemy te rzeczywiście świetnie małpują ludzką świadomość, włącznie ze zgrozą, która czai się w głębinach egzystencji: naszym lękiem przed brudem, śmiercią i zepsuciem. […] Brud i odraza wobec życia oraz umierania w nas pozostaną, trzeba sobie z nimi radzić, podobnie jak z nadzieją, miłością, radością i odkryciami”.
Problem stanowi jednak nie tylko to, jak trzymać w ryzach nasze brudy i odrazę, co ilustruje następujący przykład: co się stanie, gdy zamiast standardowej formuły „Kup jedno, a drugie dostaniesz za darmo!” przeczytamy: „Kup jedno piwo za cenę dwóch, a drugie piwo dostaniesz całkiem za darmo”? Bar, w którym taką zachętę rzeczywiście umieszczono na tablicy przed wejściem, zyskał wielu nowych klientów – przeformułowane stwierdzenie zerowało komunikat, a cynizm jego przesłania uznano za wyraz komicznej szczerości.
A jak zareagowałby na nie chatbot? Czy uznałby je za ewidentną głupotę („już zapłaciliśmy za dwa, zatem drugie piwo nie jest za darmo!”), czy zrozumiałby ironię, a nawet pokrętną strategię, która za nią stoi (jak zastosowanie ironii może podbić sprzedaż)?
Wróćmy jeszcze do wulgaryzmów – słowo na „p” w powszednim języku opiera się na dziwnym kontraście, bo choć oznacza coś, co większość ludzi lubi robić („P… się całą noc, nigdy nie było nam tak dobrze!”), staje się wyrazem jawnej agresji, gdy użyć go w wyrażeniu „Weź się p…!” i jego licznych odmianach. Czy sztuczna inteligencja jest w stanie rozróżnić te przypadki?
czytaj także
Na szali leży tutaj cecha polegająca na nierozerwalnym połączeniu porażki i sukcesu: prawdziwe retoryczne zwycięstwo wyłania się z reinterpretacji porażki jako sukcesu. W eseju o stopniowym formowaniu się myśli w toku mówienia (napisanym w 1805 roku, a opublikowanym po raz pierwszy w 1878), Heinrich von Kleist postawił niejako na głowie mądrość ludową, według której najpierw trzeba myśleć, a potem mówić. Stwierdził, że to, iż dana idea wyrażana jest niejasno, wcale nie świadczy o tym, że równie mętna musi być stojąca za nią myśl. Jego zdaniem jest wręcz przeciwnie: całkiem możliwe, że idee wyrażane w sposób najbardziej niejasny są tymi, które zostały pomyślane w sposób najbardziej przejrzysty.
W jednym z przemówień z początku lat 30. XX wieku Stalin zasugerował podjęcie radykalnych działań przeciwko ludziom, którzy choćby po kryjomu sprzeciwiali się kolektywizacji rolnictwa. Twierdził, że należy wykryć i bezlitośnie zwalczać nawet tych, którzy sprzeciwiają mu się tylko w myślach – i więcej: że należy zwalczać także same myśli. Można spokojnie założyć, że ten akurat fragment przemówienia nie był wcześniej przygotowany: Stalin dał się złapać w sidła własnego retorycznego zapału walki z wrogami kolektywizacji, w wyniku czego spontanicznie dodał, iż nawet prywatne myśli należy kontrolować i zwalczać – po czym zorientował się, co właśnie powiedział, ale zamiast przyznać, że go poniosło, postanowił heroicznie trwać przy tej hiperboli.
Właśnie w ten sposób, jak ujął to Jacques Lacan, prawda jest wynikiem zaskoczenia wywołanego jej wypowiedzeniem, bądź (w ujęciu Louisa Althussera) tak właśnie treściowy „skok” jest w stanie „zaskoczyć” tego, kto go dokonał. Tylko czy taki skok może wykonać chatbot?
czytaj także
W pewnym sensie w całej swojej głupocie chatbot nie jest wystarczająco głupi, by to potrafił. Jak zauważyło wielu przenikliwych obserwatorów, prawdziwe niebezpieczeństwo nie polega na tym, że my („prawdziwi” ludzie) mylnie weźmiemy słowa chatbota za wypowiedź „prawdziwej” osoby. Znacznie istotniejsze jest inne ryzyko: komunikowanie się z chatbotami może sprawić, że „prawdziwi” ludzie będą mówić jak chatboty bez niuansów i ironii, obsesyjnie dążąc do fałszywie precyzyjnego ujęcia w słowa tego, co naprawdę chcą powiedzieć.
Można to przedstawić nieco inaczej – chatboty są naiwne (nie chwytają ironii i nie są zdolne do autorefleksji), ale nie są wystarczająco naiwne: nie pojmują naiwności wyższego rzędu, bardziej złożonej. Pamiętam, jak w latach studenckich mojemu (ówczesnemu) koledze zdarzyło się coś przedziwnego. Po traumatycznym przeżyciu poszedł do znakomitego słoweńskiego psychoanalityka, a jako że miał dość banalne pojęcie o tym, czego w analizie oczekuje się od pacjenta, podczas pierwszej sesji zasunął mu zestaw fałszywych „swobodnych skojarzeń” – jak to nienawidzi swojego ojca, a nawet życzy mu śmierci.
Reakcja psychoanalityka była bardzo pomysłowa i stanowiła absolutnie autentyczną interwencję: analityk zajął naiwne „przedfreudowskie” stanowisko i zrugał mojego kolegę za nieokazywanie ojcu należytego szacunku („Jak może pan tak mówić o kimś, kto z miłością troszczył się o pana i uczynił pana tym, kim teraz jest?”). Komunikat, jaki niosła owa naiwność, był jasny: nie kupuję pańskich „skojarzeń”, pan blefuje, to fałszywki, które mają mnie zwieść i zbić z tropu… A czy chatbot byłby w stanie właściwie odczytać taką reakcję?
ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje
czytaj także
W swojej wybitnej książce o Dostojewskim Rowan Williams zaproponował radykalnie nowy (według mojej wiedzy) sposób odczytania Idioty. W powszechnej interpretacji tytułowego „idiotę” – bohatera powieści, księcia Myszkina – postrzega się jako osobę obdarzoną dobrocią na miarę świętego, człowieka zgoła prawego i pięknego, jak scharakteryzował go sam Dostojewski; osobę, dla której prawdziwy świat rządzony namiętnościami i brutalną walką o wpływy jest tak surowy, że w końcu zmusza go do ucieczki w szaleństwo. Williams odczytuje postać Myszkina inaczej – jako oko cyklonu: człowieka, owszem, o cechach świętego, ale i kogoś, kto właśnie z tej racji sieje wokół siebie zamęt i śmierć. To przez Myszkina i rolę, jaką ten odgrywa w złożonej sieci otaczających go relacji, Rogożyn, antagonista Myszkina, morduje Nastazję Filipownę, obiekt miłości ich obu.
Nie chodzi zatem tylko o to, że Myszkin jest idiotą, naiwnym półgłówkiem w oczach tych, którzy go otaczają, będąc zarazem wzorem dobroci. Myszkin jest w samej rzeczy naiwnym idiotą, niezdolnym zdać sobie sprawy z własnego niszczycielskiego wpływu na innych. Jest osobą jednowymiarową, która dosłownie mówi jak chatbot. Jego „dobroć” wynika z faktu, że do wyzwań podchodzi bez ironii, posługując się jedynie frazesami, którym umykają wszelkie przejawy ironii czy refleksyjności i które równie dobrze mogłaby wygenerować sztuczna inteligencja.
ChatGPT o rzezi Woli: masakra czarnoskórych żołnierzy radzieckich dokonana przez powstańców
czytaj także
Z tego względu nowe chatboty dogadają się znakomicie ze współczesnymi ideologami wszelkiej maści – od tych spod znaku „woke” po nacjonalistów w czapeczkach MAGA – którzy wolą nie budzić się ze snu.
**
Z angielskiego przełożyła Katarzyna Byłów.