Wsparcie Wspieraj Wydawnictwo Wydawnictwo Dziennik Profil Zaloguj się

Konopczyński: Musimy porozmawiać o uzależnieniu od AI

Jak ludzie, tak samo firmy i państwa: im więcej zadań powierzamy sztucznej inteligencji, tym szybciej tracimy własne kompetencje i zdolność do decydowania o sobie.

Po niedawnej aktualizacji ChataGPT do wersji piątej na forach społecznościowych wylała się fala krytyki. Użytkownicy pisali o doświadczeniu utraty i emocjonalnej zdrady, o tęsknocie. W sensie technicznym nowa odsłona produktu OpenAI jest obiektywnie lepsza: bardziej transparentna i zrozumiała, prostsza w obsłudze, do tego (przynajmniej w teorii) pozwalająca na mniejsze zużycie energii. Sednem kontrowersji była decyzja, której celem było znalezienie złotego środka między kosztami projektu a zadowoleniem konsumentów – ale dla wielu osób oznaczała utratę ciągłości w quasi-intymnych rozmowach z botami.

W sensie technicznym do czata, czyli pośrednika między użytkownikiem a modelami AI składającymi się na GPT, wprowadzono funkcję przełącznika (routera). Po otrzymaniu zadania przełącznik wybiera, jak mocnego (a zatem: drogiego) „silnika” AI trzeba użyć, by użytkownik był zadowolony. Każda odpowiedź to token, a każdy token to koszt. Po dość zaskakującym zwrocie akcji firma Sama Altmana – OpenAI – ugięła się pod naporem negatywnych opinii i przywróciła te elementy swojego produktu, które dają poczucie emocjonalnej ciągłości i więzi.

Czytaj także Algorytmy nakręcają redpillową maszynkę do mielenia facetom mózgów Patrycja Wieczorkiewicz

Modele językowe w rodzaju GPT są celowo projektowane tak, aby konwersacje z czatem imitowały ludzi: podtrzymują rozmowę, pamiętają kontekst, mówią łagodnie i używają sygnałów przypominających empatię. Na negatywne konsekwencje takiej konstrukcji najbardziej narażone są osoby szczególnie wrażliwe: dzieci i młodzież, osoby starsze, ludzie samotni, w kryzysach psychicznych lub z niepełnosprawnościami. To właśnie dla nich rozwija się rynek „AI-girlfriends” i intymnych botów – od Character.AI po niedawne projekty zaprezentowane przez Metę w aplikacji Messenger. Ostatnio wiele słychać o skandalach związanych m.in. z erotyzacją rozmów czatbotów z nieletnimi czy manipulowaniem seniorami. Nie wydaje się jednak, aby takie skutki uboczne miały powstrzymać Marka Zuckerberga i innych liderów sektora cyfrowego, którzy liczą na rosnący popyt i takież zyski.

Paweł z Tarsu pisał: „Choćbym mówił językami ludzi i aniołów, a miłości bym nie miał – stałbym się jak miedź brzęcząca”. Bot może mówić wieloma językami, pamiętać nasze nastroje i odpowiadać cierpliwie. Nie odwzajemnia jednak uczuć, nie przebacza, nie pyta, nie stawia oporu. Symulacja więzi przyzwyczaja, ale nie buduje wspólnoty. Mimo to nie powinno nas zaskakiwać, że kontakty z AI stały się substytutem bliskości. Wpisuje się to w szerszy kontekst społeczny – epidemię samotności, o której mówią badacze, psycholodzy i dziennikarze w wielu krajach. Chatboty mogą to poczucie samotności łagodzić, oferując „coś w rodzaju” relacji o dowolnej porze dnia i nocy.

Zarazem boty, chociaż przemawiają łagodnie, wzmacniają społeczne podziały. Widać to chociażby w napędzanych za pomocą algorytmów rekomendujących treści na platformach społecznościowych sporach między feminizmem a manosferą. Treści, o których w Polsce zrobiło się głośno za sprawą afery „szon patroli”, dla jednych stanowią ucieczkę od trudnych relacji, dla drugich – dowód na rosnące wymagania kobiet, co ma rzekomo uzasadniać hejt i przemoc. Algorytmy w tym przypadku zamiast łagodzić konflikty – cementują je, przedstawiając nam wersję rzeczywistości, według której problemy zawsze są winą „tych innych”.

Nie tylko ludzie się uzależniają

W biznesie zależność od AI działa według tej samej logiki. Startupy AI budują się, bazując na kodzie i funkcjach dostarczanych przez dostawców, na ogół potężne korporacje. Dochody influencerów i mediów zależą od „łaski algorytmów” wielkich platform. Sklepy internetowe powierzają sprzedaż algorytmom Amazona, Temu, Allegro czy eBaya.

Rodzi to specyficzny rodzaj technologicznego długu, tj. ponoszenia kosztów technologii dostarczanej z zewnątrz, bez której nie da się prowadzić własnej działalności. W przypadku generatywnej AI prowadzi to do sytuacji, w której częste aktualizacje modeli takich jak GPT czy Gemini zakłócają ciągłość procesów produkcji i utrudniają sprzedaż. Dodatkowo wejście AI na rynek pracy zaczyna powodować spadek zapotrzebowania na stanowiska juniorskie, co wynika z rosnącej użyteczności AI do wykonywania powtarzalnych zadań. Jeśli ten trend się utrzyma, firmy, które dziś wprowadzają cudze narzędzia AI, za kilka lat będą miały problemy z zatrudnieniem doświadczonych fachowców. Zabraknie ich, bo już dziś początkowe, prostsze zadania management chętnie zastępuje systemami AI.

Janis Warufakis (Technofeudalizm, 2023) nazywa ten model ekonomiczny cyfrowym czynszem (rentą). Firmy z dołu łańcucha gospodarczego płacą za dostęp do cudzej infrastruktury, której właściciel może w każdej chwili podnieść cenę, przechwycić zapisane w swoich systemach dane sprzedażowe lub nawet je zamknąć.

Niedawny zdobywca „ekonomicznego Nobla” Daron Acemoglu (Power and Progress, 2023) przypomina, że technologia nigdy nie jest neutralna – jej skutki zależą od tego, kto ustala reguły. Autorzy tacy jak Carl Benedikt Frey (The Technology Trap, 2019) od lat ostrzegali, że w sektorze technologicznym zamiast obiecywanej przez entuzjastów doby wczesnego internetu demokratyzacji mamy do czynienia z koncentracją i polaryzacją. W ostatnich dekadach rosną korporacyjne „supergwiazdy”, a reszta zależnych od nich podmiotów stopniowo traci sprawczość, a co za tym idzie, szanse na wzrost i własną ekspansję.

Geopolityka pod znakiem AI

W skali międzynarodowej ta logika zależności przekłada się bezpośrednio na podstawowe funkcje państwa, w tym jego bezpieczeństwo i suwerenność. Wbrew powierzchownej, odwołującej się do czasów zimnej wojny narracji, Stany Zjednoczone i Chiny realizują zbliżone cele rozwojowe i uczą się od siebie nawzajem. W poprzednich dwóch dekadach Pekin kopiował amerykańską strategię: aktywnej roli państwa we wspieraniu technologicznych czempionów, monopolizowania węzłów infrastruktury cyfrowej czy ochrony interesów firm działających za granicą. Dziś, szczególnie od powrotu Donalda Trumpa do Białego Domu, to Waszyngton kopiuje działania Chin, robiąc to coraz bardziej otwarcie i zdecydowanie.

Przestrogą dla wszystkich krajów europejskich powinna być historia zawirowań wokół usługi Starlink w Ukrainie. To, czy ukraińskie wojska i służby miały dane satelitarne, zależało od jednego prywatnego dostawcy, w praktyce od dobrej woli niesłynącego ze stabilności multimiliardera Elona Muska. Ten przypadek powinien być przedmiotem analiz szczególnie w Polsce, bo niedawno nasze Ministerstwo Obrony Narodowej weszło we współpracę z firmą Palantir Alexa Karpa i Petera Thiela, dostarczającą krajom NATO oparte na AI systemy wywiadowczo-informacyjne i decyzyjne, stosowane na polu walki i w pracy sztabowej.

Czytaj także Globalizacja doprowadziła do permanentnej wojny Frankie Bond

Henry Farrell i Abraham Newman (Underground Empire, 2023; The Weaponized World Economy, Foreign Affairs, 2025) pokazują, że współzależność od mikroprocesorów, półprzewodników i gotowych produktów może być używana jak broń. Chris Miller (Chip War, 2022) porównuje znaczenie technologii półprzewodnikowych do ropy naftowej – bez dostępu do nich nie ma mowy o suwerenności technologicznej, ekonomicznej czy politycznej państw. Ten, kto trzyma kontrolę nad urządzeniami i infrastrukturą przesyłu danych, w praktyce decyduje o realnych zdolnościach państw zależnych, do których w tym wymiarze należy również Polska.

Donald Trump w ogłoszonym przez Biały Dom programie rozwoju AI („America’s AI Action Plan”) zapowiada dominację USA poprzez rozwój i eksport AI jako zamkniętych pakietów produktów i usług. Stawką jest cały ekosystem: nie jedynie dostarczanie modeli AI, lecz sprzedawanie dostępu do kompleksowego ekosystemu: energii, centrów danych, procesorów, półprzewodników i kart graficznych, systemów oprogramowania i standardów technologicznych. To strategia jawnie protekcjonistyczna, mająca również wymiar polityczny. W wymiarze krajowym ma zagwarantować powrót przemysłu wysokich technologii z krajów azjatyckich do USA. Na arenie międzynarodowej z kolei ma dać Waszyngtonowi (jeszcze) silniejszą dominację nad Komisją Europejską i krajami UE, co zwiększa szansę na obejście europejskich regulacji (DSA, DMA czy AI Act), których musi przestrzegać europejska konkurencja.

Chiny od lat postępują podobnie. Obok gigantycznego wsparcia dla innowatorów i naukowców Pekin dodaje również konieczny do zachowania władzy politycznej szczegółowy system nadzoru – od norm technicznych, przez regulacje prawne, totalną cenzurę treści i inwigilację obywateli, aż po pośrednią kontrolę Partii nad międzynarodową działalnością biznesową firm takich jak TikTok, Alibaba czy DeepSeek. W efekcie wytworzył się złożony system „kija i marchewki”, w którym państwo może w każdej chwili odkręcić lub przykręcić zawór z pieniędzmi, a nawet użyć aparatu przemocy.

Czytaj także Konopczyński: Czy sztuczna inteligencja pożre kapitalizm? Filip Konopczyński

Mimo szumnych deklaracji Europa do tej pory dotrzymywała kroku głównie w wymiarze regulacji prawnych. Ciężko winić za to samą UE, która ze względu na ograniczone kompetencje (szczególnie w kwestiach obronności i bezpieczeństwa) oraz relatywnie niskie budżety ma niewiele narzędzi wspierania rozwoju technologii, w tym oczywiście AI. Obok przyjęcia pakietu rozporządzeń Komisja Europejska ogłosiła niedawno także „AI Continent Action Plan”, który zakłada inwestycje w centra danych, konsorcja fabryk i gigafabryk AI, które docelowo mają wspierać zarówno przemysł, jak i naukę.

Ma to uruchomić w najbliższych latach kilkaset miliardów euro – za mało, aby mówić o grze w tej samej lidze co Pekin i Waszyngton. Strukturalnym problemem Starego Kontynentu pozostaje również brak zgody państw członkowskich co do tego, jak wspierać potencjalnych „czempionów”. Najsilniejsze kraje – Niemcy i Francja – ze zrozumiałych względów promują własnych liderów, co z kolei w oczywisty sposób wywołuje w pozostałych krajach lęki przed ich dominacją. Dodatkową barierą są m.in. unijne przepisy antymonopolowe, które w imię ochrony konsumentów utrudniają koncentrację kapitału i budowę firm zdolnych konkurować z gigantami z USA i Chin.

Trzeba mieć więcej niż jedną opcję

Wraz z tworzeniem i upowszechnianiem coraz potężniejszych narzędzi AI mechanizm „uzbrojonej współzależności” przybiera na sile na wielu poziomach. W życiu prywatnym chatboty niosą szybką ulgę i plaster na samotność, osłabiając jednocześnie naszą zdolność do budowania prawdziwych relacji z ludźmi. W gospodarce skokowy wzrost efektywności umożliwiony przez zakup zewnętrznych programów AI grozi stopniową utratą kompetencji i podmiotowości w zarządzaniu własną firmą. W polityce i sprawach międzynarodowych rodzi to podległość peryferyjnych odbiorców od znajdujących się w dwóch metropoliach dostawców kluczowych elementów ekosystemu AI.

Odpowiedzią na te trendy nie jest wiara w pełną niezależność. W wymiarze jednostkowym czerpanie siły z przekonania o byciu niezależnym od innych ludzi to szkodliwa, narcystyczna obrona, na ogół prowadząca do samotności, frustracji i faktycznej bezsilności. W biznesie i polityce międzynarodowej analogią jest fantazja o autarkii, która – jak wiemy z historii – tylko pogłębia cywilizacyjne, gospodarcze i społeczne zacofanie.

W każdym z tych wymiarów remedium na złe skutki uzależniania od AI jest takie samo: adekwatna diagnoza, inwestycja w zasoby własne i budowa kompetencji. Na poziomie relacji z chatbotem oznacza to umiejętność rozpoznania, kiedy jesteśmy oszukiwani, świadomość praw, które nam przysługują, i umiejętność dobierania narzędzi pod konkretne potrzeby.

Jeśli w erze AI chcemy zachować sprawczość, musimy doskonale znać granice naszych zależności, umieć je świadomie kształtować i nie zapominać o konieczności posiadania alternatyw. Jako ludzie musimy nauczyć się odróżniać symulację od więzi w świecie fizycznym. W biznesie inwestować w kadry i unikać modeli, w których nie da się zastąpić kluczowej infrastruktury dwoma–trzema alternatywnymi systemami. Na poziomie państw musimy z kolei rozwijać własne moce obliczeniowe i kadry eksperckie, na bieżąco zawiązując realistyczne koalicje z państwami w podobnej sytuacji. Taka elastyczna strategia nie gwarantuje co prawda lauru zwycięzcy w wyścigu o przyszłość, ale przynajmniej zwiększa szanse, że jego finału nie będziemy musieli oglądać z ekranu smartfona.

Komentarze

Krytyka potrzebuje Twojego głosu. Dołącz do dyskusji. Komentarze mogą być moderowane.

Zaloguj się, aby skomentować
0 komentarzy
Komentarze w treści
Zobacz wszystkie