Wsparcie Wspieraj Wydawnictwo Wydawnictwo Dziennik Profil Zaloguj się

Musimy porozmawiać o uzależnieniu od AI

Im więcej zadań powierzamy sztucznej inteligencji, tym szybciej tracimy własne kompetencje i zdolność do decydowania o sobie.

Kontekst

🤖 Po sierpniowej aktualizacji ChatGPT do wersji piątej użytkownicy mówili o „utratcie więzi” z botem i emocjonalnej zdradzie. OpenAI przywróciło więc elementy dające poczucie ciągłości rozmów – kosztem większego zużycia mocy obliczeniowej.

💋 W październiku firma Sama Altmana „rozluźniła” zasady dotyczące treści erotycznych, otwierając drogę do tworzenia intymnych czatbotów. Dolina Krzemowa stawia dziś nie na automatyzację pracy, lecz imitację ludzkich relacji.

2

5

Po sierpniowej aktualizacji ChataGPT do wersji piątej na forach społecznościowych wylała się fala krytyki. Użytkownicy pisali o doświadczeniu utraty i emocjonalnej zdrady, o tęsknocie. W sensie technicznym nowa odsłona produktu OpenAI jest obiektywnie lepsza: bardziej transparentna i zrozumiała, prostsza w obsłudze, do tego (przynajmniej w teorii) pozwalająca na mniejsze zużycie energii. Sednem kontrowersji była decyzja, której celem było znalezienie złotego środka między kosztami projektu a zadowoleniem konsumentów – ale dla wielu osób oznaczała utratę ciągłości w quasi-intymnych rozmowach z botami.

W sensie technicznym do czata, czyli pośrednika między użytkownikiem a modelami AI składającymi się na GPT, wprowadzono funkcję przełącznika (routera). Po otrzymaniu zadania przełącznik wybiera, jak mocnego (a zatem: drogiego) „silnika” AI trzeba użyć, by użytkownik był zadowolony. Każda odpowiedź to token, a każdy token to koszt. Po dość zaskakującym zwrocie akcji firma Sama Altmana – OpenAI – ugięła się pod naporem negatywnych opinii i przywróciła te elementy swojego produktu, które dają poczucie emocjonalnej ciągłości i więzi.

Czytaj także Algorytmy nakręcają redpillową maszynkę do mielenia facetom mózgów Patrycja Wieczorkiewicz

Modele językowe w rodzaju GPT są celowo projektowane tak, aby konwersacje z czatem imitowały ludzi: podtrzymują rozmowę, pamiętają kontekst, mówią łagodnie i używają sygnałów przypominających empatię. Na negatywne konsekwencje takiej konstrukcji najbardziej narażone są osoby szczególnie wrażliwe: dzieci i młodzież, osoby starsze, ludzie samotni, w kryzysach psychicznych lub z niepełnosprawnościami. To właśnie dla nich rozwija się rynek „AI-girlfriends” i intymnych botów – od Character.AI po niedawne projekty zaprezentowane przez Metę w aplikacji Messenger. Ostatnio wiele słychać o skandalach związanych m.in. z erotyzacją rozmów czatbotów z nieletnimi czy manipulowaniem seniorami. Nawet tak poważne skutki uboczne nie powstrzymają Marka Zuckerberga i innych liderów sektora cyfrowego, którzy liczą na rosnący popyt na substytuty relacji międzyludzkich.

W październiku Sam Altman zdecydował, że do firm budujących erotyczne (lub pornograficzne) czatboty dołączy także OpenAI. Będzie to możliwe dzięki „rozluźnieniu” ograniczeń dotyczących generowania nie tylko konwersacji, ale przede wszystkim obrazów, wideo i dźwięków. Złośliwi powiedzieliby, że zamiast wielokrotnie zapowiadanej „superinteligencji” dostaniemy… spersonalizowane porno. Sprawa jest jednak poważniejsza. Okazuje się bowiem, że po latach próby budowania modelu biznesowego opartego na automatyzacji pracy ludzi, Dolina Krzemowa największy potencjał komercyjny widzi nie w rozwiązaniach biznesowych, ale imitowaniu relacji – w tym tych najbardziej intymnych.

Paweł z Tarsu pisał: „Choćbym mówił językami ludzi i aniołów, a miłości bym nie miał – stałbym się jak miedź brzęcząca”. Bot może mówić wieloma językami, pamiętać nasze nastroje i odpowiadać cierpliwie. Nie odwzajemnia jednak uczuć, nie przebacza, nie pyta, nie stawia oporu. Symulacja więzi przyzwyczaja, ale nie buduje wspólnoty. Mimo to nie powinno nas zaskakiwać, że kontakty z AI stały się substytutem bliskości. Wpisuje się to w szerszy kontekst społeczny – epidemię samotności, o której mówią badacze, psycholodzy i dziennikarze w wielu krajach. Chatboty mogą to poczucie samotności łagodzić, oferując „coś w rodzaju” autentycznej relacji o dowolnej porze dnia i nocy.

Zarazem boty, chociaż przemawiają łagodnie, wzmacniają społeczne podziały. Widać to chociażby w napędzanych za pomocą algorytmów rekomendujących treści na platformach społecznościowych sporach między feminizmem a manosferą. Treści, o których w Polsce zrobiło się głośno za sprawą afery „szon patroli”, dla jednych stanowią ucieczkę od trudnych relacji, dla drugich – dowód na rosnące wymagania kobiet, co ma rzekomo uzasadniać hejt i przemoc. Algorytmy w tym przypadku, zamiast łagodzić konflikty – cementują je, przedstawiając nam wersję rzeczywistości, według której problemy zawsze są winą „tych innych”.

Nie tylko ludzie się uzależniają

W biznesie zależność od AI działa według tej samej logiki. Startupy AI budują się, bazując na kodzie i funkcjach dostarczanych przez dostawców, na ogół potężne korporacje. Dochody influencerów i mediów zależą od „łaski algorytmów” wielkich platform. Sklepy internetowe powierzają sprzedaż algorytmom Amazona, Temu, Allegro czy eBaya.

Rodzi to specyficzny rodzaj technologicznego długu, tj. ponoszenia kosztów technologii dostarczanej z zewnątrz, bez której nie da się prowadzić własnej działalności. W przypadku generatywnej AI prowadzi to do sytuacji, w której częste aktualizacje modeli takich jak GPT czy Gemini zakłócają ciągłość procesów produkcji i utrudniają sprzedaż. Dodatkowo wejście AI na rynek pracy zaczyna powodować spadek zapotrzebowania na stanowiska juniorskie, co wynika z rosnącej użyteczności AI do wykonywania powtarzalnych zadań. Jeśli ten trend się utrzyma, firmy, które dziś wprowadzają cudze narzędzia AI, za kilka lat będą miały problemy z zatrudnieniem doświadczonych fachowców. Zabraknie ich, bo już dziś początkowe, prostsze zadania management chętnie zastępuje systemami AI.

Janis Warufakis (Technofeudalizm, 2023) nazywa ten model ekonomiczny cyfrowym czynszem (rentą). Firmy z dołu łańcucha gospodarczego płacą za dostęp do cudzej infrastruktury, której właściciel może w każdej chwili podnieść cenę, przechwycić zapisane w swoich systemach dane sprzedażowe lub nawet je zamknąć.

Niedawny zdobywca „ekonomicznego Nobla” Daron Acemoglu (Power and Progress, 2023) przypomina, że technologia nigdy nie jest neutralna – jej skutki zależą od tego, kto ustala reguły. Autorzy tacy jak Carl Benedikt Frey (The Technology Trap, 2019) od lat ostrzegali, że w sektorze technologicznym zamiast obiecywanej przez entuzjastów doby wczesnego internetu demokratyzacji mamy do czynienia z koncentracją i polaryzacją. W ostatnich dekadach rosną korporacyjne „supergwiazdy”, a reszta zależnych od nich podmiotów stopniowo traci sprawczość, a co za tym idzie, szanse na wzrost i własną ekspansję.

Geopolityka pod znakiem AI

W skali międzynarodowej ta logika zależności przekłada się bezpośrednio na podstawowe funkcje państwa, w tym jego bezpieczeństwo i suwerenność. Wbrew powierzchownej, odwołującej się do czasów zimnej wojny narracji, Stany Zjednoczone i Chiny realizują zbliżone cele rozwojowe i uczą się od siebie nawzajem. W poprzednich dwóch dekadach Pekin kopiował amerykańską strategię: aktywnej roli państwa we wspieraniu technologicznych czempionów, monopolizowania węzłów infrastruktury cyfrowej czy ochrony interesów firm działających za granicą. Dziś, szczególnie od powrotu Donalda Trumpa do Białego Domu, to Waszyngton kopiuje działania Chin, robiąc to coraz bardziej otwarcie i zdecydowanie.

Przestrogą dla wszystkich krajów europejskich powinna być historia zawirowań wokół usługi Starlink w Ukrainie. To, czy ukraińskie wojska i służby miały dane satelitarne, zależało od jednego prywatnego dostawcy, w praktyce od dobrej woli niesłynącego ze stabilności multimiliardera Elona Muska. Ten przypadek powinien być przedmiotem analiz szczególnie w Polsce, bo niedawno nasze Ministerstwo Obrony Narodowej weszło we współpracę z firmą Palantir Alexa Karpa i Petera Thiela, dostarczającą krajom NATO oparte na AI systemy wywiadowczo-informacyjne i decyzyjne, stosowane na polu walki i w pracy sztabowej.

Czytaj także Globalizacja doprowadziła do permanentnej wojny Frankie Bond

Henry Farrell i Abraham Newman (Underground Empire, 2023; The Weaponized World Economy, Foreign Affairs, 2025) pokazują, że współzależność od mikroprocesorów, półprzewodników i gotowych produktów może być używana jak broń. Chris Miller (Chip War, 2022) porównuje znaczenie technologii półprzewodnikowych do ropy naftowej – bez dostępu do nich nie ma mowy o suwerenności technologicznej, ekonomicznej czy politycznej państw. Ten, kto trzyma kontrolę nad urządzeniami i infrastrukturą przesyłu danych, w praktyce decyduje o realnych zdolnościach państw zależnych, do których w tym wymiarze należy również Polska.

Donald Trump w ogłoszonym przez Biały Dom programie rozwoju AI („America’s AI Action Plan”) zapowiada dominację USA poprzez rozwój i eksport AI jako zamkniętych pakietów produktów i usług. Stawką jest cały ekosystem: nie jedynie dostarczanie modeli AI, lecz sprzedawanie dostępu do kompleksowego ekosystemu: energii, centrów danych, procesorów, półprzewodników i kart graficznych, systemów oprogramowania i standardów technologicznych. To strategia jawnie protekcjonistyczna, mająca również wymiar polityczny. W wymiarze krajowym ma zagwarantować powrót przemysłu wysokich technologii z krajów azjatyckich do USA. Na arenie międzynarodowej z kolei ma dać Waszyngtonowi (jeszcze) silniejszą dominację nad Komisją Europejską i krajami UE, co zwiększa szansę na obejście europejskich regulacji (DSA, DMA czy AI Act), których musi przestrzegać europejska konkurencja.

Chiny od lat postępują podobnie. Obok gigantycznego wsparcia dla innowatorów i naukowców Pekin dodaje również konieczny do zachowania władzy politycznej szczegółowy system nadzoru – od norm technicznych, przez regulacje prawne, totalną cenzurę treści i inwigilację obywateli, aż po pośrednią kontrolę Partii nad międzynarodową działalnością biznesową firm takich jak TikTok, Alibaba czy DeepSeek. W efekcie wytworzył się złożony system „kija i marchewki”, w którym państwo może w każdej chwili odkręcić lub przykręcić zawór z pieniędzmi, a nawet użyć aparatu przemocy.

Czytaj także Czy sztuczna inteligencja pożre kapitalizm? Filip Konopczyński

Mimo szumnych deklaracji Europa do tej pory dotrzymywała kroku głównie w wymiarze regulacji prawnych. Ciężko winić za to samą UE, która ze względu na ograniczone kompetencje (szczególnie w kwestiach obronności i bezpieczeństwa) oraz relatywnie niskie budżety ma niewiele narzędzi wspierania rozwoju technologii, w tym oczywiście AI. Obok przyjęcia pakietu rozporządzeń Komisja Europejska ogłosiła niedawno także „AI Continent Action Plan”, który zakłada inwestycje w centra danych, konsorcja fabryk i gigafabryk AI, które docelowo mają wspierać zarówno przemysł, jak i naukę.

Ma to uruchomić w najbliższych latach kilkaset miliardów euro – za mało, aby mówić o grze w tej samej lidze co Pekin i Waszyngton. Strukturalnym problemem Starego Kontynentu pozostaje również brak zgody państw członkowskich co do tego, jak wspierać potencjalnych „czempionów”. Najsilniejsze kraje – Niemcy i Francja – ze zrozumiałych względów promują własnych liderów, co z kolei w oczywisty sposób wywołuje w pozostałych krajach lęki przed ich dominacją. Dodatkową barierą są m.in. unijne przepisy antymonopolowe, które w imię ochrony konsumentów utrudniają koncentrację kapitału i budowę firm zdolnych konkurować z gigantami z USA i Chin.

Trzeba mieć więcej niż jedną opcję

Wraz z tworzeniem i upowszechnianiem coraz potężniejszych narzędzi AI mechanizm „uzbrojonej współzależności” przybiera na sile na wielu poziomach. W życiu prywatnym chatboty niosą szybką ulgę i plaster na samotność, osłabiając jednocześnie naszą zdolność do budowania rzeczywistych relacji z innymi ludźmi. W gospodarce skokowy wzrost efektywności umożliwiony przez zakup zewnętrznych programów AI grozi stopniową utratą kompetencji i podmiotowości w zarządzaniu własną firmą. W polityce i sprawach międzynarodowych rodzi to podległość peryferyjnych odbiorców od znajdujących się w dwóch metropoliach dostawców kluczowych elementów ekosystemu AI.

Odpowiedzią na te trendy nie jest wiara w pełną niezależność. W wymiarze jednostkowym czerpanie siły z przekonania o byciu niezależnym od innych ludzi to szkodliwa, narcystyczna obrona, na ogół prowadząca do samotności, frustracji i faktycznej bezsilności. W biznesie i polityce międzynarodowej analogią jest fantazja o autarkii, która – jak wiemy z historii – tylko pogłębia cywilizacyjne, gospodarcze i społeczne zacofanie.

W każdym z tych wymiarów remedium na złe skutki uzależniania od AI jest takie samo: adekwatna diagnoza, inwestycja w zasoby własne i budowa kompetencji. Na poziomie relacji z chatbotem oznacza to umiejętność rozpoznania, kiedy jesteśmy oszukiwani, świadomość praw, które nam przysługują, i umiejętność dobierania narzędzi pod konkretne potrzeby.

Jeśli w erze AI chcemy zachować sprawczość, musimy doskonale znać granice naszych zależności, umieć je świadomie kształtować i nie zapominać o konieczności posiadania alternatyw. Jako ludzie musimy nauczyć się odróżniać symulację od więzi w świecie fizycznym. W biznesie inwestować w kadry i unikać modeli, w których nie da się zastąpić kluczowej infrastruktury dwoma–trzema alternatywnymi systemami. Na poziomie państw musimy z kolei rozwijać własne moce obliczeniowe i kadry eksperckie, na bieżąco zawiązując realistyczne koalicje z państwami w podobnej sytuacji. Taka elastyczna strategia nie gwarantuje co prawda lauru zwycięzcy w wyścigu o przyszłość, ale przynajmniej zwiększa szanse, że jego finału nie będziemy musieli oglądać z ekranu smartfona.

Komentarze

Krytyka potrzebuje Twojego głosu. Dołącz do dyskusji. Komentarze mogą być moderowane.

Zaloguj się, aby skomentować
2 komentarzy
Komentarze w treści
Zobacz wszystkie
spltml
2025-11-01 20:43

Pociąg z napisem „suwerenność cyfrowa” w Polsce odjechał już dawno. W latach 2007–2011 miałem okazję obserwować rozwój usług chmurowych z bliska, współpracowałem z pierwszymi partnerami wdrożeniowymi w Europie i znałem ludzi z trzech największych dostawców chmur. Miałem dostęp do doradców PiS, PO, rozmawiałem z posłami Lewicy. Tłumaczyłem, jak działają te technologie, jakie dają możliwości i jakie niosą zagrożenia. Nikt nie chciał słuchać.

Zamiast skupić się na meritum, polskie środowisko akademickie wolało toczyć spory o definicje. Gdy proponowałem stworzenie narodowego rozwiązania, które byłoby kompatybilne z komercyjnymi systemami zza oceanu, spotykałem się z drwiną, mimo że próg wejścia był wtedy znacznie niższy. Kiedy mówiłem o potrzebie budowy kilku nowoczesnych centrów danych dla administracji i biznesu, słyszałem argumenty o konieczności zrównoważonego rozwoju i budowie serwerowni w każdym województwie. Ostatecznie nie było na to środków, więc nic nie zrobiono.
Później obserwowałem rozwój operatora P4, który uzależnił się od jednego azjatyckiego dostawcy, całkowicie pomijając Europę. Zapłacili za to wysoką cenę przy kolejnej aktualizacji infrastruktury. W międzyczasie wybuchła afera szpiegowska z udziałem tego samego kraju i partnera technologicznego. Efekt? Brak reakcji, brak legistlacji. A co niektórzy probóją budować rozwiązania w oparciu o deepseek.

spltml
2025-11-01 20:45

Obecnie sztuczna inteligencja to znacznie więcej niż tylko algorytmy i modele. To kompleksowy ekosystem, który obejmuje centra danych, oprogramowanie, infrastrukturę, a także ramy prawne i regulacyjne. W tym obszarze Europa — w tym także Unia Europejska — przespała kluczowy moment. Inicjatywy takie jak „fabryki AI” czy „GAIX” pojawiły się zbyt późno, są nieadekwatne do realnych potrzeb rynku i zdecydowanie za małe, by konkurować z globalnymi graczami.

Dziś dyskusja toczy się już nie o narodową, lecz o unijną suwerenność cyfrową. Na międzynarodowych forach i panelach trudno znaleźć polskich przedstawicieli. W zeszłym tygodniu Komisja Europejska opublikowała ramy oceny suwerenności rozwiązań ICT i chmurowych. Tymczasem w Polsce nie widziałem jeszcze komisji sejmowej, która podjęłaby ten temat.

A przecież wystarczyłoby dodać prosty zapis do ustawy o zamówieniach publicznych: wymóg osiągnięcia określonej liczby punktów według CSF przy przetargach publicznych i zamówieniach spółek Skarbu Państwa. Nie potrzeba rewolucji ani kontrowersyjnych rozwiązań. Wszystko jest gotowe, wystarczy jedna ustawa. Niestety, to przerasta polską klasę polityczną i liczne grona wzajemnej adoracji, tzw. „eksperckie”.