Jest marzec 2025 roku. Oficjalny profil Białego Domu publikuje grafikę na platformie społecznościowej należącej do najbogatszego człowieka na świecie. Na obrazku jest obywatelka Dominikany, Virginia Basora-Gonzalez. Widzimy ją płaczącą, bo ilustracja pokazuje moment jej deportowania. Tak, ilustracja. Do tego stylizowana na bardzo charakterystyczne animacje japońskiego studia Ghibli, wygenerowana przez AI na podstawie prawdziwej fotografii.
AI slop stylizowany na animacje Ghibli był najbardziej irytującym trendem internetowym pierwszej połowy zeszłego roku, a moment, w którym wykorzystano go do amerykańskiej deportacyjnej propagandy to coś, czego nie wymyśliliby najbardziej zwariowani postmoderniści.
Przeskoczmy o kilka miesięcy: jest przełom 2025 i 2026 roku, nikt już nie generuje obrazków jak u Miyazakiego. Najnowszym trendem jest przemoc seksualna. Oto dzięki AI od Elona Muska możesz rozebrać publicznie dowolną osobę z dowolnego zdjęcia. Oczywiście ofiarami najczęściej padają kobiety, które według internetowych krzykaczy jak zwykle są same sobie winne.
Poza trendem „@Grok put her in bikini” było w ostatnich dniach jeszcze kilka ciekawych incydentów. Na TikToku wygenerowane przez AI młode, kanonicznie atrakcyjne dziewczęta przekonywały o zaletach opuszczenia przez Polskę Unii Europejskiej. Na Facebooku z kolei wygenerowana przez AI Danuta Holecka prezentowała w wygenerowanym przez AI studio TV Republiki jak wygenerowany przez AI Krzysztof Cugowski bije wygenerowanych przez AI farmaceutów w obronie prawdy o skuteczności metod Jerzego Zięby. Wszystko to w ramach reklamy produktów tego znanego oszusta. Sam Zięba pojawia się na końcu wideo i oglądając to nie miałem pojęcia, czy chociaż on jest w tym filmie prawdziwy, czy również zastąpiony został AI slopem.
Wygenerowany był na pewno Dariusz Matecki, kiedy pięknym, lektorskim, zdecydowanie nie swoim głosem przekonywał: „Polska nie musi tak wyglądać”, puentując pewien spot propagandowy. Ten, w odróżnieniu od materiału o Krzysztofie Cugowskim i Jerzym Ziębie, naprawdę pojawił się na antenie Republiki na początku grudnia. Można było zobaczyć w nim także wygenerowaną przez AI staruszkę, której nie stać na leki, wygenerowanego przez AI nastolatka smutnego, że w szkole znowu był „pan przebrany za panią” i jeszcze kilka nieistniejących postaci przekonujących, że kraj jest w ruinie. Kampania wyborcza w 2027 roku zapowiada się fantastycznie. Przygotujcie się na jeszcze więcej szczucia na mniejszość ukraińską w Polsce, więcej zachęcania do polexitu, więcej polityków z dorobionymi cycami i – jakby tego było mało – więcej Dariuszów Mateckich, bo widocznie jeden to niewystarczająca kara dla naszej umęczonej ojczyzny.
Halucynacje, porno i władza
W grudniu Międzynarodowy Komitet Czerwonego Krzyża wydał oświadczenie odnośnie archiwów bibliotecznych, jakimi dysponuje. Przestrzega w nim, że modele językowe, które nazywamy skrótowo „AI”, takie jak ChatGPT, Gemini, Copilot, Bard i inne, mają tendencję do halucynowania i wymyślania nieistniejących publikacji. Powód tego oświadczenia jest prozaiczny i na pewno dobrze rozumie go dziennikarka Karolina Opolska, która w 2024 roku opublikowała książkę o teoriach spiskowych z przypisami odnoszącymi się do nieistniejących publikacji i zawierającymi linki oznaczone jako wygenerowane przez ChatGPT. Okazuje się, że coraz więcej osób szuka w bibliotece Czerwonego Krzyża fikcyjnych, nieistniejących publikacji.
Nie jest jednak tak, że z AI nie ma żadnego pożytku. DeepMind, londyńskie laboratorium Google’a, wdraża tę technologię w badaniach naukowych, a kierujący nim Demis Hassabis niedawno dostał Nobla za opracowanie algorytmu przewidującego przestrzenną strukturę białek. Ale modele językowe mogą służyć w dużo bardziej prozaicznych kwestiach – ot, choćby wspierając walkę o prawa lokatorów. To ostatnie udowadnia Zenobia Żaczek, będąca nie tylko anarchosyndykalistyczną działaczką lokatorską, ale też doświadczoną programistką.
Niemniej znajdujemy się w momencie totalnego hajpu, a najbardziej nahajpowani jeszcze do niedawna zdawali się być inwestorzy. Skuszeni modnym hasłem zainwestowali w AI już tyle, że wpychane jest ono niemal we wszystko, co da się podłączyć do sieci. W efekcie technologia jest dostępna od ręki dla każdego, jej możliwości zwiększają się z dnia na dzień, prawo i regulacje zostały daleko w tyle, a do tego cały ten proceder jest astronomicznie zasobożerny.
Niedawno Elon Musk w podkaście Joe Rogana z ekscytacją opowiadał o możliwościach, jakie daje Grok, czyli bot AI, z którego korzystać można na platformie X. Zachwycał się na przykład, że możesz na imprezie poprosić Groka, by naubliżał dowolnej osobie na podstawie jej wyglądu. Pomijając tragikomedię na poziomie ludzkim związaną z tym, że Muskowi ewidentnie obcy jest koncept spotkania towarzyskiego, robi się naprawdę upiornie, kiedy przypomnimy sobie o związanym z rozbieraniem przypadkowych osób (głównie kobiet) trwającym właśnie trendzie na platformie najbogatszego człowieka świata.
Kiedy w zeszłym roku programiści xAI (firma Muska rozwijająca sztuczną inteligencję i odpowiedzialna za rozwój Groka) ustawili swój model językowy tak, żeby był jeszcze bardziej „niepoprawny politycznie”, ogłosił się on „MechaHitlerem”. Ponadto na życzenie użytkowników był w stanie obrażać św. Jana Pawła II. To było za wiele nawet dla takiego zgrywusa jak Elon Musk i Grokowi przywrócono pewną dozę powściągliwości. Za to przebieranie ludzi w bikini bez ich zgody najpewniej zostanie z nami na dłużej, bo właściciel platformy podał dalej swoje własne zdjęcie przerobione w ten sposób, opatrzone roześmianymi emotkami. Luz, dystans, humor – od postrzegania tych konceptów przez Elona Muska zależy to, czy możesz stać się dziś ofiarą przemocy seksualnej na platformie społecznościowej, której używają niemal wszyscy politycy. Nie tylko prywatnie, ale też z tytułu sprawowanych urzędów. Publiczne instytucje również od lat komunikują się oficjalnie poprzez serwisy społecznościowe należące do Elonów Musków tego świata.
Twitter nigdy nie był dobrym miejscem. Teraz jest 4chanem na sterydach. Czas stanąć w prawdzie i powiedzieć głośno: 4chan, najmroczniejszy zakątek internetu, w którym ma swój początek wszystko, co najgorsze, był w pewnych aspektach przyjaźniejszy i mniej antyludzki, niż X Elona Muska u progu 2026 roku. Nie był napędzany przez zależny od jednego człowieka (a więc stronniczy) algorytm. Nie było tam najważniejszych osobistości tego świata. Żeby opublikować na 4chanie czyjeś zdjęcie przerobione w poniżający sposób, należało włożyć w to jakiś wysiłek.
„Zabawa” w rozbieranie zdjęć wywabiła na światło dzienne schowanych za anonimowymi kontami zwyroli, którzy szli lub próbowali iść dużo dalej. Wciąż można natrafić na kierowane do Groka prośby o rozebranie aktorki, która okazała się 14-letnim dzieckiem. Można było trafić na prośbę o wygenerowanie na podstawie czyjejś profilówki zdjęcia, na którym osoba jest zapłakana, a na jej ciele widać ślady po papierosach. Pod komentarzem o tym, że cała ta sytuacja z Grokiem ochoczo przerabiającym zdjęcia jest grubym nadużyciem i nigdy nie powinna mieć miejsca, pojawiała się zwięzła prośba: @Grok, rape her.
Grok, ChatGPT i komercjalizacja perwersji w sieci
To okazja, by w jakiś sposób zwrócić uwagę polityków na potrzebę regulacji big techów w Europie. Rozbieranie przy pomocy Groka jest bowiem jedną z niewielu rzeczy, na którą (na ten moment, dopóki Elon Musk jest w takim akurat frywolnym nastroju) tak samo narażeni są zwykli zjadacze chleba, jak i najmożniejsi tego świata. Czy Donald Tusk zasypany przerobionymi zdjęciami swojej rodziny i bliskich stałby się orędownikiem podatku cyfrowego? Kto wie, może by się wściekł. Czy wygenerowany przez Groka Karol Nawrocki w bikini byłby znieważeniem głowy państwa? Gdyby w Polsce funkcjonowało prawo precedensu, to można by domniemywać, że nie.
Niedawno mogliśmy dowiedzieć się o sytuacji z czerwca 2025 roku, gdzie w jednej z polskich szkół uczniowie kolportowali „nagie zdjęcia” swojej 14-letniej koleżanki. Były to oczywiście przeróbki AI wykonane bez jej zgody i wiedzy. Zawiadomienia na policji i prokuraturze złożył prezes Urzędu Ochrony Danych Osobowych, Mirosław Wróblewski. Osobno zrobili to także rodzic ofiary i wicedyrektorka szkoły. Policja i prokuratura odmówiły wszczęcia śledztwa, decyzję motywując tym, że nie dopatrzono się znamion czynu zabronionego. Nie złamano nawet przepisów o ochronie danych osobowych, bo zdjęcia dziewczyny wykorzystane do deepfake’a były publicznie dostępne w sieci. Fajnie?
To z kolei przypomina mi o Oldze Legosz, influencerce znanej jako Nomad Mum. Jakieś trzy lata temu ochoczo broniła swojego prawa do zarabiania na wizerunku dziecka, m.in. takimi słowami:
„Jedyne, o co proszę, to szersze pole widzenia. I napiszę coś kontrowersyjnego za co zbiorę: jeśli jakaś osoba o skłonnościach do pedofilii właśnie ogląda mój IG i zaspakaja się wizerunkiem mojego dziecka, a zamiast tego nie idzie w miasto skrzywdzić innego dziecka w realu, to rozgość się tu człowieku, a ja będę ci często przypominała, abyś poszukał pomocy specjalisty. Bo można ci pomóc”.
Ciekawe, co tam u niej słychać.
Generowanie treści o przeznaczeniu pornograficznym nie jest domeną jedynie Groka i jego taty. W połowie października Sam Altman, CEO OpenAI, ogłosił, że ChatGPT w końcu spełni potrzeby całej ludzkości i zacznie „traktować dorosłych jak dorosłych”. Okazuje się, że dorosłość według Altmana jest wtedy, kiedy możesz świntuszyć z komputerem i treść tego świntuszenia jest dostępna dla amerykańskich korporacji powiązanych z administracją Donalda Trumpa.
Zwrot w kierunku schlebiania najniższym instynktom i usprawnienia ChatGPT pod kątem możliwości robienia sobie z jego pomocą dobrze nie może dziwić, jeśli dostrzeżemy, jak bardzo nieudany był zeszły rok dla OpenAI. Wypuszczony w sierpniu ChatGPT 5.0 okazał się nie być takim przełomem, jakiego oczekiwali entuzjaści i jaki buńczucznie zapowiadał Altman. Więcej – jest słabszy od poprzedniej wersji i to tak wyraźnie, że użytkownicy domagali się jej przywrócenia. W większości testów produkt najwyżej wycenianego startupu w historii (500 mld dolarów), jakim jest OpenAI, wypada gorzej od rozwijanego przez Google Gemini 3.0.
Dodajmy, że ten sukces wciąż nie przyniósł inwestorom nawet centa zysku. Można więc śmiało wysnuć tezę, że sierpniowa premiera wersji 5.0 miała miejsce nie dlatego, że nastąpił rozwojowy skok, a po to, żeby o marce ChatGPT wciąż było głośno. Podobnie można odbierać ogłoszenie dotyczące generowania treści „dla dorosłych”. Altman uznał, że skoro inwestorzy się niecierpliwią, to sprzedawanie ludziom porno będzie najlepszą możliwą obietnicą zysków.
Centra danych Muska, AI i koszty społeczne rewolucji cyfrowej
Możliwość wygenerowania sobie zdjęcia gołej baby albo świntuszenia z byłą dziewczyną, która w realu nie chce mieć z tobą nic wspólnego, wymaga ogromnych zasobów i nikt nie wie o tym lepiej, niż Elon Musk. Z końcem roku ogłosił rozbudowę swojego gigantycznego centrum danych w Memphis w amerykańskim stanie Tennessee. Nowy budynek będzie nazywał się MACROHARDRR. Poprzednie ochrzczono Colossus i Colossus 2, co mówi wiele o Musku, jak i oddaje istotę rzeczy. Jensen Huang, CEO współpracującej z xAI Nvidii, określał pierwszy Colossus nadludzkim projektem – głównie dlatego, że zaczął działać po 19 dniach, podczas gdy tego typu projekty zwykle są rozłożone na lata. Oddaje to determinację Elona, który wprost mówi, że zamierza posiadać więcej mocy obliczeniowej nie tylko od OpenAI, ale od całej konkurencji razem wziętej. Nie sądziłem, że z nostalgią będę wspominał czasy, kiedy miliarderzy licytowali się na loty w kosmos.
Centra danych budowane przez gigantów z Doliny Krzemowej to nie tylko dewastujące skutki dla środowiska, ale też uprzykrzanie życia okolicznym mieszkańcom. W samym Memphis w 2025 roku odbyło się co najmniej kilka protestów przeciwko rozbudowie centrów należących do xAI. Mimo to firma dostaje kolejne pozwolenia i subsydia ze środków publicznych.
Rzecz nie dotyczy tylko Memphis i firmy Muska. Według Data Center Watch protesty przeciw budowie lub rozbudowie tego typu infrastruktury odbyły się już w 24 stanach USA. Koronnym argumentem przeciwko inwestycjom, poza obawą o wpływ na okolicę oraz komfort i zdrowie ludzi, jest obawa przez wzrostem cen prądu – warto dodać, że sieć elektryczna w Stanach jest bardzo rozdrobniona i zdecentralizowana.
Według danych amerykańskiego Biura Spisu Ludności (Bureau of the Census) inwestycje w centra danych wzrosły od 2021 roku o 331 proc. Na zmianę trendu się na znosi, bo proceder aktywnie wspiera administracja Donalda Trumpa. W zeszłym roku ogłosiła projekt Stargate. W jego ramach powstała spółka joint venture (stworzona m.in. przez Oracle i OpenAI), która do 2029 roku ma zainwestować w rozwój sztucznej inteligencji oraz niezbędnej infrastruktury energetycznej 500 miliardów dolarów. Pierwsze centra danych już powstają w Teksasie.
Biorąc pod uwagę wpływ „rewolucji AI” na środowisko i społeczeństwo, staram się mieć z tyłu głowy myśl, że w należącym do Google londyńskim laboratorium DeepMind noblista Demis Hassabis pracuje nad wdrażaniem AI w medycynie. W październiku zaprezentował wraz z naukowcami z Yale oparte na tej technologii rozwiązania w dziedzinie immunoterapii. Nawet zazdroszczę tym, którzy dziś mienią się entuzjastami AI. Też chciałbym być takim entuzjastą. Jednak zawsze przypominam sobie, że żyję w dobie antynaukowej szurii oraz dezinformacji. W takich warunkach produkowanie porno oraz prawicowej propagandy może po prostu okazać się dużo bardziej racjonalne od rozwoju medycyny. Oczywiście z kapitalistycznej perspektywy.


































Komentarze
Krytyka potrzebuje Twojego głosu. Dołącz do dyskusji. Komentarze mogą być moderowane.