Jeśli nie poradzimy sobie z wyzwaniami, przed którymi stawia nas umasowienie AI, ucierpi nie tylko środowisko informacyjne. Współczesne modele sztucznej inteligencji generujące wideo zużywają ogromne – i rosnące wraz z jakością – ilości energii.
Zapoczątkowana przez TikToka „rewolucja krótkich form” dostała turbodoładowania. Dzięki rozwojowi narzędzi AI, głównie tzw. modeli generatywnych (ChatGPT, Anthropic, Perplexity, Gemini czy DeepSeek) do ich powstania i dystrybucji w całym procesie coraz mniej potrzebni są ludzie. Zapoczątkowany przez ChatGPT boom na duże modele językowe, a ostatnio również modele multimodalne, nazywane „strukturami wieloagentowymi” sprawił, że koszt i czasochłonność generowania takich treści spada. Rośnie z kolei, obok zużycia energii, ich fotorealizm. Dobrą ilustracją jest porównanie „nagrań” syntetycznego Willa Smitha jedzącego równie syntetyczne spaghetti czy też coraz popularniejsze „wideorelacje” z czasów prehistorycznych.
Między sztuczną inteligencją a edukacją cyfrową zieje olbrzymia luka
czytaj także
Naukowcy Amazona szacują, że obecnie nawet 57 proc. treści online jest albo tworzonych, albo tłumaczonych z wykorzystaniem GenAI. Ta masowa produkcja tekstów, obrazów i nagrań (tzw. AI slop) obniża jakość informacji, z którymi spotykamy się online. Większość z nich, choć bezwartościowa, skutecznie przykuwa uwagę, tym samym wypierając rzetelne materiały edukacyjne, rozrywkowe i dziennikarskie.
AI odgrywa w tym procesie podwójną rolę. Nie tylko jako narzędzie tworzenia „paszy” dla użytkowników, ale także kuratora naszej uwagi. Algorytmy rekomendujące platform online uczą się naszych preferencji, więc jeśli kilkukrotnie zawiesimy wzrok np. na „nagraniach” z budowy piramid czy podróży Mojżesza przez Morze Czerwone, Tik Tok, Instagram, YouTube czy Facebook będą serwować nam jeszcze więcej takich materiałów.
Inflacja jakości
Na przekór najbardziej pesymistycznym prognozom wciąż trudno wskazać kampanię wyborczą, w której o zwycięstwie przesądziły kompromitujące kandydatów deepfake’i [nagrania tworzone przez sztuczną inteligencję, które realistycznie imitują wygląd lub głos prawdziwych osób – przyp. red.]. Takie materiały weszły już jednak do standardowego arsenału sztabowców. Odegrały rolę m.in. w ostatniej kampanii prezydenckiej w USA. Kiedy Trump w debacie z Harris oskarżył migrantów o rzekome zjadanie „kotów i psów”, sieć zalały wygenerowane przez AI memy i filmiki ukazujące urocze zwierzątka błagające kandydata Partii Republikańskiej o ratunek. Odniosły one efekt, pomimo braku pretensji do realizmu i wyraźnie komiksowo-memiarskiej estetyki.
Cyfrowi tubylcy w świecie kłamstw. Czy młodzi potrafią odróżnić prawdę od wytworów AI?
czytaj także
Boty i syntetyczne treści służą nie tylko do dezinformacji, ale także do agresywnego, „pompującego” marketingu, który jest formą kształtowania opinii, często maskowaną jako reklama albo treść sponsorowana. Generowane za pomocą AI reklamy i recenzje jeszcze bardziej obniżają koszty dotarcia do klientów, co pozwala na precyzyjniejsze profilowanie treści do odbiorców bez zwiększania budżetów. Niestety, wbrew dobrym praktykom i wymogom nakładanym m.in. przez wchodzące w życie regulacje europejskie, na ogół nie są one odpowiednio oznakowane. Generatywna AI to idealne narzędzie dla naciągaczy. Dziś ich ofiarami padają osoby o niższych kompetencjach medialnych, jednak wraz z rozwojem realizmu takich materiałów nawet krytyczni użytkownicy sieci nie będą w stanie ocenić ich wiarygodności bez specjalistycznego oprogramowania.
Erozja jakości treści w sieci ma także konsekwencje dla samej technologii. Podłączone do zasobów sieci modele AI „uczą się” dziś również na treściach stworzonych przez samo AI. To z kolei obniża wiarygodność wyników, co ma szczególne znaczenie dla milionów osób, które traktują czatboty jak wyszukiwarki. Samopowielający się internet, w którym AI trenowane na syntetycznych danych generuje kolejne syntetyczne dane, trafiające z powrotem do algorytmów, tworzy zamknięty, jałowy obieg.
Czy przełomowy akt UE w sprawie AI zagraża prawom człowieka?
czytaj także
Co gorsza, duże platformy internetowe nie mają interesu w usuwaniu treści takiej proweniencji. Biznesowy interes platform takich jak Facebook, YouTube czy TikTok opiera się na przyciąganiu i utrzymaniu uwagi, a nie na dostarczaniu informacji czy prawdy. Ich głównym produktem jest zaangażowanie użytkownika, a najskuteczniejszymi narzędziami do jego zdobycia są kontrowersje, emocje i syntetyczne, krzykliwe treści. Dzięki rosnącej personalizacji przekazu użytkownicy mogą spędzać na tych serwisach jeszcze więcej czasu, co bezpośrednio przekłada się na większe zyski z reklam. Cierpią na tym tradycyjne media, które w związku z odpływem reklamodawców muszą redukować, a nie zwiększać wydatki na weryfikację treści zalewających debatę publiczną.
Rozwiązania na horyzoncie
Dotychczasowe próby walki z masową manipulacją oparte na pracy analityków lub wprowadzaniu do przekazu wiarygodnych treści, nie dają nadziei na powstrzymanie dalszej erozji zaufania do mediów i instytucji. W dobie generatywnej AI skrupulatna analiza i weryfikacja treści przez dziennikarzy lub zawodowych czy społecznych „factcheckerów” to syzyfowa praca. Oliwy do ognia dolewa zmiana polityki platform takich jak X czy Meta, które po ostatnich wyborach w USA ogłosiły redukcję działań (i zatrudnienia) w działach moderacji treści.
Od zdolnego hakera do broligarchy. Jak Mark Zuckerberg niszczy internet i demokrację
czytaj także
Teoretycznie z pomocą mogłyby przyjść aplikacje rozpoznające treści AI. W przypadku filmów, obrazów i nagrań audio taka detekcja jest dziś możliwa, ale wymaga ciągłej pracy naukowców i inżynierów wciągniętych w „wyścig zbrojeń” z twórcami modeli AI zdolnymi do produkowania coraz bardziej wiarygodnych materiałów. Paradoksalnie większe wyzwanie stanowią dla „sprawdzaczy” treści tekstowe. W ich przypadku udowodnienie, że w 100 proc. pochodzą od maszyny, jest praktycznie niemożliwe. Istniejące na rynku narzędzia mogą zaoferować jedynie sugestie oparte na możliwym do podważenia rachunku prawdopodobieństwa, co np. w przypadku drogi prawnej może okazać się dla sądów niewystarczające.
Acemoglu: AI może służyć ludziom, ale nie w tym kierunku zmierza
czytaj także
Skuteczniejsze mogą okazać się narzędzia prawne. Globalnym liderem w regulacjach AI są dziś Chiny, które przyjęły już katalog ustaw i aktów wykonawczych, obejmujący m.in. algorytmy rekomendacyjne, ochronę prywatności, stosowanie czatbotów czy dezinformację z użyciem AI. Swobodny rozwój narzędzi i korzystania z GenAI stanowiłby dla Chińskiej Republiki Ludowej poważny problem polityczny. Należy zakładać, że na straży tych przepisów obok urzędników stoi również aparat bezpieczeństwa.
Na drugim biegunie podejścia do regulacji AI znajdują się Stany Zjednoczone. Prezydent Trump chwilę po objęciu urzędu anulował wszystkie dekrety poprzedniej administracji wprowadzające zasady stosowania AI w administracji publicznej, zaś szanse na przyjęcie ustawy na poziomie kongresu są niemal zerowe. Niewiele zabrakło, aby w niedawno przyjętej „Wielkiej, Pięknej Ustawie” podatkowej popieranej przez Trumpa znalazł się zaproponowany przez Big Techy 10-letni zakaz wprowadzania stanowych czy centralnych ograniczeń w rozwijaniu i stosowaniu tej technologii.
W Unii Europejskiej obowiązują dziś co najmniej dwa akty prawne (Akt o Usługach Cyfrowych i Akt o AI), które m.in. nakładają obowiązek informowania o tym, że udostępniana treść typu deepfake powstała z użyciem AI Dodatkowo, wchodzący w życie AI Act w perspektywie kilku lat ma doprowadzić do tego, że treści audio i wideo będą musiały być algorytmicznie znakowane (watermarking), co pozwoli na ich automatyczne rozpoznanie jako „made by AI”. W skali całego kontynentu wdrożenie bardziej restrykcyjnych przepisów spotyka się jednak z oporem nie tylko samych platform, ale także części użytkowników, utożsamiających wolność słowa z prawem do nieograniczonego wykorzystywania narzędzi cyfrowych do masowego produkowania treści szkodliwych i wątpliwej jakości.
Niektórzy krytykują też samo znakowanie, argumentując, że tak indywidualnie „stemplowane” treści pozwalałyby na masowe śledzenie i identyfikowanie użytkowników.
czytaj także
W kontrze do tendencji deregulacyjnych chce pójść Dania. Na inaugurację prezydencji w Radzie Unii Europejskiej rząd zaproponował, aby w całej Europie wprowadzić kary za stosowanie deepfake’ów z podobiznami konkretnych osób bez ich zgody. Wymagałoby to nie tylko powstania możliwie nieomylnych programów, ale przede wszystkim sprawności odpowiednich organów nadzoru. Kompromitujące deepfake’i wyrządzają szkodę błyskawicznie, a postępowania (karne lub o naruszenie danych osobowych) zajmują miesiące, a nawet lata.
Jeśli nie poradzimy sobie z wyzwaniami, przed którymi stawia nas umasowienie AI, ucierpi nie tylko środowisko informacyjne. Współczesne modele sztucznej inteligencji generujące wideo zużywają ogromne – i rosnące wraz z jakością – ilości energii. Autorzy z „Nature” ustalili, że w 2024 roku AI odpowiadało już za ok. 1,5 proc. globalnej konsumpcji energii. Według szacunków „MIT Technology Review” wygenerowanie 5-sekundowego filmiku wymaga ok. 3,4 mln dżuli, co jest ekwiwalentem przejechania ok. 50 kilometrów na rowerze elektrycznym. Nawet „zwykłe” użycie dużego modelu językowego, jak ChatGPT, kosztuje nas nawet 10 razy więcej energii, niż pojedyncze wyszukiwanie w Google.
Jest w tym gorzki paradoks. W momencie, gdy planeta dosłownie zaczyna się gotować, my – przy pomocy jednej z najbardziej energochłonnych (LLM) technologii ostatnich lat – generujemy treści przekonujące ludzi, że problem globalnego ocieplenia nie istnieje.