Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

Unia Europejska, Weekend

Cyfrowi tubylcy w świecie kłamstw. Czy młodzi potrafią odróżnić prawdę od wytworów AI?

Młodzi ludzie są biegli w korzystaniu z technologii cyfrowych, bo się na nich wychowali. To nie oznacza jednak, że potrafią weryfikować fakty, wyłapywać dezinformacje i dostrzegać oszustwa. W Europie co trzeci uczeń w wieku 13 lat wykazuje brak podstawowych kompetencji cyfrowych.

Sztuczna inteligencja przestała być odległą koncepcją. Chociaż z jej początkami – od prostych systemów automatyzacji po zaawansowane uczenie maszynowe – mamy do czynienia od dziesięcioleci, ten rozwój właśnie osiągnął nowy etap. Generatywna AI czyni znaczące postępy i potrafi tworzyć oryginalne treści.

Kamieniem milowym tej ewolucji stało się publiczne udostępnienie ChataGPT przez koncern OpenAI w listopadzie 2022 roku. Dzięki temu chatbotowi generatywna sztuczna inteligencja stała się powszechnie dostępna, pozwalając użytkownikom na interakcję i poznawanie jej możliwości za pomocą prostego interfejsu konwersacyjnego.

W sierpniu 2024 roku ChatGPT miał już ponad 200 milionów aktywnych użytkowników tygodniowo – dwukrotnie więcej niż niecałe dwa lata wcześniej. Dziś publicznie dostępnych chatbotów jest więcej, a AI staje się integralną częścią codziennego życia, wpływając na najróżniejsze dziedziny, od rozrywki w mediach społecznościowych po edukację i politykę.

W błędnym kole uprzedzeń. Jakiej płci jest ChatGPT?

Dezinformacja i generatywna sztuczna inteligencja

Jednym z obszarów, na który generatywna sztuczna inteligencja ma szczególny wpływ, jest przestrzeń informacyjna. AI zasadniczo zmieniła sposób tworzenia i rozpowszechniania wiadomości i treści, stawiając nowe wyzwania w obliczu wciąż obecnego problemu dezinformacji. Swobodny dostęp do w dużej mierze nieuregulowanych narzędzi AI znacznie uprościł generowanie i rozpowszechnianie fałszywych informacji oraz tworzenie wiarygodnie wyglądających fałszywych treści, które mogą szybko rozprzestrzeniać się na platformach cyfrowych.

Zaawansowane możliwości generatywnej sztucznej inteligencji przejawiają się w jej zdolności przekonującego naśladowania ludzkiej komunikacji i zachowań. Uderzający przykład podaje Juliane Von Reppert-Bismarck, założycielka i dyrektorka wykonawcza Lie Detectors, kierowanej przez dziennikarzy ogólnoeuropejskiej organizacji non profit, która wspiera młodzież oraz nauczycieli w odróżnianiu faktów od fałszywych wiadomości i zrozumieniu zasad etycznego dziennikarstwa:

„W maju 2024 roku duża firma inżynieryjna padła ofiarą ogromnego oszustwa z wykorzystaniem technologii deepfake. Firma przelała 20 milionów funtów na kilka kont bankowych, ponieważ jedna z osób uwierzyła, że podczas wideokonferencji rozmawia z prawdziwymi ludźmi. W rzeczywistości jednak prowadziła dialog z tworzonymi przez sztuczną inteligencję imitacjami głosów, które brzmiały znajomo. To wystarczyło, aby skłonić ją do wykonania przelewu”.

Nawet gdy korzysta się z nich w dobrej wierze, systemy AI są podatne na błędy. ChatGPT i podobne chatboty regularnie ostrzegają użytkowników, że ich odpowiedzi mogą zawierać nieścisłości. Ponadto niezawodność tych systemów zależy wyłącznie od jakości danych, na których zostały wyszkolone. Jeśli dane te, co się często zdarza, odzwierciedlają społeczne uprzedzenia lub nierówności, algorytmy AI mogą te uprzedzenia utrwalać lub nawet wzmacniać.

AI w newsroomie

Problem ten rysuje się szczególnie wyraźnie w sektorze mediów, gdzie sztuczna inteligencja znajduje coraz szersze zastosowanie na różnych etapach tworzenia wiadomości. Treści generowane przez AI coraz częściej docierają do odbiorców, często bez wyraźnego oznakowania lub wytycznych pozwalających odróżnić je od materiałów tworzonych przez ludzi.

Ten brak przejrzystości budzi poważne obawy o niewłaściwe wykorzystanie technologii i jej wpływ na publiczne zaufanie do informacji.

Jedną z najbardziej niepokojących kwestii jest zjawisko znane jako „halucynacje”. Polega ono na tym, że model generatywny tworzy nieprawdziwe lub błędne treści, które sprawiają wrażenie wiarygodnych. Halucynacje te mogą się pojawiać, ponieważ systemy sztucznej inteligencji, choć niezwykle zaawansowane, nie rozumieją treści, które generują, i mogą tworzyć nieprecyzyjne informacje na podstawie danych treningowych. Brak wyraźnego oznakowania nie tylko wprowadza odbiorców w błąd, ale także podważa zaufanie do wiarygodnych treści, ponieważ odbiorcy mają trudności z odróżnieniem prawdy od fałszu.

ChatGPT o rzezi Woli: masakra czarnoskórych żołnierzy radzieckich dokonana przez powstańców

Takie zagrożenia są szczególnie niepokojące w obszarze dziennikarstwa, edukacji czy debaty politycznej, w których rzetelność ma kluczowe znaczenie. Co ciekawe, z badania Digital News Report 2024 wynika, że odbiorców mniej niepokoją tworzone przez AI treści dotyczące sportu i rozrywki, w których stawka wydaje się niższa.

Mimo że wydawcy wiadomości dostrzegają potencjał AI w automatyzacji zadań takich jak transkrypcja, korekta czy rekomendacje, jej wykorzystanie w procesie tworzenia treści nadal uważają za poważne zagrożenie. W istocie obawiają się, że rola sztucznej inteligencji w tworzeniu artykułów informacyjnych, nagłówków lub innych treści redakcyjnych może jeszcze bardziej podważyć zaufanie publiczne do dziennikarstwa.

Kryzys zaufania

Zaufanie społeczne do informacji spada od wielu lat, a jego erozję pogłębia rozprzestrzenianie się fałszywych wiadomości na platformach mediów społecznościowych. Ten kryzys zaufania może się nasilić wraz ze wzrostem obecności AI, zwłaszcza w kontekście wyborów. Narastają obawy dotyczące sposobu wykorzystywania nowych technologii w kampaniach politycznych czy też przez zewnętrzne podmioty dążące do wpływania na wyniki wyborów.

Organizacja Bureau of Investigative Journalism ujawniła, że tego rodzaju działania były wykorzystywane do szerzenia rosyjskiej dezinformacji przed tegorocznymi wyborami w Wielkiej Brytanii i Francji. Co więcej, nadzorująca media organizacja NewsGuard odnotowała wzrost liczby stron internetowych wypełnionych treściami generowanymi przez AI, często zaprojektowanych tak, by wyglądały jak wiarygodne serwisy informacyjne, ale rozpowszechniających treści o niskiej jakości lub zupełnie fałszywe. Ten gwałtowny wzrost treści wprowadzających w błąd budzi niepokój wśród ekspertów, którzy przestrzegają przed dalszym spadkiem zaufania do mediów.

Newsy nas dołują (i mało z nich rozumiemy)

czytaj także

W Słowacji, kilka dni przed niezwykle wyrównanym głosowaniem, pojawiło się fałszywe nagranie audio, na którym jeden z kandydatów miał omawiać sposoby sfałszowania wyników wyborów. Weryfikatorzy mieli trudności ze skutecznym przeciwdziałaniem dezinformacji.

W 2024 roku doszło też do pierwszego poważnego incydentu z wykorzystaniem technologii deepfake na brytyjskiej scenie politycznej. Na platformie X (dawniej Twitter) rozprzestrzeniło się nagranie audio, na którym rzekomo słychać, jak lider opozycji Keir Starmer wyzywa swoich współpracowników. Nagranie zdobyło miliony wyświetleń – nawet już po ujawnieniu, że jest fałszywe.

Zaufanie do mediów prawdopodobnie jeszcze bardziej osłabnie wraz z pogłębiającą się integracją AI na platformach cyfrowych. Badania pokazują, że podejmując decyzję o tym, czemu ufać w internecie, ludzie często kierują się obrazami i nagraniami wideo – zgodnie z zasadą „nie uwierzę, dopóki nie zobaczę”. Rozwój syntetycznych obrazów i treści manipulowanych przez AI podważa wiarygodność dowodów wizualnych, tradycyjnie uważanych za fundament zaufania, co zwiększa niepokój i poczucie niepewności opinii publicznej. Przypadki te pokazują, jak treści generowane przez AI mogą być wykorzystywane do siania zamętu i nieufności w decydujących chwilach.

Największym zagrożeniem może być jednak nie to, że ludzie uwierzą w fałszywe informacje, lecz to, że przestaną wierzyć w cokolwiek. Hannah Arendt przestrzegała, że w czasach kryzysów największym niebezpieczeństwem jest sytuacja, gdy „nikt już w nic nie wierzy”. Dlatego rosnący sceptycyzm stanowi zagrożenie dla podstaw demokracji.

Konsekwencje tego kryzysu zaufania są głębokie. Jak zauważyła Juliane z Lie Detectors: „Demokracja opiera się na założeniu, że potrafimy podejmować świadome decyzje. Dlatego umiejętność korzystania z mediów oraz jej rola w podejmowaniu świadomych, a nie zmanipulowanych decyzji, stanowią fundament procesu demokratycznego i naszego społeczeństwa demokratycznego”.

Narastające wyzwanie dla młodych ludzi

Problem ten jest szczególnie istotny dla młodych ludzi, którzy są najbardziej narażeni na wpływ sfery cyfrowej i platform mediów społecznościowych, gdzie AI odgrywa coraz większą rolę. Postrzegani jako „cyfrowi tubylcy”, młodzi ludzie spędzają w internecie więcej czasu niż jakakolwiek inna grupa.

Raport Instytutu Reutera z 2024 roku wskazuje, że przedstawiciele młodszego pokolenia są mniej związani z tradycyjnymi markami informacyjnymi niż w przeszłości, przez co stają się bardziej podatni na dezinformację. Biorąc pod uwagę obniżenie wieku wyborczego poniżej 18 lat w krajach takich jak Belgia oraz fakt, że w nadchodzących dekadach młodzi ludzie będą kształtować istotne decyzje polityczne i pełnić wpływowe role w społeczeństwie, kluczowe jest, aby potrafili odnaleźć się w dynamicznie zmieniającym się krajobrazie informacyjnym.

Podczas gdy organizacje informacyjne podejmują kroki w celu zabezpieczenia wiarygodności informacji, przyjmując wytyczne dotyczące stosowania sztucznej inteligencji, a platformy społecznościowe wdrażają rozwiązania, takie jak notatki społeczności czy etykietowanie treści generowanych przez AI, wciąż pozostaje istotne pytanie: czy to wystarczy?

Wszystko, co chcecie wiedzieć o sztucznej inteligencji, ale boicie się zapytać

Rozwiązaniem często podawanym w kontekście tego problemu jest umiejętność korzystania z mediów cyfrowych, rozumiana jako zdolność do krytycznej oceny i interakcji z treściami cyfrowymi. W jej zakres wchodzą umiejętności takie jak rozpoznawanie wiarygodnych źródeł informacji czy rozumienie sposobu, w jaki algorytmy i AI kształtują treści, które konsumujemy. Obejmuje to nie tylko wiedzę techniczną, lecz również umiejętność odróżniania prawdziwych informacji od fałszywych oraz odpowiedzialne zachowanie w przestrzeni cyfrowej.

Czy młodzi ludzie faktycznie posiadają kompetencje z zakresu edukacji medialnej w świecie cyfrowym? Raport Ofcom z 2024 roku zatytułowany Children and Parents: Media Use and Attitudes, poświęcony korzystaniu z mediów przez rodziców i dzieci, rzuca światło na to, jak młodzież ocenia swoje kompetencje w zakresie korzystania z mediów cyfrowych. W badaniu 69 proc. dzieci w wieku 12–17 lat stwierdziło, że ufa swoim umiejętnościom oceny autentyczności treści w internecie, przy czym to przekonanie było silniejsze wśród chłopców oraz starszych nastolatków. Istotne jest, że w grupie 16- i 17-latków pewność siebie zmniejszyła się z 82 proc. w 2022 roku do 75 proc. w dwa lata później.

Jak zauważa Juliane von Reppert-Bismarck z Lie Detectors: „Pytanie młodych ludzi o to, czy ich zdaniem mają kompetencje medialne, nie jest skutecznym sposobem pomiaru ich rzeczywistych umiejętności korzystania z mediów”. Faktycznie, raport Ofcom z 2024 roku podkreśla, że pewność siebie nie zawsze koreluje z rzeczywistymi umiejętnościami korzystania z mediów:

„Pewność siebie nie wynika jedynie z dobrych kompetencji korzystania z mediów, lecz współgra z nimi w sposób, który może zarówno wzmacniać, jak i osłabiać krytyczne rozumienie. Osoba, której pewność siebie przewyższa jej umiejętności, jest bardziej narażona na popełnianie błędów, które mogą mieć szkodliwe konsekwencje. Z kolei osoba z rozwiniętymi zdolnościami krytycznego myślenia, lecz pozbawiona pewności siebie, może nie ufać własnemu osądowi, co może sprawiać, że będzie czuła się niepewnie lub zagrożona w internecie”.

Choć młodych ludzi często nazywa się „cyfrowymi tubylcami”, ich znajomość technologii nie oznacza automatycznie rozwiniętych kompetencji korzystania z mediów cyfrowych. Safa Ghnaim, zastępczyni dyrektora programowego w Tactical Tech, międzynarodowej organizacji non profit wspierającej osoby i społeczności w zrozumieniu społecznych konsekwencji technologii cyfrowych, zwraca uwagę na to błędne przekonanie:

„Określenia w rodzaju »cyfrowi tubylcy« zdają się sugerować, że młodzi ludzie są biegli w korzystaniu z technologii, ponieważ na niej się wychowali. Sądzę jednak, że ludziom często błędnie się wydaje, że potrafią też trafnie odróżniać dezinformację czy zauważać oszustwa. A niekoniecznie tak jest. Tych umiejętności trzeba się dopiero nauczyć. Badania, które przeprowadziliśmy wśród nastolatków na temat nadziei i obaw, jakie wiążą z technologią, okazały się niezwykle pouczające. Część młodych ludzi wyraziła zaniepokojenie osłabieniem relacji międzyludzkich, co odzwierciedla skalę ich obaw”.

Dezintegracja. Jak nie ulegać rosyjskim prowokacjom (i nie wyrzec się praw człowieka)

Zdanie to podziela Helderyse Rendall, starsza koordynatorka poświęconego młodzieży projektu „What The Future Wants” w Tactical Tech: „Umiejętność młodych ludzi w zakresie korzystania z technologii często mylnie utożsamia się z głębszym zrozumieniem, jak technologia wpływa na relacje, wspólnoty i społeczeństwo w ogóle. To kwestie, które powinny być przedmiotem analizy i dyskusji w kontekstach sprzyjających refleksji nad własnymi relacjami i konsekwencjami, jakie mogą z nich płynąć”.

Dane potwierdzają te obawy. Z badania przeprowadzonego przez UE w 2022 roku wynika, że co trzeci uczeń w wieku 13 lat w Europie wykazuje brak podstawowych kompetencji cyfrowych podczas bezpośrednich testów. Ponadto, według danych OECD zaledwie nieco ponad połowa 15-letnich uczniów w UE miała zajęcia uczące rozpoznawania subiektywności lub stronniczości informacji.

Unia Europejska przejmuje inicjatywę

W odpowiedzi na rosnącą potrzebę Unia Europejska inicjuje programy, które mają promować umiejętności korzystania z mediów cyfrowych. Europejski Program na rzecz Umiejętności, który ogłoszono 1 lipca 2020 roku, promuje kompetencje cyfrowe dla wszystkich oraz wspiera założenia Planu Działań w dziedzinie Edukacji Cyfrowej. Plan ten ma na celu poprawę umiejętności cyfrowych i kompetencji w zakresie transformacji cyfrowej oraz wspieranie rozwoju systemu edukacji cyfrowej charakteryzującego się wysoką jakością.

Ponadto Cyfrowy Kompas i Plan Działania na rzecz Europejskiego Filaru Praw Socjalnych stawiają UE ambitne cele: zagwarantowanie, że minimum 80 proc. obywateli będzie miało podstawowe umiejętności cyfrowe, oraz zwiększenie liczby specjalistów w dziedzinie technologii informacyjno-komunikacyjnych (ICT) do 20 milionów do 2030 roku.

W październiku 2022 roku Komisja Europejska opublikowała wytyczne dla nauczycieli dotyczące promowania umiejętności cyfrowych i zwalczania dezinformacji w szkołach podstawowych i średnich. Ten zestaw narzędzi obejmuje trzy główne tematy: budowanie umiejętności cyfrowych, zwalczanie dezinformacji oraz ocenę i weryfikację umiejętności cyfrowych. Następnie, w lutym 2023 roku, Komisja opublikowała wytyczne dotyczące umiejętności korzystania z mediów, które mają na celu umożliwienie państwom członkowskim wymiany dobrych praktyk i raportowania działań na rzecz edukacji medialnej.

Chociaż UE wydała wytyczne, ich wdrożenie pozostaje w gestii poszczególnych państw członkowskich oraz ich systemów edukacyjnych, zgodnie z wymogami Dyrektywy o audiowizualnych usługach medialnych (AVMSD), która zobowiązuje państwa członkowskie do promowania edukacji medialnej oraz raportowania postępów w tym zakresie co trzy lata.

Jak wyjaśnia Helderyse Rendall: „Sposoby oceny tych kompetencji według UNESCO lub Unii Europejskiej są dobrze udokumentowane, ale ich zastosowanie w różnych kontekstach jest bardziej złożone. Badania, które opublikowaliśmy w zeszłym roku, wykazały, że niezależnie od wdrożonych ram umiejętność korzystania z mediów cyfrowych w znacznej mierze zależy od kontekstu. Młoda osoba w Niemczech różni się od młodej osoby w Portugalii”.

Pomimo tych wyzwań można zauważyć postęp – przynajmniej na poziomie międzynarodowym i lokalnym. Zdaniem Juliane z Lie Detectors „dużo się dzieje na poziomie UE, UNESCO i OECD. Podobnie wyróżniają się lokalne inicjatywy, w ramach których coraz większa liczba burmistrzów aktywnie współpracuje poprzez stowarzyszenia i organizuje działania takie jak Tygodnie Kompetencji Cyfrowych, które cieszą się ogromną popularnością”.

Juliane podkreśla potrzebę podjęcia działań na szczeblu krajowym: „Brakuje ogniwa pośredniego – działań, które powinny zostać podjęte przez rządy krajowe i regionalne. To tutaj pojawią się prawdziwe rozwiązania. Daje się jednak zauważyć pewne godne uwagi wyjątki. Skandynawia, zwłaszcza Finlandia, uchodzi za lidera w zakresie umiejętności korzystania z mediów, natomiast Austria dokonała postępu, nakładając obowiązek nauczania podstawowych umiejętności cyfrowych jako osobnego przedmiotu w szkołach”.

Postprawda: odporna na fakty

czytaj także

Oprócz edukacji formalnej istnieje rosnące zapotrzebowanie na nieformalne inicjatywy edukacyjne, które pomogą wypełnić tę lukę. Jak wskazuje Helderyse z Tactical Tech, wiele organizacji pracuje nad stworzeniem ram wspierających systemy edukacji w nauczaniu umiejętności korzystania z mediów cyfrowych.

Safa z Tactical Tech dodaje: „Istnieje autentyczna potrzeba nieformalnych, kreatywnych i współtworzonych inicjatyw takich jak nasze, które koncentrują się na krytycznym myśleniu i kompetencjach przekrojowych. Są to umiejętności, które umożliwiają młodym ludziom zrozumienie działania algorytmów, procesów zbierania danych oraz funkcjonowania sztucznej inteligencji. Podczas gdy obecne systemy edukacji koncentrują się na praktycznych zastosowaniach technologii, takich jak programowanie lub robotyka, należy równolegle uczyć umiejętności krytycznego myślenia”.

**
Seden Anlar jest dziennikarką, moderatorką, autorką i producentką podcastów. Pisze o zagadnieniach związanych z intersekcjonalną sprawiedliwością klimatyczną i społeczną. Wcześniej współpracowała z organizacjami prowadzącymi kampanie polityczne takimi jak Climate Action Network (CAN) Europe i wydawcami politycznymi, takimi jak „Green European Journal”. Mieszka w Brukseli.

Maria Luís Fernandes jest specjalistką ds. polityki i mediów. Zajmuje się problemami społecznymi, obywatelskimi i politycznymi. Współpracowała z różnymi organizacjami społeczeństwa obywatelskiego w Brukseli, a obecnie działa na rzecz programu Kreatywna Europa w Komisji Europejskiej. Po uzyskaniu tytułu licencjata prawa na NOVA School of Law podjęła studia magisterskie z zakresu komunikacji i mediów cyfrowych na Uniwersytecie w Tilburgu, gdzie zajmowała się badaniami nad dezinformacją.

Artykuł powstał pod opieką redakcji rekto:verso w ramach programu stypendialnego dla młodych dziennikarzy „Come Together”, prowadzonego przez czasopismo kulturalneGerador”.

Z angielskiego przełożył Tomasz Jurewicz | Voxeurop

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij