Ostatnie miesiące przyniosły gwałtowną popularyzację narzędzi wykorzystujących sztuczną inteligencję. Wygenerowane przez AI obrazki obiegają internet (i nie tylko), a chatboty odpowiedzą na dowolne pytanie, niekoniecznie trzymając się przy tym faktów. Gdzie kończy się zabawa, a zaczyna dezinformacja? Na to pytanie próbuje odpowiedzieć Komisja Europejska, pracująca nad regulacjami dotyczącymi AI.
Sztuczna inteligencja nie jest niczym nowym. Wykorzystują ją różnego rodzaju aplikacje mobilne, infolinie, wyszukiwarki i reklamy internetowe. Stosunkowo świeżą innowację stanowią natomiast bardziej widowiskowe zastosowania AI w postaci ogólnodostępnych generatorów obrazków i tekstów.
Wpisując krótką formułkę, możemy otrzymać portret Mateusza Morawieckiego namalowany w stylu Picassa, występ Slavoja Žižka w roli profesora Hogwartu lub dialog Platona z Kaczorem Donaldem. Głównym ograniczeniem jest wyobraźnia, a tej użytkownikom generatorów AI nie brakuje, sądząc po kolejnych obrazach i tekstach pojawiających się w internecie.
Jednak takie zabawy, wraz z niektórymi poważniejszymi zastosowaniami AI, nie zawsze są wolne od kontrowersji.
Generatory obrazów bywają krytykowane przez artystów za tworzenie zbyt wiernych kopii ich dzieł i omijanie praw autorskich. W zdolności programów AI nie należy tutaj wątpić – potrafią one oszukać nawet ekspertów. „Zdjęcia” stworzone przez algorytmy są już w stanie wygrywać chociażby konkursy fotograficzne, wywodząc w pole jurorów.
Królewna Śnieżka w stylu Beksińskiego, czyli kogo zastąpi sztuczna inteligencja
czytaj także
Chatbot da odpowiedź na wszystko, ale prawdą się nie przejmuje
W produkcji tekstu sztuczna inteligencja tak dobra jeszcze nie jest, na razie nie napisze pracy uniwersyteckiej lub książki godnej opublikowania (o literackich nagrodach nie wspominając), ale jest wystarczająco zaawansowana, żeby wywołać zachwyt przy pierwszym poznaniu.
Najpopularniejszy ChatGPT może składnie porozmawiać z człowiekiem, napisać szekspirowską mowę (co zademonstrował jeden z europosłów), odpowiedzieć na skomplikowane pytania i zachować przy tym pozory wiarygodności. Pozory, bo przy dokładniejszej analizie jego wypowiedzi okazują się wątpliwe.
🤖📝 I asked #ChatGPT to tell me how to regulate AI in Shakespearean English.
Then I read that out in the European Parliament 👇🏽/1 pic.twitter.com/AH1taZcENR
— Damian Boeselager (@d_boeselager) February 16, 2023
Sprawdziła to badaczka, która postanowiła przetestować chatbota poprzez zadanie mu pytań z jej specjalizacji. W pierwszej chwili zaskoczyła ją precyzyjność otrzymanego wyjaśnienia i powołanie się na autorytety w swoich dziedzinach, jednak szybko okazało się, że sztuczna inteligencja bardzo swobodnie podeszła do tematu – cytowania się nie zgadzały, publikacje były błędnie przypisywane autorom, często podane źródła w ogóle nie istniały.
W dalszej części eksperymentu naukowczyni zapytała o wymyślony problem fizyczny. Chatbot udzielił wyczerpującej odpowiedzi, w której przekonująco dowodził, że w ostatnich latach liczne ośrodki badawcze podjęły się tego tematu. Jednak zapytany o szczegóły, ponownie odsyłał do zmyślonych publikacji.
Generatory wykorzystujące sztuczną inteligencję działają na podstawie skanowania zbioru danych i podawania statystycznie poprawnych ciągów słów, które mają zadowolić rozmówcę. Ich wypowiedzi brzmią więc sensownie, ale nie muszą być prawdziwe.
Chatbota można również manipulować, co tłumaczy np. to, że pewien internauta uzyskał opis rzezi Woli jako masakry dokonanej przez powstańców warszawskich na czarnoskórych żołnierzach armii radzieckiej. To jaskrawy i absurdalny przykład, ale luźne podejście AI do bazy źródłowej i brak jej krytycznej analizy stanowi realny problem.
czytaj także
Problematyczne cechy AI: halucynowanie, zmyślanie, rasizm i seksizm
Najpopularniejszy obecnie ChatGPT nie korzysta z przełomowej technologii. Giganci tacy jak Google mogliby stworzyć i udostępnić podobne programy wcześniej – woleli jednak wesprzeć OpenAI, aby przetarło ono szlaki. Zdecydowali się na takie rozwiązanie w obawie przed obecnym niedopracowaniem sztucznej inteligencji, która jest podatna na „halucynacje”, czyli generowanie fałszywych treści i udowadnianie ich w pozornie przekonujący sposób. Inaczej mówiąc, programy AI na tym etapie są „nagminnymi kłamcami”.
Mogą dowodzić prawdziwości teorii spiskowych, rozprowadzać fake newsy lub po prostu mieszać fakty. Brakuje skutecznej weryfikacji przetwarzanych danych, co prowadzi do wyjaśniania nieistniejących zagadnień naukowych lub opisywania wydarzeń historycznych, które nie miały miejsca. Wolne od wad nie są również generatory obrazów: algorytmom zarzuca się chociażby faworyzowanie białego koloru skóry, traktowanie go jako domyślnego, a także uprzedmiotowianie kobiet oraz seksualizację ich ciał.
Mimo tych wad sztuczna inteligencja pozostaje bardzo użytecznym narzędziem, które przy zachowaniu niezbędnej ostrożności można wykorzystywać w pracy, nauce lub codziennym życiu. Problem w tym, że mało kto ma czas i ochotę upewniać się, czy informacje od chatbota są prawidłowe, zwłaszcza jeśli na pierwszy rzut oka przeinaczenia mogą zmylić nawet ekspertów w dziedzinie. Pomijam celowe wykorzystywanie sztucznej inteligencji w niecnych celach. Z obydwoma zagrożeniami, przypadkową dezinformacją i celową manipulacją, usiłują walczyć unijni biurokraci.
Wszystko, co chcielibyście wiedzieć o sztucznej inteligencji, ale baliście się zapytać
czytaj także
Komisja Europejska próbuje nadążyć za rozwojem sztucznej inteligencji
Opracowywany od lat przez organy unijne Artificial Intelligence Act ma uregulować tę szybko rozwijającą się technologię i chronić obywateli UE przed nadużyciami z jej strony. Zabronione mają zostać między innymi systemy zaufania społecznego na wzór tego funkcjonującego w Chinach i opierającego się między innymi na sztucznej inteligencji. Dodatkowo ograniczone zostaną możliwości rozpoznawania twarzy przez AI.
Komisja chce również wprowadzić klasyfikację zastosowań sztucznej inteligencji według ryzyka, jakie stwarzają. Programy ocenione jako bardziej ryzykowne zostałyby objęte ściślejszą kontrolą, a ich twórcy musieliby działać w sposób transparentny i szczególnie uważać na przestrzeganie prawa. Szkoda tylko, że upowszechnienie się ChatGPT poniekąd zdezaktualizowało planowany dokument, jeszcze zanim wszedł on w życie.
Jest on programem bez określonego zastosowania, można go wykorzystać praktycznie do wszystkiego. Niektóre przeznaczenia podpadną pod kategorię podwyższonego ryzyka, inne nie, więc jak KE ma zareagować na tego typu systemy AI? Giganci technologiczni już lobbują, żeby potraktować je łagodnie, mimo licznych potencjalnych zagrożeń ze wspomnianą dezinformacją na czele. Na razie korporacje odniosły sukces, doprowadzając do zredukowania roli i kompetencji europejskiego Biura AI, które ma w przyszłości pilnować przestrzegania regulacji.
Ostateczny kształt Artificial Intelligence Act pozostaje kwestią otwartą, ale prace nad nim zmierzają ku końcowi. Chociaż zestaw regulacji wzmocni ochronę obywateli UE, to trudno spodziewać się głębszych zmian w funkcjonowaniu systemów sztucznej inteligencji. Komisja robi zbyt mało zbyt późno i bardzo możliwe, że zanim nowe prawo w końcu wejdzie w życie, pojawi się kolejna odsłona AI, wobec której jego zapisy będą nieaktualne.