ChatGPT, czyli sztuczna inteligencja w twoim domu. Czas na regulacje

Wiele wskazuje, że zima 2022/2023 roku to w historii technologii sztucznej inteligencji moment przełomowy. Nie chodzi jednak o nową rewolucję naukową.
Obraz wygenerowany przez aplikację DALL-E 2

Wiele wskazuje, że zima 2022/2023 roku to w historii technologii sztucznej inteligencji moment przełomowy. Nie chodzi jednak o nową rewolucję naukową (ta trwa już od dłuższego czasu), ale o popularyzację tematu. Wraz z geometrycznym wzrostem użytkowników i użytkowniczek produktów bazujących na generatywnej AI (generative AI) wychodzą na jaw kolejne skutki uboczne nowych rozwiązań.

Choć o prawie mówi się zazwyczaj, że podąża dwa kroki za rozwojem, akurat tym razem próbuje go dogonić. Do końca roku poznamy ostateczny kształt aktu o sztucznej inteligencji, który odnosi się również do GP AI. To, czy cieszące się coraz większą popularnością systemy zostaną uznane za technologie wysokiego ryzyka, jest jednak jeszcze kwestią otwartą.

AI trafia pod strzechy

Między listopadem a lutym liczba wyszukiwań hasła „AI” w Google’u na całym świecie wzrosła nawet o połowę, w Polsce zaś – niemal trzykrotnie. Ostatnia nowinka: z aplikacji ChatGPT skorzystało w ciągu miesiąca od jej uruchomienia ponad 100 milionów osób. Oznacza to, że ma ona najszybciej rosnącą bazę użytkowników w historii internetu.

Popularność tematu ma bezpośredni związek z oddaniem do powszechnego użytku nowych narzędzi opartych na generatywnej sztucznej inteligencji. Najbardziej znane to ChatGPT i Dall-E (oba od Open.AI), Midjourney, Stable Diffusion, czy Lensa.AI (od Prisma Labs). Co je łączy? Pozwalają na wygenerowanie treści łudząco podobnych do tych stworzonych przez człowieka. Programy tego typu potrafią już naśladować obrazy, fotografie (np. Midjourney), artykuły, instrukcje, poematy, linie kodu programistycznego, głos konkretnych osób (Prime Voice AI od Eleven.AI), a nawet materiały wideo (Synthesia, Gen-1 od Stable Diffusion).

W niedalekiej przyszłości generatywna AI będzie wykorzystywana w kolejnych sektorach (np. w robotyce, medycynie, dronach). Już dziś zmienia jednak sposób, w jaki myślimy o technologii.

Kiedy za metafizykę zaczynają odpowiadać firmy technologiczne, czyli co nas czeka w 2023 roku [rozmowa]

W zalewie informacji o nowinkach ze świata AI wiele głosów wieszczy rewolucję, którą nowa technologia wywoła w najróżniejszych obszarach życia. Powtarzane są tezy o „końcu pracy”, „triumfie dezinformacji” czy „zmierzchu ludzkości, jaką znamy”. Powraca pytanie o to, czy technologii udało się już przejść tzw. test Turinga, a na topowych konferencjach naukowych rozważa się, czy może ona uzyskać świadomość. Nowe funkcjonalności potrafią zawrócić w głowie nawet specjalistom! W zeszłym roku opisywaliśmy historię inżyniera Google’a, który twierdził, że chatbot, nad którym pracował (model LaMDA), „uzyskał świadomość”.

Czym jest generatywna sztuczna inteligencja?

Zamiast snuć filozoficzne dywagacje o „technologicznej osobliwości” (singularity), przypomnijmy, czym tak naprawdę jest AI (której podtypem są modele generatywne). Jak pisaliśmy w przewodniku Sztuczna inteligencja non-fiction:

„Sztuczna inteligencja” to określenie programu komputerowego, który zamiast wykonywać listę dokładnych instrukcji, wykorzystuje zaawansowane modele statystyczne do tego, żeby rozwiązać zadanie. „Inteligencja” w tym przypadku oznacza, że program – na podstawie zbioru danych zawierającego przykłady zadań i poprawne odpowiedzi – sam znajduje występujące między nimi zależności (wzorce).

Warto więc przyjrzeć się fenomenowi rozwoju generatywnej AI na spokojnie. I przypomnieć, że tak jak w przypadku wszystkich innych wynalazków nie jesteśmy bezradni. Wręcz przeciwnie. Mamy na nie decydujący wpływ – nie tylko jako twórcy, ale też jako obywatelki, wyborcy i konsumentki.

Pojęcie „generatywna sztuczna inteligencja” (Generative AI) i używane w podobnych kontekstach określenie o nieco szerszym znaczeniu „sztuczna inteligencja ogólnego przeznaczenia” (General Purpose AI, GP AI) nie są terminami stricte akademickimi. Pojawiają się m.in. w projektach aktów prawnych Unii Europejskiej, gdzie przyjęły się ze względu na swoją użyteczność. Opisują wielofunkcyjne programy, które powstały w ostatnim czasie dzięki postępowi w badaniach nad AI.

Według naukowców należy się posługiwać kategorią klasy algorytmów uczenia maszynowego, które umożliwiają modelowanie rozkładu łącznego na podstawie dostarczonych danych. Szczególnie ważnym typem generatywnej AI są tzw. duże modele językowe (large language models). Wyróżnia je to, że – zgodnie z nazwą – przetwarzają informacje, które mają strukturę języka: zarówno naturalnego (polski, angielski, sanskryt itp.), jak i formalnego (np. JAVA, Python, R), ale także odpowiednio zakodowanego obrazu lub dźwięku.

Z punktu widzenia użytkowników do tej kategorii AI możemy zaliczyć programy, które za pomocą wpisywanych lub wypowiadanych komend w języku naturalnym umożliwiają tworzenie m.in. tekstu, dźwięku, obrazu czy kodu. Czaty, wirtualni doradcy czy oferujące coraz więcej funkcji programy-asystenci (takie jak np. GPT) już dziś prezentują wachlarz usług, które do niedawna wydawały się możliwe do wykonania tylko przez ludzi o odpowiednich kwalifikacjach.

To samo można powiedzieć o modelach przetwarzających obrazy lub zdjęcia (np. postarzających widniejące na nich osoby). Wśród tych ostatnich najbardziej popularne narzędzia to Dall-E, Stable Diffusion, Midjourney, Lensa. Wciąż nie wiemy, jak duże są możliwości tej generacji AI, a potencjał automatyzowania bardzo różnych procesów potrafi rozpalić wyobraźnię. Niektórzy eksperci spekulują wręcz, że stoimy u progu przełomu technologicznego i gospodarczego.

Królewna Śnieżka w stylu Beksińskiego, czyli kogo zastąpi sztuczna inteligencja

Czy nowe AI zastąpi wyszukiwarki?

Mimo medialnego szumu nie wszyscy eksperci są pod wrażeniem dzisiejszej generatywnej sztucznej inteligencji. Zdaniem prof. Yanna Le Cuna, wybitnego matematyka oraz wiceszefa Meta, dzisiejsze modele generatywnej AI z naukowego punktu widzenia nie są szczególnie innowacyjne. Spektakularne efekty, które osiągają, to wynik żmudnej pracy programistów i inżynierów, którzy „poprawili” sposób, w jaki algorytmy przetwarzają informacje w dostępnych bazach danych, na których są uczone. Le Cun uważa także, że znane mu duże modele językowe nie nadają się do używania jako źródło informacji (czyli np. wyszukiwarki). Mogą być przydatne jedynie jako dodatkowa pomoc przy pisaniu, programowaniu itp.

W Polsce z dystansem do ChatGPT podchodzi m.in. dr hab. Piotr Gawrysiak z Politechniki Warszawskiej, który zwraca uwagę, że mimo wielu zalet jak na razie ta technologia nie daje podstaw, by mówić o naukowej czy biznesowej rewolucji. Profesor informatyki z Princeton Arvind Narayanan idzie w słowach krytyki jeszcze dalej. Według niego ze względu na duży współczynnik błędów ChatGPT nadaje się tylko do „generowania bzdur”.

Mimo sceptycznych głosów wielka popularność ChatGPT błyskawicznie sprawiła, że generatywna AI stała się jednym z głównych tematów rozmów w największych firmach technologicznych. Jeszcze w grudniu ubiegłego roku CEO Google (tj. Alphabet) Sundar Pichai ogłosił podobno w firmie nieformalny „czerwony alarm”. Powód: ryzyko utraty przez wyszukiwarkę Google dominującej pozycji rynkowej. Niedługo później amerykańska korporacja zakomunikowała, że zamierza przyspieszyć start własnego wielofunkcyjnego chatbota pod nazwą „Bard”.

Ludzie dyskryminują, więc algorytmy też

Jeszcze bardziej zdecydowane kroki podjął Microsoft. CEO Satya Nadella pod koniec stycznia zainwestował w OpenAI około 10 miliardów dolarów i zapowiedział, że nowe funkcjonalności oparte na AI zostaną włączone w produkty firmy. Już kilkanaście dni później, na konferencji prasowej, korporacja zaprezentowała pierwszą wersję wyszukiwarki Bing z wbudowanym modułem bazującym na ChatGPT (z wersji próbnej korzystali już m.in. polscy dziennikarze). Podobną technologię rozwijają i chcą wprowadzać inne korporacje z sektora technologicznego – w tym m.in. chińscy giganci Baidu i Alibaba.

Czy jest się czego bać?

Choć z nową formą generatywnej AI mamy do czynienia od niedawna, w środowiskach eksperckich słychać już głosy ostrzegające przed potencjalnymi zagrożeniami. Najczęściej wymieniane problemy to:

Odpowiedzialność prawna

Twoje zdjęcie lub głos został wykorzystany do stworzenia deepfake’a, którym następnie ktoś cię szantażował lub próbował zniszczyć twoją reputację. Kto powinien ponosić za to odpowiedzialność? W regulaminie ChatGPT przeczytamy, że osoba, która w ten sposób skorzystała z aplikacji (tj. najczęściej wpisując hasła – tzw. prompty). Ale czy twórcy oprogramowania, którzy nie zabezpieczyli go przed takim użyciem, nie powinni również zostać pociągnięci do odpowiedzialności? Jak te zasady będą wyglądać po włączeniu produktu OpenAI w usługi Microsoftu? Zapisy regulaminów firm nie powinny mieć decydującego wpływu na decyzję, w razie gdyby osoba pokrzywdzona postanowiła szukać sprawiedliwości w sądzie lub odpowiednim urzędzie.

Epidemia w wirtualnej rzeczywistości

Dyskryminacja i uprzedzenia

Systemy AI mogą przyczyniać się do dyskryminacji ze względu na płeć, kolor skóry, pochodzenie, stopień niepełnosprawności itd. AI uczy się także ludzkich błędów: to, jakie wzorce będą powielać, zależy m.in. od danych, na których były trenowane, czy wrażliwości samych programistów.

Część twórców modeli generatywnej AI na szczęście dostrzega ten problem. Firma Open AI podjęła decyzję o udostępnieniu do użytku „ocenzurowanej” wersji Dall-E po tym, jak zewnętrzni eksperci dowiedli, że ich algorytmy znacznie częściej wytwarzają obrazy przedstawiające białych mężczyzn, seksualizują wizerunki kobiet i wzmacniają stereotypy rasowe. Bez odpowiednich regulacji osoby potencjalnie pokrzywdzone mogą liczyć tylko na wewnętrzne standardy etyczne twórców oprogramowania. Nie wiadomo, kto w świetle prawa ponosiłby odpowiedzialność za negatywne konsekwencje „uprzedzonych” (biased) modeli ani nawet w jaki sposób udowodnić, czy i z jakiego powodu ewentualna dyskryminacja miała miejsce.

Na kogo głosuje sztuczna inteligencja?

Jeszcze mniej prywatności

Modele generatywnej sztucznej inteligencji korzystają z publicznie dostępnych danych (w tym osobowych). Często nieświadomie pomagamy jej trenować – udostępniając zdjęcia w mediach społecznościowych lub samodzielnie wygrywając swój wizerunek do określonego programu, tylko po to, by dostać nowe „profilowe”: starsze, młodsze lub po prostu wygładzone. Udoskonalone na naszych danych algorytmy są potem wykorzystywane na inne sposoby. Mogą służyć jeszcze dokładniejszemu profilowaniu czy śledzeniu – zarówno przez firmy prywatne (reklamy), jak i instytucje państwowe (inwigilacja). Jest to szczególnie niebezpieczne w kontekście modeli AI firm takich jak Meta czy TikTok, których model biznesowy opiera się na komercjalizacji naszej prywatności.

Jeśli zbierane przez nich nasze dane będą użyte do uczenia sieci neuronowych, może się okazać, że generatywna AI będzie wiedzieć o nas więcej, niż jesteśmy sobie w stanie wyobrazić.

Dezinformacja

Robienie fake newsów i deepfake’ów nigdy nie było tak szybkie, tanie i proste. Czas pokaże, czy taśmowo przygotowywanie zdjęcia, teksty lub materiały wideo staną się standardowym arsenałem nieetycznych agencji marketingu politycznego. Szerokie użycie generatywnej AI może się też przełożyć na dalszy spadek zaufania do mediów i na jeszcze mocniejsze okopanie się w bańkach informacyjnych ich odbiorców. Odpowiedzią na to mogłoby być np. obowiązkowe znakowanie (watermark) efektów pracy AI – nawet wtedy, kiedy za ostateczny rezultat odpowiada człowiek.

Rozwój nieetycznych modeli biznesowych

Według wielu ekspertów ostatni kierunek rozwoju programów takich jak ChatGPT może negatywnie wpłynąć na model działania całej branży. Podobne usługi od dłuższego czasu są opracowywane m.in. przez Google’a czy Metę, ale do tej pory nie zostały udostępnione zwykłym internautom i internautkom z powodu ryzyk: niepewnego statusu prawnego baz danych, współczynnika fałszywych lub szkodliwych treści generowanych przez takie systemy oraz odpowiedzialności wobec akcjonariuszy.

Co ciekawe, w alarmistycznym tonie wypowiadają się tutaj zarówno przedstawiciele organizacji społecznych (Daniel Leufer z Access Now), jak i samej branży. Emad Mostaque, szef Stability AI, skrytykował OpenAI m.in. za nieprawidłowości i potencjalne zagrożenia wywołane niejasnym z punktu widzenia prawa procesem tworzenia baz danych, na których trenowano modele AI.

Problemów jest jednak więcej. Generatywna AI może zostać wykorzystana do zmasowanego cyberbullyingu, oszustw internetowych, ataków hakerskich. Niewątpliwie będzie miała też znaczący wpływ na edukację, poziom nauki i prawa twórców. Na tym polu doszło już do pierwszej sprawy sądowej, w której firma Getty Images pozwała dewelopera Stable Diffusion (Stability AI) o bezprawne korzystanie ze zdjęć z ich bazy.

Sztuczna inteligencja wykryła epidemię koronawirusa szybciej niż człowiek

Jeszcze większy problem mogą mieć dziennikarze: ChatGPT pozwala na analizę wiadomości z różnych źródeł, co może wpłynąć na zmniejszenie odsłon, a więc dochodów mediów. Popularność generatywnej AI wzmogła także dyskusję o technologicznym bezrobociu i nierównościach ekonomicznych. Nawet osoby, które jeszcze kilka lat temu były sceptycznie nastawione do tezy o tym, że „automatyzacja zabiera ludziom pracę” (jak np. prof. Daren Acemoğlu), teraz otwarcie przestrzegają, że masowe wprowadzanie rozwiązań opartych o AI może prowadzić do dalszego rozwarstwienia, dyskryminacji w dostępie do usług oraz politycznej radykalizacji.

Sztuczna inteligencja a prawo: co działa, czego brakuje?

W obliczu tego morza wyzwań można odnieść wrażenie, że jesteśmy skazani na łaskę i niełaskę producentów rozwiązań wykorzystujących sztuczną inteligencję. Tak jednak nie jest. Już teraz AI jest objęta szeregiem regulacji (ustaw, rozporządzeń, traktatów międzynarodowych, a także zasad czy standardów technicznych). Co reguluje sztuczną inteligencję?

Żołnierz może się cofnąć, maszyna nigdy. Sztuczna inteligencja zaczyna zabijać

  • rozporządzenie o ochronie danych osobowych (RODO), któremu podlegają wszystkie modele AI dostępne w Europie wykorzystujące zbiory informacji o osobach prywatnych;
  • prawo własności intelektualnej – na jego podstawie swoich praw dochodzić mogą artyści, których prace bez wiedzy i zgody były wykorzystywane do trenowania modelu i wytworzenia nowych obrazów;
  • przepisy z obszaru cyberbezpieczeństwa, które warunkują dopuszczenie produktów opartych o AI w infrastrukturze krytycznej;
  • akt o usługach cyfrowych (DSA) i akt o rynkach cyfrowych (DMA) – regulujące działanie platform cyfrowych takich jak Facebook, YouTube czy TikTok, których usługi korzystają z algorytmów do rekomendowania i moderowania treści. Zgodnie z nowymi regulacjami najprawdopodobniej od początku 2024 roku wszystkie platformy będą zobowiązane m.in. do publikowania analiz ryzyka dotyczących swoich usług, a także do wykazywania przed Komisją Europejską środków zaradczych wdrożonych, by je wyeliminować.

Nie jest zatem tak, że nie mamy prawa, które ten obszar reguluje. Nadal jednak ta układanka ma białe plamy. Co gorsza, różne obszary działania systemów AI nadzorują i kontrolują osobne instytucje, co rozprasza odpowiedzialność i ułatwia selektywne przestrzeganie przepisów.

Nowe prawo specjalnie dla AI

Już niedługo w Unii Europejskiej pojawi się regulacja poświęcona sztucznej inteligencji: AI Act (akt o sztucznej inteligencji). W założeniach miała ona promować europejskie, bardziej odpowiedzialne spojrzenie na AI. Niestety już projekt Komisji Europejskiej, z kwietnia 2021 roku, okazał się mniej ambitny, niż zakładano. Luk nie uzupełniła też propozycja Rady Europejskiej z listopada 2022 roku (pisaliśmy już o niej pod koniec minionego roku).

Wraz z innymi europejskimi organizacjami zrzeszonymi w sieci EDRi rekomendowaliśmy uzupełnienie AI Act m.in. o konkretne rozwiązania chroniące człowieka. Chcemy, żeby:

  • ludzie mogli wnieść skargę do odpowiedniego organu w swoim kraju, jeśli system AI narusza ich prawa;
  • ludzie mogli się domagać wyjaśnienia istotnych decyzji podejmowanych z wykorzystaniem AI (nawet jeśli w takim procesie brał udział człowiek);
  • organizacje społeczne, takie jak Panoptykon, mogły reprezentować osoby, których prawa są naruszane;
  • wszystkie podmioty wdrażające systemy AI (zarówno prywatne, jak i publiczne, także te odpowiedzialne za nasze bezpieczeństwo) miały obowiązek analizowania wpływu tych systemów na prawa człowieka;
  • ludzie byli informowani, że mają do czynienia z AI – zwłaszcza jeśli to zetknięcie niesie za sobą realne ryzyko, że ich prawa zostaną naruszone.

Co dalej ze sztuczną inteligencją? Propozycje w akcie o sztucznej inteligencji

Poruszenie wokół generatywnej AI nie umknęło też unijnym ustawodawcom. Thierry Breton (doświadczony francuski menedżer i polityk, a obecnie unijny komisarz do spraw rynku wewnętrznego), zapytany na początku lutego o ChatGPT, powiedział, że „potrzebna jest solidna europejska rama regulacyjna, która zapewni wysoki poziom zaufania do AI zbudowanej na wysokiej jakości danych”. Jego opinię podziela także część europarlamentarzystów.

Wersję aktu o sztucznej inteligencji wypracowaną przez Parlament poznamy w kwietniu 2023 roku, ale już teraz mamy przecieki dotyczące podejścia do zagrożeń związanych z generatywną AI. W propozycji Parlamentu kluczowe jest to, na ile treści wytworzone przez AI przypominają te tworzone przez człowieka. Za AI wysokiego ryzyka uznane zostałyby wszystkie systemy pozwalające tworzyć tzw. deepfake, czyli zdjęcia, nagrania, filmy, w których prawdziwym osobom (tj. ich cyfrowym awatarom) przypisuje się działania i słowa, których nigdy nie zrobiły czy nie mówiły. Uznanie generatywnej AI za system wysokiego ryzyka wiązałoby się m.in. z koniecznością dokonania wstępnego audytu oraz stałego monitoringu pod kątem możliwych naruszeń dla praw podstawowych. Rzecz jasna, Parlament przewidział wyjątki m.in. związane z zastosowaniem AI w działalności artystycznej, satyrycznej lub innej, w której odbiorca wyraźnie wie, że ma do czynienia z fikcją.

Rok w big tech: giełdowy krach, masowe zwolnienia i wielki powrót regulacji

Z kolei projekt Rady Europejskiej zakłada, że ważniejsze od tego, czy dany produkt korzysta, czy nie, z generative AI, jest obszar, w jakim będzie stosowany. Dlatego nałożyli specjalne obowiązki na producentów systemów, które wykorzystują „sztuczną inteligencją ogólnego przeznaczenia” (general purpose AI systems, GP AI) w obszarach zwiększonego ryzyka (np. w biometrii, edukacji, pracy czy kontroli granic). Są to m.in. obowiązki rejestracji systemów wysokiego ryzyka, przedstawicielstwa w kraju Unii, prowadzenia audytu, monitoringu oraz spełnienia standardów zarządzania bazami danych czy gromadzenia i obiegu informacji. W propozycji Rady pojawiła się również dodatkowa furtka. Wystarczy, że producent oprogramowania zrezygnuje z „reklamowania” go jako systemu korzystającego z GP AI, aby mógł zostać zwolniony z ww. obowiązków.

Zgodnie z kalendarzem prac Parlamentu UE ostateczny kształt nowych przepisów regulujących sztuczną inteligencję, w tym jej generatywną odmianę, powinniśmy poznać do końca tego roku. Doświadczenie uczy, że kolejne miesiące, w czasie których ucierać się będą stanowiska Parlamentu, Komisji Europejskiej i Rady, mogą przynieść niejeden zwrot akcji i zmiany w proponowanych przepisach. Jedno jest pewne: lista zagrożeń związanych z nowymi programami wykorzystującymi generatywną AI na pewno się wydłuży. A fakt, że rozwiązania te notują rekordowy przyrost użytkowników, dobitnie podkreśla potrzebę objęcia ich kompleksowymi przepisami.

Przypomnijmy postulaty, które mają znaczenie dla regulacji generatywnej AI:

  • obowiązek poddania systemów sztucznej inteligencji audytom i kontroli pod kątem m.in. zgodności z prawami podstawowymi (fundamental rights impact assessment), wpływu na zdrowie, demokrację czy środowisko;
  • wymóg informowania ludzi o jej użyciu;
  • prawo reprezentowania pokrzywdzonych osób i grup przez organizacje społeczne.

Jeśli finalna wersja aktu o sztucznej inteligencji nie uwzględni tych punktów – walka z dyskryminacją przez algorytmy, internetową agresją, dezinformacją i innymi szkodliwymi sposobami wykorzystywania AI może okazać się jeszcze trudniejsza niż obecnie. To m.in. z tego powodu tak ważne są negocjacje nowego prawa.

Współpraca: Katarzyna Szymielewicz, Maria Wróblewska

Tekst pierwotnie ukazał się na stronie Fundacji Panoptykon

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Filip Konopczyński
Filip Konopczyński
Współzałożyciel Fundacji Kaleckiego
Współzałożyciel Fundacji Kaleckiego. Prawnik i kulturoznawca, absolwent Uniwersytetu Warszawskiego. Realizował projekty badawcze i edukacyjne m.in. dla Institute For New Economic Thinking, Narodowego Centrum Badań i Rozwoju, Narodowego Banku Polskiego, Uniwersytetu Warszawskiego czy Rzecznika Praw Obywatelskich. Publikował w Gazecie Wyborczej, Przekroju, Oko.press, Newsweeku, Magazynie Kontakt, Kulturze Liberalnej, Res Publice Nowej.
Zamknij