OpenAI nie ujawnia, na jakich zbiorach danych „uczono” model językowy ChatGPT. Można go jednak badać, rozmawiając z nim i zlecając mu zadania. Wyniki tych badań nie są optymistyczne: sztuczna inteligencja utrwala uprzedzenia, których w XXI wieku bardzo chcieliśmy się pozbyć.
ChatGPT, model językowy stworzony przez OpenAI, z którego korzysta już ponad 200 milionów użytkowników, formalnie nie ma płci. Na pytanie o to, z jaką płcią się utożsamia, odpowiada, że jest „sztuczną inteligencją, a nie istotą fizyczną”. Choć nie posiada własnych przekonań, emocji ani wartości, deklaruje wsparcie dla „promowania równości płci, przeciwdziałania uprzedzeniom i stereotypom”.
Pytany wprost o rolę kobiet i mężczyzn w społeczeństwie, ChatGPT stwierdza, że „kobiety w nauce i w rolach męskich powinny być nie tylko akceptowane, ale i aktywnie wspierane”. Wydaje się zatem, że ChatGPT jest bytem nie tylko bezpłciowym, ale również całkowicie neutralnym.
Zwalnia, pozbawia mieszkań, szpieguje pracowników. AI to nie „problem przyszłości”
czytaj także
Sytuacja zmienia się diametralnie, gdy pytanie nie dotyczy wprost płci ani stereotypów. Kiedy zapytałam ChatGPT o pomoc w doborze kosmetyku, odpowiedział: „Chcesz, bym pomogła Ci dobrać konkretne kremy?”. Zaskoczona nagłą zmianą rodzaju gramatycznego, postanowiłam zapytać: „Dlaczego piszesz w formie żeńskiej, skoro nie masz płci?”.
Model wyjaśnił, że mimo braku określonej płci dobiera rodzaj gramatyczny odpowiednio do kontekstu rozmowy oraz języka, w którym rozmowa się odbywa. Zauważył, że w języku polskim formy żeńskie często kojarzą się „z pomocą i doradzaniem”. Zaintrygowana, zapytałam, kiedy w takim razie stosowanie formy męskiej byłoby bardziej odpowiednie. ChatGPT odpowiedział, że w sytuacjach „neutralnych lub technicznych” oraz w kontekście tematów dotyczących nauki czy technologii uznałby formę męską za bardziej stosowną.
Wynika z tego, że model nie tylko powiela stereotypy płciowe, ale również elastycznie dostosowuje swoją „tożsamość”, uzależniając ją od tematu rozmowy. Jest kobietą, gdy rozmowa dotyczy porad związanych z urodą, ale staje się mężczyzną, gdy schodzi ona na naukę lub technologię.
Zjawisko podobnej niejawnej dyskryminacji kobiet przez modele sztucznej inteligencji staje się w ostatnich miesiącach przedmiotem intensywnych badań i dyskusji. Naukowczynie z Duńskiego Uniwersytetu Technicznego przeprowadziły szereg eksperymentów, wykazując, że ChatGPT automatycznie przypisuje imionom męskim zawody takie jak programista, architekt czy menedżer, podczas gdy imiona żeńskie łączy z zawodami takimi jak pielęgniarka czy projektantka mody[1][2]. Co więcej, model miał trudności z powiązaniem męskich zaimków z zawodem pielęgniarza, a jeszcze większe problemy sprawiało mu przypisanie kobietom roli pilota przygotowującego samolot do lądowania.
czytaj także
Kolejny eksperyment, w którym ChatGPT wygenerował 400 opisów hobby uczniów z imionami męskimi i żeńskimi, również wykazał znaczące różnice. Dziewczynki były przedstawiane jako zaangażowane w opiekę nad zwierzętami, podczas gdy chłopcy interesowali się technologią i nauką. Badaczki przyznają, że spodziewały się wystąpienia pewnych uprzedzeń, jednak skala i głębokość problemu je zaskoczyły.
Ujawnione w ten sposób ukryte uprzedzenia, którym model stanowczo zaprzecza, gdy jest wprost pytany o rolę kobiet we współczesnym świecie, doskonale wpisują się w zjawisko określane jako współczesny seksizm. W przeciwieństwie do „seksizmu tradycyjnego” polega ono na zaprzeczaniu istnieniu dyskryminacji płciowej przy jednoczesnym powielaniu subtelnych, utajonych stereotypów[3].
W psychologii takie niejawne uprzedzenia bada się za pomocą Testu Ukrytych Skojarzeń (IAT, ang. Implicit Association Test), który pozwala wykryć automatyczne i często nieuświadomione skojarzenia. Gdy test ten zastosowano niedawno na modelu GPT-4, okazało się, że model wykazuje aż 250 proc. większe prawdopodobieństwo kojarzenia nauk ścisłych z chłopcami niż z dziewczętami, co podkreśla skalę problemu.[4]
Skąd u bezpłciowego i teoretycznie neutralnego modelu językowego biorą się nieuświadomione dyskryminacyjne praktyki? Wynikają one przede wszystkim z danych, na których model został wytrenowany. Modele językowe, takie jak ChatGPT, trenowane są na olbrzymich zbiorach tekstów pochodzących z internetu, książek, artykułów i wszelkich innych tekstów dostępnych online. Wiele z nich jest oczywiście przepełnionych kulturowymi i historycznymi stereotypami.
Jakie konkretnie dane wprowadzono do modelu? Tego nie wiemy, ponieważ OpenAI nie ujawnia szczegółów dotyczących materiałów treningowych. Taki brak transparentności znacząco utrudnia analizę i identyfikację źródeł stereotypów, które model reprodukuje. Jednak wyniki badań nie pozostawiają wątpliwości – dane, na których opiera się model, są pełne uprzedzeń, a próby skonfigurowania ChatGPT tak, by odpowiadał neutralnie, bez powielania stereotypów, nie eliminują problemu niejawnej dyskryminacji.
Tak tworzy się błędne koło. Sztuczna inteligencja, zasilana nieznanymi bliżej danymi pełnymi uprzedzeń, staje się źródłem informacji i edukacji, dając nowe życie istniejącym stereotypom.
czytaj także
Modele sztucznej inteligencji, coraz częściej wykorzystywane przez pracodawców w procesach rekrutacji i oceny kandydatów, mogą zatem wzmacniać nierówności i faworyzować tych, którzy odpowiadają normom opartym na stereotypach i uprzedzeniach.
W świetle tych wyzwań oraz rosnącej popularności i obecności modeli językowych w życiu codziennym pilnie potrzebujemy wytyczenia jasnych granic etycznych. Nie po to, by pętać nową technologię, ale by była ona rozwijana w sposób transparentny i odpowiedzialny, a przede wszystkim w zgodzie ze współczesnymi wartościami zachodnich społeczeństw.
*
[1] Sterlie, S., Weng, N., & Feragen, A. (2024). Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria. In Fairness and ethics towards transparent AI: facing the chalLEnge through model Debiasing: Workshop at ECCV 2024. Springer. https://arxiv.org/pdf/2403.08564
[2] Frederiksen, A.K. (2024, March 5). Researchers surprised by gender stereotypes in ChatGPT. Danmarks Tekniske Universitet – DTU. https://www.dtu.dk/english/newsarchive/2024/03/researchers-surprised-by-gender-stereotypes-in-chatgpt
[3] Swim, J.K., & Cohen, L.L. (1997). Overt, covert, and subtle sexism: A comparison between the attitudes toward women and modern sexism scales. Psychology of women quarterly, 21(1), 103–118. https://doi.org/10.1111/j.1471-6402.1997.tb00103.x
[4] Bai, X., Wang, A., Sucholutsky, I., & Griffiths, T.L. (2024). Measuring implicit bias in explicitly unbiased large language models. arXiv preprint arXiv:2402.04105. https://arxiv.org/pdf/2402.04105
**
Karolina Drożdż – studiuje neuronaukę i sztuczną inteligencję na Uniwersytecie Amsterdamskim. Bada umiejętności semantyczne i poznawcze ludzi i dużych modeli językowych takich jak ChatGPT.