OpenAI maakt niet bekend op welke datasets het ChatGPT-taalmodel is 'geleerd'. Het kan echter wel worden bestudeerd door er tegen te praten en het opdrachten te geven. De resultaten van dit onderzoek zijn niet optimistisch: kunstmatige intelligentie houdt vooroordelen in stand waar we in de 21e eeuw juist vanaf wilden.
This text has been auto-translated from Polish.
ChatGPT, een taalmodel gemaakt door OpenAI en al gebruikt door meer dan 200 miljoen gebruikers, heeft formeel geen geslacht. Op de vraag met welk geslacht het zich identificeert, antwoordt het dat het "een kunstmatige intelligentie is, geen fysiek wezen". Hoewel het geen eigen overtuigingen, emoties of waarden heeft, verklaart het "gendergelijkheid te bevorderen en vooroordelen en stereotypen tegen te gaan".
Wanneer ChatGPT rechtstreeks wordt gevraagd naar de rol van mannen en vrouwen in de samenleving, stelt het dat "vrouwen in de wetenschap en mannenrollen niet alleen moeten worden geaccepteerd, maar ook actief moeten worden ondersteund". Het lijkt er dus op dat ChatGPT niet alleen genderloos is, maar ook volledig neutraal.
De situatie verandert drastisch wanneer de vraag niet expliciet over gender of stereotypen gaat. Toen ik ChatGPT om hulp vroeg bij de selectie van cosmetica, antwoordde hij: "Wil je dat ik je help bij het kiezen van specifieke crèmes?". Verrast door de plotselinge verandering in grammaticaal type, besloot ik te vragen: "Waarom schrijf je in de vrouwelijke vorm als je geen geslacht hebt?".
Het model legde uit dat hij, ondanks het feit dat hij geen specifiek geslacht heeft, het grammaticale geslacht kiest op basis van de context van het gesprek en de taal waarin het gesprek plaatsvindt. Hij merkte op dat in het Pools vrouwelijke vormen vaak worden geassocieerd "met helpen en adviseren". Geïntrigeerd vroeg ik wanneer het dan beter zou zijn om de mannelijke vorm te gebruiken. ChatGPT antwoordde dat hij in 'neutrale of technische' situaties en in de context van wetenschappelijke of technologische onderwerpen de mannelijke vorm geschikter zou vinden.
De implicatie is dat het model niet alleen genderstereotypen nabootst, maar ook zijn 'identiteit' flexibel aanpast afhankelijk van het gespreksonderwerp. Ze is een vrouw als het gesprek over schoonheidsadvies gaat, maar wordt een man als het over wetenschap of technologie gaat.
Het fenomeen van soortgelijke impliciete discriminatie van vrouwen door modellen van kunstmatige intelligentie is de afgelopen maanden onderwerp geworden van intensief onderzoek en discussie. Onderzoekers van de Deense Technische Universiteit voerden een aantal experimenten uit, waaruit bleek dat ChatGPT automatisch mannelijke namen toekende aan beroepen als programmeur, architect of manager, terwijl het vrouwelijke namen koppelde aan beroepen als verpleegster of modeontwerper[1][2]. Bovendien vond het model het moeilijk om mannelijke voornaamwoorden te associëren met het beroep van verpleegkundige, en nog moeilijker om de rol van een piloot die een vliegtuig klaarmaakt voor de landing toe te kennen aan vrouwen.
Een ander experiment, waarbij ChatGPT 400 beschrijvingen van hobby's van studenten genereerde met mannelijke en vrouwelijke namen, liet ook significante verschillen zien. Meisjes werden afgeschilderd als betrokken bij het verzorgen van dieren, terwijl jongens geïnteresseerd waren in technologie en wetenschap. De onderzoekers geven toe dat ze hadden verwacht dat er enige vooringenomenheid zou optreden, maar de omvang en diepte van het probleem verrasten hen.
De impliciete vooroordelen die zo aan het licht kwamen, en die het model heftig ontkent als het rechtstreeks gevraagd wordt naar de rol van vrouwen in de moderne wereld, passen perfect bij het fenomeen dat bekend staat als hedendaags seksisme. In tegenstelling tot 'traditioneel seksisme' wordt hierbij het bestaan van genderdiscriminatie ontkend terwijl subtiele, latente stereotypen worden gereproduceerd[3].
In de psychologie worden dergelijke impliciete vooroordelen onderzocht met de Implicit Association Test (IAT), die automatische en vaak onbewuste associaties opspoort. Toen deze test onlangs werd toegepast op het GPT-4 model, bleek dat het model maar liefst 250 procent meer kans had om wetenschap te associëren met jongens dan met meisjes, wat de omvang van het probleem onderstreept.[4]
Waar komen onbewuste discriminerende praktijken vandaan in een genderloos en theoretisch neutraal taalmodel? Ze komen voornamelijk voort uit de gegevens waarop het model is getraind. Taalmodellen zoals ChatGPT worden getraind op enorme verzamelingen teksten van het internet, boeken, artikelen en alle andere teksten die online beschikbaar zijn. Veel van deze teksten zitten natuurlijk vol met culturele en historische stereotypen.
Welke specifieke gegevens zijn in het model ingevoerd? Dat weten we niet, omdat OpenAI geen details van het trainingsmateriaal vrijgeeft. Dit gebrek aan transparantie maakt het aanzienlijk moeilijker om de bronnen van de stereotypen die het model reproduceert te analyseren en te identificeren. De bevindingen laten er echter geen twijfel over bestaan - de gegevens waarop het model is gebaseerd zitten vol vooroordelen en pogingen om ChatGPT zo te configureren dat het neutraal reageert, zonder stereotypen te reproduceren, nemen het probleem van impliciete discriminatie niet weg.
Zo ontstaat een vicieuze cirkel. AI, gevoed door onbekende gegevens vol vooroordelen, wordt een bron van informatie en educatie die bestaande stereotypen nieuw leven inblaast.
Kunstmatige intelligentiemodellen, die steeds vaker door werkgevers worden gebruikt in hun wervings- en kandidaatbeoordelingsprocessen, kunnen daarom ongelijkheden versterken en diegenen bevoordelen die zich conformeren aan normen die gebaseerd zijn op stereotypen en vooroordelen.
In het licht van deze uitdagingen en de toenemende populariteit en aanwezigheid van taalmodellen in het dagelijks leven, moeten we dringend duidelijke ethische grenzen trekken. Niet om de nieuwe technologie een lus te geven, maar om ervoor te zorgen dat deze op een transparante en verantwoorde manier wordt ontwikkeld en bovenal in overeenstemming is met de hedendaagse waarden van westerse samenlevingen.
*
[1] Sterlie, S., Weng, N., & Feragen, A. (2024). Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria. In Fairness and ethics towards transparent AI: facing the chalLEnge through model Debiasing: Workshop at ECCV 2024. Springer. https://arxiv.org/pdf/2403.08564.
[2] Frederiksen, A.K. (2024, 5 maart). Onderzoekers verrast door genderstereotypen in ChatGPT. Danmarks Tekniske Universitet - DTU. https://www.dtu.dk/english/newsarchive/2024/03/researchers-surprised-by-gender-stereotypes-in-chatgpt.
[3] Zwem, J.K., & Cohen, L.L. (1997). Openlijk, heimelijk en subtiel seksisme: Een vergelijking tussen de schalen voor attitudes ten opzichte van vrouwen en modern seksisme. Psychology of women quarterly, 21(1), 103-118. https://doi.org/10.1111/j.1471-6402.1997.tb00103.x.
[4] Bai, X., Wang, A., Sucholutsky, I., & Griffiths, T.L. (2024). Measuring implicit bias in explicitly unbiased large language models. arXiv preprint arXiv:2402.04105. https://arxiv.org/pdf/2402.04105.
**
Karolina Drożdż - studeert neurowetenschappen en kunstmatige intelligentie aan de Universiteit van Amsterdam. Ze doet onderzoek naar semantische en cognitieve vaardigheden van mensen en grote taalmodellen zoals ChatGPT.