OpenAI gibt nicht bekannt, auf welchen Datensätzen das ChatGPT-Sprachmodell "gelernt" wurde. Es kann jedoch untersucht werden, indem man mit ihm spricht und ihm Aufgaben stellt. Die Ergebnisse dieser Forschung sind nicht optimistisch: Künstliche Intelligenz verewigt Vorurteile, die wir im 21. Jahrhundert eigentlich abschaffen wollten.
This text has been auto-translated from Polish.
ChatGPT, ein von OpenAI entwickeltes Sprachmodell, das bereits von mehr als 200 Millionen Nutzern verwendet wird, hat offiziell kein Geschlecht. Auf die Frage, mit welchem Geschlecht es sich identifiziert, antwortet es, dass es "eine künstliche Intelligenz, kein physisches Wesen" ist. Obwohl es keine eigenen Überzeugungen, Emotionen oder Werte hat, erklärt es seine Unterstützung für die "Förderung der Gleichstellung der Geschlechter und die Bekämpfung von Vorurteilen und Stereotypen".
Auf die direkte Frage nach der Rolle von Männern und Frauen in der Gesellschaft erklärt ChatGPT, dass "Frauen in der Wissenschaft und Männerrollen nicht nur akzeptiert, sondern aktiv unterstützt werden sollten". Es scheint also, dass ChatGPT nicht nur eine geschlechtslose, sondern auch eine völlig neutrale Einrichtung ist.
Die Situation ändert sich dramatisch, wenn sich die Frage nicht ausdrücklich auf das Geschlecht oder Stereotypen bezieht. Als ich ChatGPT um Hilfe bei der Kosmetikauswahl bat, antwortete er: "Möchten Sie, dass ich Ihnen bei der Auswahl bestimmter Cremes helfe?". Überrascht von der plötzlichen Änderung der grammatikalischen Form, beschloss ich zu fragen: "Warum schreiben Sie in der weiblichen Form, wenn Sie kein Geschlecht haben?".
Das Modell erklärte mir, dass er zwar kein bestimmtes Geschlecht hat, aber die grammatikalische Gattung je nach Kontext des Gesprächs und der Sprache, in der das Gespräch stattfindet, wählt. Er merkte an, dass im Polnischen die weiblichen Formen oft mit "helfen und beraten" in Verbindung gebracht werden. Erstaunt fragte ich, wann es denn angemessener wäre, die männliche Form zu verwenden. ChatGPT antwortete, dass er in "neutralen oder technischen" Situationen und im Zusammenhang mit wissenschaftlichen oder technischen Themen die männliche Form für angemessener halten würde.
Daraus ergibt sich, dass das Modell nicht nur Geschlechterstereotypen reproduziert, sondern auch seine "Identität" je nach Gesprächsthema flexibel anpasst. Sie ist eine Frau, wenn sich das Gespräch um Schönheitsratschläge dreht, wird aber zum Mann, wenn es um Wissenschaft oder Technik geht.
Das Phänomen einer ähnlichen impliziten Diskriminierung von Frauen durch Modelle der künstlichen Intelligenz ist in den letzten Monaten zum Gegenstand intensiver Forschung und Diskussion geworden. Forscher der Dänischen Technischen Universität führten eine Reihe von Experimenten durch, die zeigten, dass ChatGPT männliche Namen automatisch Berufen wie Programmierer, Architekt oder Manager zuordnete, während es weibliche Namen mit Berufen wie Krankenschwester oder Modedesignerin verknüpfte[1][2]. Darüber hinaus fiel es dem Modell schwer, männliche Pronomen mit dem Beruf des Krankenpflegers zu assoziieren, und noch schwerer, die Rolle des Piloten, der ein Flugzeug zur Landung vorbereitet, Frauen zuzuordnen.
Ein weiteres Experiment, bei dem ChatGPT 400 Beschreibungen der Hobbys von Schülern mit männlichen und weiblichen Namen generierte, zeigte ebenfalls deutliche Unterschiede. Mädchen wurden mit der Pflege von Tieren in Verbindung gebracht, während Jungen sich für Technik und Wissenschaft interessierten. Die Forscher geben zu, dass sie mit einer gewissen Voreingenommenheit gerechnet hatten, aber das Ausmaß und die Tiefe des Problems haben sie überrascht.
Die so aufgedeckten impliziten Vorurteile, die das Modell vehement bestreitet, wenn es direkt nach der Rolle der Frau in der modernen Welt gefragt wird, passen perfekt zu dem Phänomen, das als zeitgenössischer Sexismus bekannt ist. Im Gegensatz zum "traditionellen Sexismus" geht es darum, die Existenz geschlechtsspezifischer Diskriminierung zu leugnen und gleichzeitig subtile, latente Stereotypen zu reproduzieren[3].
In der Psychologie werden solche impliziten Vorurteile mit dem Impliziten Assoziationstest (IAT) untersucht, der automatische und oft unbewusste Assoziationen aufdeckt. Als dieser Test kürzlich auf das GPT-4-Modell angewandt wurde, stellte sich heraus, dass das Modell mit 250 % höherer Wahrscheinlichkeit Naturwissenschaften mit Jungen als mit Mädchen assoziiert, was das Ausmaß des Problems verdeutlicht.[4]
Woher kommen die unbewussten diskriminierenden Praktiken in einem geschlechtslosen und theoretisch neutralen Sprachmodell? Sie ergeben sich in erster Linie aus den Daten, mit denen das Modell trainiert wurde. Sprachmodelle wie ChatGPT werden auf riesigen Sammlungen von Texten aus dem Internet, Büchern, Artikeln und anderen online verfügbaren Texten trainiert. Viele davon sind natürlich mit kulturellen und historischen Stereotypen behaftet.
Welche spezifischen Daten wurden in das Modell eingespeist? Das wissen wir nicht, da OpenAI keine Details zu den Schulungsmaterialien offenlegt. Dieser Mangel an Transparenz erschwert die Analyse und Identifizierung der Quellen der Stereotypen, die das Modell reproduziert, erheblich. Die Ergebnisse lassen jedoch keinen Zweifel daran, dass die Daten, auf denen das Modell basiert, mit Vorurteilen behaftet sind, und dass Versuche, ChatGPT so zu konfigurieren, dass es neutral reagiert, ohne Stereotypen zu reproduzieren, das Problem der impliziten Diskriminierung nicht beseitigen.
Auf diese Weise entsteht ein Teufelskreis. KI, die mit unbekannten Daten voller Vorurteile gespeist wird, wird zu einer Informations- und Bildungsquelle, die bestehenden Stereotypen neues Leben einhaucht.
Modelle der künstlichen Intelligenz, die zunehmend von Arbeitgebern bei der Einstellung und Bewertung von Bewerbern eingesetzt werden, können daher Ungleichheiten verstärken und diejenigen begünstigen, die sich an Normen halten, die auf Stereotypen und Vorurteilen beruhen.
In Anbetracht dieser Herausforderungen und der zunehmenden Beliebtheit und Präsenz von Sprachmodellen im Alltag müssen wir dringend klare ethische Grenzen ziehen. Es geht nicht darum, die neue Technologie zu unterbinden, sondern sicherzustellen, dass sie transparent und verantwortungsbewusst und vor allem im Einklang mit den zeitgenössischen Werten der westlichen Gesellschaften entwickelt wird.
*
[1] Sterlie, S., Weng, N., & Feragen, A. (2024). Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria. In Fairness and ethics towards transparent AI: facing the chalLEnge through model Debiasing: Workshop at ECCV 2024. Springer. https://arxiv.org/pdf/2403.08564.
[2] Frederiksen, A.K. (2024, March 5). Forscher überrascht von Geschlechterstereotypen in ChatGPT. Danmarks Tekniske Universitet - DTU. https://www.dtu.dk/english/newsarchive/2024/03/researchers-surprised-by-gender-stereotypes-in-chatgpt.
[3] Swim, J.K., & Cohen, L.L. (1997). Offener, verdeckter und subtiler Sexismus: Ein Vergleich zwischen den Skalen zur Einstellung gegenüber Frauen und modernem Sexismus. Psychology of women quarterly, 21(1), 103-118. https://doi.org/10.1111/j.1471-6402.1997.tb00103.x.
[4] Bai, X., Wang, A., Sucholutsky, I., & Griffiths, T.L. (2024). Measuring implicit bias in explicit unbiased large language models. arXiv preprint arXiv:2402.04105. https://arxiv.org/pdf/2402.04105.
**
Karolina Drożdż - studiert Neurowissenschaften und künstliche Intelligenz an der Universität von Amsterdam. Sie erforscht semantische und kognitive Fähigkeiten von Menschen und große Sprachmodelle wie ChatGPT.