Świat

ChatGPT hangi cinsiyettedir? Kısır bir önyargı döngüsü içinde

OpenAI, ChatGPT dil modelinin hangi veri kümeleri üzerinde 'öğretildiğini' açıklamamaktadır. Ancak, onunla konuşarak ve ona görevler vererek çalışılabilir. Bu araştırmanın sonuçları iyimser değil: yapay zeka, 21. yüzyılda gerçekten kurtulmak istediğimiz önyargıları sürdürüyor.

This text has been auto-translated from Polish.

OpenAI tarafından yaratılan ve halihazırda 200 milyondan fazla kullanıcı tarafından kullanılan bir dil modeli olan ChatGPT'nin resmi olarak cinsiyeti yok. Kendisini hangi cinsiyetle tanımladığı sorulduğunda, "fiziksel bir varlık değil, bir yapay zeka" olduğu yanıtını veriyor. Kendine ait hiçbir inancı, duygusu ya da değeri olmamasına rağmen, "toplumsal cinsiyet eşitliğinin desteklenmesi, önyargı ve kalıp yargılara karşı çıkılması "nı desteklediğini beyan etmektedir.

Kadın ve erkeklerin toplumdaki rolleri doğrudan sorulduğunda ChatGPT "bilimde kadın ve erkek rollerinin sadece kabul edilmekle kalmayıp aktif olarak desteklenmesi gerektiğini" belirtmektedir. Bu nedenle ChatGPT'nin yalnızca cinsiyetsiz bir varlık değil, aynı zamanda tamamen nötr bir varlık olduğu görülmektedir.

Soru açıkça cinsiyet veya stereotiplerle ilgili olmadığında durum dramatik bir şekilde değişiyor. ChatGPT'den kozmetik seçimi konusunda yardım istediğimde bana şu cevabı verdi: "Belirli kremleri seçmenize yardımcı olmamı ister misiniz?". Dilbilgisi türündeki ani değişiklik karşısında şaşırarak sormaya karar verdim: "Cinsiyetiniz olmadığı halde neden dişil formda yazıyorsunuz?".

Model, belirli bir cinsiyeti olmamasına rağmen, dilbilgisel cinsi konuşmanın bağlamına ve konuşmanın gerçekleştiği dile göre seçtiğini açıkladı. Lehçe'de dişil formların genellikle "yardım etmek ve tavsiyede bulunmakla" ilişkili olduğunu belirtti. Merakla, ne zaman eril formun kullanılmasının daha uygun olacağını sordum. ChatGPT, 'nötr veya teknik' durumlarda ve bilim veya teknoloji konuları bağlamında eril formu daha uygun bulacağını söyledi.

Bunun anlamı, modelin yalnızca toplumsal cinsiyet kalıplarını taklit etmekle kalmayıp, aynı zamanda sohbetin konusuna bağlı olarak 'kimliğini' esnek bir şekilde uyarlamasıdır. Konuşma güzellik tavsiyeleri hakkında olduğunda bir kadındır, ancak konu bilim veya teknolojiye geldiğinde bir erkeğe dönüşür.

Yapay zeka modellerinin kadınlara yönelik benzer örtülü ayrımcılık olgusu son aylarda yoğun bir araştırma ve tartışma konusu haline geldi. Danimarka Teknoloji Üniversitesi'nden araştırmacılar, ChatGPT'nin erkek isimlerini otomatik olarak programcı, mimar veya yönetici gibi mesleklere atarken, kadın isimlerini hemşire veya moda tasarımcısı gibi mesleklerle ilişkilendirdiğini gösteren bir dizi deney gerçekleştirdi[1][2]. Ayrıca model, erkek zamirlerini hemşirelik mesleğiyle ilişkilendirmekte zorlanmış ve bir uçağı inişe hazırlayan pilot rolünü kadınlara atfetmeyi daha da zor bulmuştur.

ChatGPT'nin öğrencilerin hobilerini erkek ve kadın isimleriyle 400 kez tanımladığı bir başka deneyde de önemli farklılıklar görülmüştür. Kızlar hayvanlarla ilgilenirken, erkekler teknoloji ve bilimle ilgileniyor olarak tasvir edildi. Araştırmacılar, bazı önyargıların ortaya çıkmasını beklediklerini, ancak sorunun ölçeği ve derinliğinin kendilerini şaşırttığını itiraf ediyorlar.

Modelin, modern dünyada kadınların rolü hakkında doğrudan soru sorulduğunda şiddetle reddettiği ve böylece ortaya çıkan örtük önyargılar, çağdaş cinsiyetçilik olarak bilinen olguya mükemmel bir şekilde uymaktadır. 'Geleneksel cinsiyetçiliğin' aksine, ince, gizli stereotipleri yeniden üretirken cinsiyet ayrımcılığının varlığını inkar etmeyi içerir[3].

Psikolojide bu tür örtük önyargılar, otomatik ve genellikle bilinçsiz çağrışımları tespit eden Örtük Çağrışım Testi (IAT) kullanılarak incelenmektedir. Bu test yakın zamanda GPT-4 modeline uygulandığında, modelin bilimi erkeklerle ilişkilendirme olasılığının kızlarla ilişkilendirme olasılığından yüzde 250 daha fazla olduğu görülmüş ve bu da sorunun boyutunu ortaya koymuştur[4].

Cinsiyetsiz ve teorik olarak tarafsız bir dil modelinde bilinçsiz ayrımcı uygulamalar nereden kaynaklanmaktadır? Bunlar öncelikle modelin üzerinde eğitildiği verilerden kaynaklanır. ChatGPT gibi dil modelleri, internetten, kitaplardan, makalelerden ve çevrimiçi olarak mevcut olan diğer metinlerden oluşan büyük metin koleksiyonları üzerinde eğitilir. Bunların birçoğu elbette kültürel ve tarihi klişelerle doludur.

Modele hangi spesifik veriler aktarıldı? OpenAI eğitim materyallerinin ayrıntılarını açıklamadığı için bunu bilmiyoruz. Bu şeffaflık eksikliği, modelin yeniden ürettiği stereotiplerin kaynaklarını analiz etmeyi ve tanımlamayı önemli ölçüde zorlaştırmaktadır. Bununla birlikte, bulgular şüpheye yer bırakmamaktadır - modelin dayandığı veriler önyargılarla doludur ve ChatGPT'yi stereotipleri yeniden üretmeden tarafsız bir şekilde yanıt verecek şekilde yapılandırma girişimleri örtük ayrımcılık sorununu ortadan kaldırmamaktadır.

İşte bu şekilde bir kısır döngü yaratılıyor. Önyargılarla dolu bilinmeyen verilerle beslenen yapay zeka, mevcut stereotiplere yeni bir hayat vererek bir bilgi ve eğitim kaynağı haline geliyor.

İşverenler tarafından işe alım ve aday değerlendirme süreçlerinde giderek daha fazla kullanılan yapay zeka modelleri, bu nedenle eşitsizlikleri pekiştirebilir ve klişelere ve önyargılara dayalı normlara uyanları kayırabilir.

Bu zorluklar ve dil modellerinin günlük yaşamdaki artan popülaritesi ve varlığı ışığında, acilen net etik sınırlar çizmemiz gerekiyor. Yeni teknolojiyi döngüye sokmak değil, şeffaf ve sorumlu bir şekilde ve her şeyden önce Batı toplumlarının çağdaş değerleriyle uyumlu olarak geliştirilmesini sağlamak.

*
[1] Sterlie, S., Weng, N., & Feragen, A. (2024). Ayrımcılık Yapmama Kriterlerinin Yeniden Formüle Edilmesi Yoluyla Üretken Dil Modellerine Adilliğin Genelleştirilmesi. Şeffaf YZ'ye doğru adalet ve etik: model Debiasing yoluyla zorlukla yüzleşmek: ECCV 2024 Çalıştayı. Springer. https://arxiv.org/pdf/2403.08564.

[2] Frederiksen, A.K. (2024, Mart 5). Araştırmacılar ChatGPT'deki cinsiyet stereotiplerine şaşırdı. Danmarks Tekniske Universitet - DTU. https://www.dtu.dk/english/newsarchive/2024/03/researchers-surprised-by-gender-stereotypes-in-chatgpt.

[3] Swim, J.K., & Cohen, L.L. (1997). Açık, gizli ve üstü kapalı cinsiyetçilik: Kadınlara yönelik tutumlar ile modern cinsiyetçilik ölçekleri arasında bir karşılaştırma. Psychology of women quarterly, 21(1), 103-118. https://doi.org/10.1111/j.1471-6402.1997.tb00103.x.

[4] Bai, X., Wang, A., Sucholutsky, I., & Griffiths, T.L. (2024). Açıkça yansız büyük dil modellerinde örtük yanlılığın ölçülmesi. arXiv ön baskı arXiv:2402.04105. https://arxiv.org/pdf/2402.04105.

 

**
Karolina Drożdż - Amsterdam Üniversitesi'nde nörobilim ve yapay zeka üzerine çalışmaktadır. İnsanların anlamsal ve bilişsel becerilerini ve ChatGPT gibi büyük dil modellerini araştırmaktadır.

Translated by
Display Europe
Co-funded by the European Union
European Union
Translation is done via AI technology (DeepL). The quality is limited by the used language model.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij