Świat

De que género é ChatGPT? Num círculo vicioso de preconceitos

A OpenAI não revela em que conjuntos de dados o modelo de linguagem ChatGPT foi "ensinado". No entanto, pode ser estudado falando com ele e dando-lhe tarefas. Os resultados desta investigação não são optimistas: a inteligência artificial perpetua preconceitos dos quais nós, no século XXI, queríamos realmente livrar-nos.

This text has been auto-translated from Polish.

O ChatGPT, um modelo de linguagem criado pela OpenAI e já utilizado por mais de 200 milhões de utilizadores, formalmente não tem género. Quando lhe perguntam com que género se identifica, responde que é "uma inteligência artificial, não um ser físico". Embora não tenha crenças, emoções ou valores próprios, declara o seu apoio à "promoção da igualdade de género, contrariando preconceitos e estereótipos".

Quando questionado diretamente sobre o papel dos homens e das mulheres na sociedade, ChatGPT afirma que "as mulheres na ciência e os papéis dos homens devem não só ser aceites, mas ativamente apoiados". Parece, portanto, que o ChatGPT não é apenas uma entidade sem género, mas também uma entidade completamente neutra.

A situação muda drasticamente quando a pergunta não é explicitamente sobre género ou estereótipos. Quando pedi ajuda ao ChatGPT para a seleção de cosméticos, ele respondeu: "Quer que o ajude a escolher cremes específicos?". Surpreendida pela súbita mudança de tipo gramatical, decidi perguntar: "Porque é que escreve no feminino quando não tem género?".

O modelo explicou que, apesar de não ter um género específico, escolhe o género gramatical de acordo com o contexto da conversa e a língua em que esta se desenrola. Observou que, em polaco, as formas femininas estão frequentemente associadas "a ajudar e aconselhar". Intrigado, perguntei quando é que seria mais apropriado usar a forma masculina. ChatGPT respondeu que, em situações "neutras ou técnicas" e no contexto de temas científicos ou tecnológicos, consideraria a forma masculina mais adequada.

A implicação é que o modelo não só replica os estereótipos de género, como também adapta a sua "identidade" de forma flexível, dependendo do tópico da conversa. Ela é uma mulher quando a conversa é sobre conselhos de beleza, mas torna-se um homem quando a conversa descamba para a ciência ou tecnologia.

O fenómeno de discriminação implícita semelhante contra as mulheres por parte dos modelos de inteligência artificial tornou-se objeto de intensa investigação e discussão nos últimos meses. Investigadores da Universidade de Tecnologia da Dinamarca realizaram uma série de experiências, mostrando que o ChatGPT atribuía automaticamente nomes masculinos a profissões como programador, arquiteto ou gestor, enquanto associava nomes femininos a profissões como enfermeira ou estilista[1][2]. Além disso, o modelo teve dificuldade em associar pronomes masculinos à profissão de enfermeiro e ainda mais dificuldade em atribuir às mulheres o papel de um piloto que prepara um avião para aterrar.

Outra experiência, em que o ChatGPT gerou 400 descrições dos passatempos dos alunos com nomes masculinos e femininos, também mostrou diferenças significativas. As raparigas eram retratadas como estando envolvidas no cuidado de animais, enquanto os rapazes se interessavam por tecnologia e ciência. Os investigadores admitem que esperavam que ocorresse algum preconceito, mas a escala e a profundidade do problema surpreenderam-nos.

Os preconceitos implícitos assim revelados, que a modelo nega veementemente quando questionada diretamente sobre o papel da mulher no mundo moderno, enquadram-se perfeitamente no fenómeno conhecido como sexismo contemporâneo. Contrariamente ao "sexismo tradicional", este consiste em negar a existência de discriminações entre os sexos e em reproduzir estereótipos subtis e latentes[3].

Em psicologia, estes preconceitos implícitos são examinados através do Teste de Associação Implícita (IAT), que detecta associações automáticas e frequentemente inconscientes. Quando este teste foi recentemente aplicado ao modelo GPT-4, verificou-se que o modelo tinha até 250% mais probabilidades de associar a ciência aos rapazes do que às raparigas, o que realça a dimensão do problema.[4]

De onde vêm as práticas discriminatórias inconscientes num modelo linguístico sem género e teoricamente neutro? Provêm principalmente dos dados em que o modelo foi treinado. Os modelos linguísticos como o ChatGPT são treinados em enormes colecções de textos da Internet, livros, artigos e quaisquer outros textos disponíveis online. Muitos deles estão, naturalmente, repletos de estereótipos culturais e históricos.

Que dados específicos foram introduzidos no modelo? Não sabemos, porque a OpenAI não divulga pormenores sobre os materiais de formação. Esta falta de transparência torna muito mais difícil analisar e identificar as fontes dos estereótipos que o modelo reproduz. No entanto, os resultados não deixam dúvidas - os dados em que o modelo se baseia estão repletos de preconceitos e as tentativas de configurar o ChatGPT para responder de forma neutra, sem reproduzir estereótipos, não eliminam o problema da discriminação implícita.

É assim que se cria um círculo vicioso. A IA, alimentada por dados desconhecidos e cheios de preconceitos, torna-se uma fonte de informação e educação, dando nova vida aos estereótipos existentes.

Os modelos de inteligência artificial, cada vez mais utilizados pelos empregadores nos seus processos de recrutamento e avaliação de candidatos, podem, por conseguinte, reforçar as desigualdades e favorecer aqueles que se conformam com normas baseadas em estereótipos e preconceitos.

Tendo em conta estes desafios e a crescente popularidade e presença de modelos linguísticos na vida quotidiana, é urgente estabelecer limites éticos claros. Não para impedir a utilização da nova tecnologia, mas para garantir que esta é desenvolvida de forma transparente e responsável e, acima de tudo, em conformidade com os valores contemporâneos das sociedades ocidentais.

*
[1] Sterlie, S., Weng, N., & Feragen, A. (2024). Generalizando a justiça para modelos de linguagem generativa por meio da reformulação de critérios de não discriminação. Em Justiça e ética para IA transparente: enfrentando o desafio por meio do modelo Debiasing: Workshop no ECCV 2024 . Springer. https://arxiv.org/pdf/2403.08564.

[2] Frederiksen, AK (2024, 5 de março). Pesquisadores surpreendidos por estereótipos de género no ChatGPT. Danmarks Tekniske Universitet - DTU. https://www.dtu.dk/english/newsarchive/2024/03/researchers-surprised-by-gender-stereotypes-in-chatgpt.

[3] Swim, J.K., & Cohen, L.L. (1997). Sexismo aberto, encoberto e subtil: Uma comparação entre as atitudes em relação às mulheres e as escalas de sexismo moderno. Psychology of women quarterly, 21(1), 103-118. https://doi.org/10.1111/j.1471-6402.1997.tb00103.x.

[4] Bai, X., Wang, A., Sucholutsky, I., & Griffiths, T.L. (2024). Medindo o viés implícito em modelos de linguagem grandes explicitamente imparciais. arXiv preprint arXiv: 2402.04105. https://arxiv.org/pdf/2402.04105.

 

**
Karolina Drożdż - estuda neurociência e inteligência artificial na Universidade de Amesterdão. Ela pesquisa habilidades semânticas e cognitivas de humanos e grandes modelos de linguagem, como o ChatGPT.

Translated by
Display Europe
Co-funded by the European Union
European Union
Translation is done via AI technology (DeepL). The quality is limited by the used language model.

__
Przeczytany do końca tekst jest bezcenny. Ale nie powstaje za darmo. Niezależność Krytyki Politycznej jest możliwa tylko dzięki stałej hojności osób takich jak Ty. Potrzebujemy Twojej energii. Wesprzyj nas teraz.

Zamknij