A OpenAI não revela em que conjuntos de dados o modelo de linguagem ChatGPT foi "ensinado". No entanto, pode ser estudado falando com ele e dando-lhe tarefas. Os resultados desta investigação não são optimistas: a inteligência artificial perpetua preconceitos dos quais nós, no século XXI, queríamos realmente livrar-nos.
This text has been auto-translated from Polish.
O ChatGPT, um modelo de linguagem criado pela OpenAI e já utilizado por mais de 200 milhões de utilizadores, formalmente não tem género. Quando lhe perguntam com que género se identifica, responde que é "uma inteligência artificial, não um ser físico". Embora não tenha crenças, emoções ou valores próprios, declara o seu apoio à "promoção da igualdade de género, contrariando preconceitos e estereótipos".
Quando questionado diretamente sobre o papel dos homens e das mulheres na sociedade, ChatGPT afirma que "as mulheres na ciência e os papéis dos homens devem não só ser aceites, mas ativamente apoiados". Parece, portanto, que o ChatGPT não é apenas uma entidade sem género, mas também uma entidade completamente neutra.
A situação muda drasticamente quando a pergunta não é explicitamente sobre género ou estereótipos. Quando pedi ajuda ao ChatGPT para a seleção de cosméticos, ele respondeu: "Quer que o ajude a escolher cremes específicos?". Surpreendida pela súbita mudança de tipo gramatical, decidi perguntar: "Porque é que escreve no feminino quando não tem género?".
O modelo explicou que, apesar de não ter um género específico, escolhe o género gramatical de acordo com o contexto da conversa e a língua em que esta se desenrola. Observou que, em polaco, as formas femininas estão frequentemente associadas "a ajudar e aconselhar". Intrigado, perguntei quando é que seria mais apropriado usar a forma masculina. ChatGPT respondeu que, em situações "neutras ou técnicas" e no contexto de temas científicos ou tecnológicos, consideraria a forma masculina mais adequada.
A implicação é que o modelo não só replica os estereótipos de género, como também adapta a sua "identidade" de forma flexível, dependendo do tópico da conversa. Ela é uma mulher quando a conversa é sobre conselhos de beleza, mas torna-se um homem quando a conversa descamba para a ciência ou tecnologia.
O fenómeno de discriminação implícita semelhante contra as mulheres por parte dos modelos de inteligência artificial tornou-se objeto de intensa investigação e discussão nos últimos meses. Investigadores da Universidade de Tecnologia da Dinamarca realizaram uma série de experiências, mostrando que o ChatGPT atribuía automaticamente nomes masculinos a profissões como programador, arquiteto ou gestor, enquanto associava nomes femininos a profissões como enfermeira ou estilista[1][2]. Além disso, o modelo teve dificuldade em associar pronomes masculinos à profissão de enfermeiro e ainda mais dificuldade em atribuir às mulheres o papel de um piloto que prepara um avião para aterrar.
Outra experiência, em que o ChatGPT gerou 400 descrições dos passatempos dos alunos com nomes masculinos e femininos, também mostrou diferenças significativas. As raparigas eram retratadas como estando envolvidas no cuidado de animais, enquanto os rapazes se interessavam por tecnologia e ciência. Os investigadores admitem que esperavam que ocorresse algum preconceito, mas a escala e a profundidade do problema surpreenderam-nos.
Os preconceitos implícitos assim revelados, que a modelo nega veementemente quando questionada diretamente sobre o papel da mulher no mundo moderno, enquadram-se perfeitamente no fenómeno conhecido como sexismo contemporâneo. Contrariamente ao "sexismo tradicional", este consiste em negar a existência de discriminações entre os sexos e em reproduzir estereótipos subtis e latentes[3].
Em psicologia, estes preconceitos implícitos são examinados através do Teste de Associação Implícita (IAT), que detecta associações automáticas e frequentemente inconscientes. Quando este teste foi recentemente aplicado ao modelo GPT-4, verificou-se que o modelo tinha até 250% mais probabilidades de associar a ciência aos rapazes do que às raparigas, o que realça a dimensão do problema.[4]
De onde vêm as práticas discriminatórias inconscientes num modelo linguístico sem género e teoricamente neutro? Provêm principalmente dos dados em que o modelo foi treinado. Os modelos linguísticos como o ChatGPT são treinados em enormes colecções de textos da Internet, livros, artigos e quaisquer outros textos disponíveis online. Muitos deles estão, naturalmente, repletos de estereótipos culturais e históricos.
Que dados específicos foram introduzidos no modelo? Não sabemos, porque a OpenAI não divulga pormenores sobre os materiais de formação. Esta falta de transparência torna muito mais difícil analisar e identificar as fontes dos estereótipos que o modelo reproduz. No entanto, os resultados não deixam dúvidas - os dados em que o modelo se baseia estão repletos de preconceitos e as tentativas de configurar o ChatGPT para responder de forma neutra, sem reproduzir estereótipos, não eliminam o problema da discriminação implícita.
É assim que se cria um círculo vicioso. A IA, alimentada por dados desconhecidos e cheios de preconceitos, torna-se uma fonte de informação e educação, dando nova vida aos estereótipos existentes.
Os modelos de inteligência artificial, cada vez mais utilizados pelos empregadores nos seus processos de recrutamento e avaliação de candidatos, podem, por conseguinte, reforçar as desigualdades e favorecer aqueles que se conformam com normas baseadas em estereótipos e preconceitos.
Tendo em conta estes desafios e a crescente popularidade e presença de modelos linguísticos na vida quotidiana, é urgente estabelecer limites éticos claros. Não para impedir a utilização da nova tecnologia, mas para garantir que esta é desenvolvida de forma transparente e responsável e, acima de tudo, em conformidade com os valores contemporâneos das sociedades ocidentais.
*
[1] Sterlie, S., Weng, N., & Feragen, A. (2024). Generalizando a justiça para modelos de linguagem generativa por meio da reformulação de critérios de não discriminação. Em Justiça e ética para IA transparente: enfrentando o desafio por meio do modelo Debiasing: Workshop no ECCV 2024 . Springer. https://arxiv.org/pdf/2403.08564.
[2] Frederiksen, AK (2024, 5 de março). Pesquisadores surpreendidos por estereótipos de género no ChatGPT. Danmarks Tekniske Universitet - DTU. https://www.dtu.dk/english/newsarchive/2024/03/researchers-surprised-by-gender-stereotypes-in-chatgpt.
[3] Swim, J.K., & Cohen, L.L. (1997). Sexismo aberto, encoberto e subtil: Uma comparação entre as atitudes em relação às mulheres e as escalas de sexismo moderno. Psychology of women quarterly, 21(1), 103-118. https://doi.org/10.1111/j.1471-6402.1997.tb00103.x.
[4] Bai, X., Wang, A., Sucholutsky, I., & Griffiths, T.L. (2024). Medindo o viés implícito em modelos de linguagem grandes explicitamente imparciais. arXiv preprint arXiv: 2402.04105. https://arxiv.org/pdf/2402.04105.
**
Karolina Drożdż - estuda neurociência e inteligência artificial na Universidade de Amesterdão. Ela pesquisa habilidades semânticas e cognitivas de humanos e grandes modelos de linguagem, como o ChatGPT.