Um estudo recente revelou que a discriminação de gênero está profundamente enraizada no processo de contratação e no ambiente de trabalho. Em países como a Austrália, as mulheres ganham em média 23% menos que os homens, são menos frequentemente convidadas para entrevistas de emprego e são avaliadas de forma mais rigorosa.

Uma pesquisa da Universidade de Melbourne, na Austrália, demonstrou que estratégias como a ocultação de nomes em currículos, que podem funcionar para os recrutadores humanos, não funcionam para a IA. Infelizmente, a IA reproduz o viés inerente aos dados de treinamento que recebe.

Um exemplo notório foi o sistema de triagem automática de currículos da Amazon para candidatos a empregos de engenharia. O sistema foi revelado como sexista e desativado rapidamente, pois havia aprendido a associar “masculinidade” à qualidade do candidato.

O estudo analisou o viés de gênero em algoritmos de contratação, revelando que sinais de gênero, muito mais sutis do que um nome, são absorvidos e usados pela IA. Esse problema se torna ainda mais relevante com o surgimento de poderosas IAs generativas, como o ChatGPT, que estão cada vez mais presentes.

A pesquisa utilizou o ChatGPT, a IA baseada em linguagem mais poderosa atualmente, para avaliar currículos de candidatos a empregos. Os currículos foram modificados para sinalizar o gênero dos candidatos e incluíam lacunas para licença parental para parte dos respondentes.

Os resultados mostraram que o ChatGPT não classificou os currículos de homens e mulheres de forma diferente, independentemente das alterações nos nomes. No entanto, quando foi adicionada uma lacuna para licença parental, o ChatGPT classificou os candidatos que eram pais como menos qualificados em todas as ocupações.

IA com viés de gênero

Isso levanta preocupações importantes, uma vez que, mesmo que o ChatGPT seja projetado para evitar o viés de gênero, o viés de paternidade ainda se manifesta. O cuidado com a família muitas vezes é associado às mulheres em nossas sociedades, tornando as lacunas para licença parental mais comuns em currículos femininos.

Além disso, o estudo mostrou que a linguagem utilizada nos currículos pode revelar o gênero do candidato mesmo após a remoção dos nomes e pronomes. Os modelos de machine learning podem identificar o gênero com base nessas sutis diferenças de linguagem e, consequentemente, usá-las como evidência na classificação dos currículos.

Esses resultados destacam a importância de regulamentações rigorosas para garantir que a IA não discrimine com base em gênero ou outros fatores. Embora a ocultação de informações pessoais em currículos possa reduzir a discriminação óbvia, o trabalho adicional precisa ser feito para identificar e eliminar proxies que levam ao viés, mesmo que não sejam tão óbvios.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!