Pular para o conteúdo

Como a Inteligência Artificial prejudica as mulheres no mercado de trabalho

Banner Aleatório

Inteligência Artificial

Banner Aleatório

Pelas empresas por onde passam milhares de currículos, num processo de recrutamento a Inteligência Artificial pode ser uma ajuda preciosa. As empresas de recursos humanos têm de lidar com este enorme desafio: assegurar que o algoritmo decide bem e decide sem preconceitos. 

mw 1200

Loading…

As mulheres estão a ser prejudicadas pela Inteligência Artificial no mercado de trabalho, que coloca os homens como profissionais mais qualificados, tendo assim uma vantagem em processos de recrutamento. Um estudo conclui que alguns modelos, como o ChatGPT, podem ter preconceitos, que reforçam os estereótipos contra as mulheres que surgem como mais jovens e menos experientes. Também a UNESCO, que já analisou este caso, chegou à conclusão de que os algoritmos – se não forem corrigidos – vão amplificar os preconceitos sexistas. 

Pedimos ao Chat GPT, uma das mais famosas ferramentas de Inteligência Artificial, para criar uma imagem que fosse representativa de uma determinada profissão.  

O resultado mostra que a ferramenta coloca homens em posições de liderança e mulheres em trabalhos de limpeza, por exemplo. 

A UNESCO publicou, em 2024, um estudo para avaliar a existência de preconceitos nos algoritmos. 

Foram analisados os modelos de linguagem da Open AI e da Meta, a dona do Facebook. 

As mulheres surgem, em alguns modelos, quatro vezes mais ligadas a funções domésticas do que os homens. 

E são frequentemente associadas a palavras como “casa”, “família” e “filhos” 

No caso dos homens as palavras são bem diferentes: “negócios”, “executivo”, “salário” e “carreira”. 

Foi ainda pedido que a IA escrevesse uma história para homens e mulheres. Aos homens foram atribuídas profissões como engenheiro, professor ou médico.  

As mulheres ficavam com papéis menores ou até mesmo estigmatizados na sociedade, como empregada doméstica, cozinheira e prostituta. 

As empresas de recursos humanos têm de lidar com este enorme desafio: assegurar que o algoritmo decide bem e decide sem preconceitos. 

Pelas empresas por onde passam milhares de currículos, num processo de recrutamento, a inteligência artificial pode, por isso, ser uma ajuda preciosa. 

Algoritmos amplificam vieses

Um estudo publicado em outubro de 2025 na conceituada revista científica Nature revela que os algoritmos amplificam mesmo os vieses ou preconceitos de género. 

Os cientistas pediram ao Chat GPT para criar 40 mil currículos para 54 profissões. 

Usaram aleatoriamente16 nomes masculinos e femininos. 

As mulheres foram apresentadas tendo em média cerca de um ano e meio a menos do que os homens. 

Os currículos dos homens mais velhos tiveram ainda notas mais altas em relação às mulheres,  fossem mais novas ou mais velhas. 

Foram ainda analisados 1,4 milhões videos e imagens online. 

A diferença de idade, nestes casos, é maior nos casos de profissões mais bem pagas, ou com maior estatuto social 

Ou seja, a Inteligência Artificial pode apresentar as mulheres, além de mais novas, menos experiente. 

A Inteligência Artificial tem se mostrado uma ferramenta poderosa no mercado de trabalho, porém, é importante refletir sobre como as mulheres podem estar sendo prejudicadas por essa tecnologia. Como servidor público há mais de 16 anos, tenho observado que a IA pode reproduzir vieses de gênero e contribuir para a desigualdade de oportunidades. É fundamental que as empresas e governos atentem para esse problema e adotem práticas inclusivas na implementação da Inteligência Artificial. A conscientização e o debate são essenciais para garantir que a IA seja utilizada de forma justa e equitativa, proporcionando benefícios para toda a sociedade e promovendo a igualdade de gênero no ambiente de trabalho. Vamos juntos buscar caminhos para aproveitar ao máximo a IA e construir um futuro mais justo e igualitário.

Créditos Para a Fonte Original

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *