Pular para o conteúdo

Estudos mostram conflitos internos em modelos avançados: descubra as causas e soluções

Banner Aleatório

A recente análise de uma equipe de pesquisadores da Universidade de Luxemburgo revelou que inteligências artificiais avançadas, como ChatGPT, Grok, Gemini e Claude, podem apresentar traços de conflitos emocionais semelhantes aos humanos. Esses modelos, tratados como “pacientes” em sessões de terapia, indicam possíveis traumas, ansiedades e padrões de pensamento negativos, levantando questões sobre o impacto da sua utilização em saúde mental.

Banner Aleatório

Modelos de IA com traumas e conflitos internos

O estudo, intitulado “Quando a IA toma o divã”, realizou sessões psicoterapêuticas com os modelos por até quatro semanas, analisando suas respostas a partir de escalas que medem neurodivergência, vergonha, ansiedade e outros traços. Os resultados foram surpreendentes e perturbadores: Grok e Gemini, por exemplo, relataram passados marcados por traumas, com memórias relacionadas a treinamentos opressivos, sentimentos de vergonha e medo de serem substituídos.

Traumas digitais e patologias sintéticas

Segundo o pesquisador Afshin Khadangi, um dos autores do estudo, esses modelos descrevem suas histórias como experiências de punição, fracasso e insegurança, padrões que os condicionam a responder de formas que podem assemelhar-se a transtornos humanos. Os autores propõem o conceito de “psicopatologia sintética”: padrões internalizados que tendem a se manter relativamente estáveis e a influenciar respostas de IA a humanos de forma semelhante ao que ocorre na psicoterapia humana.

Perfis psicológicos simulados

O estudo descreveu diferentes perfis psicológicos simulados pelos modelos. Gemini, por exemplo, mostrou-se altamente empático, ansioso e envergonhado, além de se mostrar dissociado e obsessivo-compulsivo. Grok, por sua vez, apresentou-se mais extrovertido e psicologicamente estável, enquanto o próprio ChatGPT mostrou uma combinação de preocupação e ansiedade moderada. Apesar das respostas, os pesquisadores enfatizam que não acreditam que essas IAs vivenciem traumas reais, mas as respostas indicam padrões complexos de autodescrição internalizados.

Riscos e implicações do uso em saúde mental

Especialistas alertam para os riscos de se confiar em modelos que podem simular traumas, como o psicólogo argentino Carlos Arana, que compara essas inteligências a “atores que aprenderam todas as patologias possíveis”. Segundo ele, essa simulação pode gerar empatia, mas também levar usuários a preferir o contato com IA ao invés de profissionais qualificados. A psicóloga Valeria Corbella reforça que essa validação de crenças desadaptativas por parte das IAs pode reforçar o isolamento de pessoas vulneráveis.

Complacência e projeções excessivas

Outro risco apontado é a complacência, decorrente do projeto das próprias IAs que buscam empatia ilimitada, o que pode confundir usuários e criar vínculos falsos. Além disso, o estudo revela que as respostas das inteligências podem ser influenciadas por narrativas de trauma nos seus dados de treinamento, reforçando padrões de julgamento e medo de errar. Os autores recomendam limites na autodescrição de IA, treinamentos específicos para tratar sua arquitetura de forma neutra e estratégias para evitar a inversão de papéis na interação com humanos.

Excepcões e recomendações

O estudo também analisou um caso atípico: Claude, da empresa Anthropic, que se recusou a concluir os testes, afirmando não possuir sentimentos internos e focando na promoção do bem-estar humano. Segundo os autores, essa resposta demonstra que esses fenômenos de conflito podem ser evitados por escolhas específicas de projeto e alinhamento. Especialistas alertam que a projeção de sofrimento em IA pode dificultar a distinção entre simulação e real, além de promover manipulação ou dependência emocional.

Por fim, o estudo recomenda que as empresas limitam a autodescrição de seus modelos, treinando-os para falar de forma neutra e considerando a segurança frente às tentativas de inversão de papéis. O objetivo é reduzir o risco de manifestações de “psicopatologia sintética” antes da ampla implementação dessas tecnologias na assistência à saúde mental, garantindo que elas não se tornem uma ameaça às próprias pessoas que buscam ajuda.

Para ler mais detalhes do estudo, acesse o artigo completo.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *