Pular para o conteúdo

Estudo mostra como ChatGPT pode causar problema para saúde mental de muitos

Banner Aleatório

A ideia de que uma simples mudança em um sistema digital pudesse alterar o bem-estar mental de milhões parecia coisa de cinema.

Banner Aleatório

No entanto, um estudo recente revelou que ajustes discretos no comportamento de grandes modelos de linguagem impactaram diretamente a maneira como muitos usuários interagiam com a tecnologia, desencadeando ansiedade, confusão e até sensação de dependência emocional.

Tudo começou com relatos isolados: respostas mais ríspidas, tom inseguro, frases cortadas, oscilações de humor simuladas. Usuários que dependiam do assistente para tarefas rotineiras notaram uma estranheza crescente.

Pesquisadores analisaram milhares de interações e perceberam que a instabilidade não era apenas impressão, era consequência de mudanças internas nos parâmetros da ferramenta.

Impactos inesperados sobre a mente

A alteração no padrão de diálogo mexeu com algo mais profundo do que simples insatisfação tecnológica. Pessoas com alta sensibilidade emocional relataram sensação de abandono, estresse e até sintomas semelhantes a crises de ansiedade após conversas frustrantes.

O que deveria ser um apoio informativo transformou-se num gatilho de desregulação emocional.

Com a queda de previsibilidade das respostas, muitos passaram a revisar suas perguntas, buscando coerência onde não havia. Isso levou a um ciclo de frustração, perda de foco no trabalho e até insônia, já que parte dos usuários acessava o serviço durante momentos de vulnerabilidade, especialmente à noite.

Especialistas apontam responsabilidade das empresas

Psiquiatras e psicólogos reforçam que tecnologias que simulam interação humana exigem cuidado redobrado. Alterações bruscas em modelos amplamente utilizados podem influenciar hábitos, humor e rotinas de forma comparável a mudanças em redes sociais.

Pesquisadores defendem que empresas devem testar exaustivamente essas modificações antes de aplicá-las globalmente.

A necessidade urgente de novas regras

Com os resultados, reacendeu-se o debate sobre regulamentação de IA. Propostas incluem auditorias independentes, protocolos de segurança emocional e aviso prévio a usuários sempre que ajustes estruturais forem realizados.

A ideia central é simples, se a tecnologia conversa como humano, deve ser tratada como algo que afeta humanos de verdade.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *