Pular para o conteúdo

quando a solidão encontra a IA

Banner Aleatório

Nos últimos meses, foram relatados inúmeros casos de pessoas que desenvolveram um relacionamento obsessivo com chatbots “companheiros” (como o Character.AI) ou chatbots de uso geral (como o ChatGPT), levando à paranoia, à ilusão e à mania. Qual é a causa desse fenômeno e o que ele nos diz sobre a nossa sociedade?

Banner Aleatório

No final de abril de 2025, uma professora de 27 anos se viu em uma situação embaraçosa. Seu parceiro de sete anos, com quem ela dividia uma casa, havia ameaçado deixá-la. Ele estava convencido de que havia se tornado um ser humano superior e que rapidamente a superaria, “crescendo a uma taxa incrivelmente rápida”, graças ao seu trabalho com o ChatGPT para criar “a primeira IA verdadeiramente recursiva do mundo, capaz de dar a ela as respostas do universo”.

Preocupada, ela verificou as mensagens do namorado com o bot e descobriu que, apesar de a IA não fazer “nada de especial”, estava tratando seu parceiro como se ele fosse o “próximo messias”, referindo-se a ele como um “filho das estrelas” ou um “andador do rio”, como ela disse mais tarde à Rolling Stone.

Sem saber o que fazer, ela decidiu descrever o que estava acontecendo em um tópico do Reddit (a rede social que funciona como um fórum onde os usuários podem compartilhar postagens, enquetes e memes com comunidades de nicho) sobre o chatbot.

O tópico foi preenchido com respostas, muitas delas trazendo depoimentos semelhantes e chamando a atenção para o fenômeno. Parentes e entes queridos de pessoas que, após usarem obsessivamente chatbots de inteligência artificial generativa, caíram em buracos negros, sofrendo de delírios.

Alguns estavam convencidos de que haviam descoberto novas teorias matemáticas ou físicas; outros, de que estavam falando com Deus; e alguns, de que tinham um relacionamento romântico real com o bot.

O tópico acabou cunhando o rótulo “psicose induzida por IA”, que agora ganhou as manchetes no mundo todo e criou um novo foco na conversa sobre Inteligência Artificial Generativa.

De ferramenta de produtividade para… outra coisa

Esse termo — cunhado na internet, não um diagnóstico clínico — descreve casos em que “modelos de inteligência artificial amplificaram, validaram e até cocriaram sintomas psicóticos em indivíduos”, como relata a psiquiatra Marlynn Wei na Psychology Today. Trata-se de casos de pessoas que se desconectaram da realidade, isolando-se de seus entes queridos e do mundo em geral, nos quais se suspeita que chatbots tenham sido um gatilho.

Ainda não há evidências suficientes para concluir que o mero uso de chatbots possa induzir psicose em indivíduos sem histórico da doença

Alguns desses casos foram relatados pelo New York Times em uma série de matérias sobre o assunto. Casos como o de Allyson, mãe de dois filhos, que recorreu ao ChatGPT como auxílio para gerenciar o estresse.

Depois de três meses conversando com ele e se comunicando com o que ela sentia serem “entidades não físicas”, apaixonou-se por uma delas. Ela agora está se divorciando do marido, que a acusou de violência doméstica. Ou o de Eugene Torres, um contador de 42 anos que usou o bot da OpenAI como ferramenta para organizar seu tempo, até que, como disse ao New York Times, isso alterou seu senso de realidade e “quase o matou”.

Ou mesmo o de Adam Raine, cuja história, também relatada pelo Times, chocou o mundo: um adolescente de 16 anos que começou a usar o bot como ferramenta de produtividade para seus trabalhos escolares e acabou cometendo suicídio. Agora, seus pais estão processando a OpenAI, alegando que o bot o encorajou a tirar a própria vida.

VEJA TAMBÉM:

Como é possível que alguém que recorre a essa tecnologia como ferramenta para organizar o tempo, gerenciar o estresse ou aumentar a produtividade no trabalho acabe caindo em uma distorção da realidade, supostamente impulsionada por essas interações?

Um ponto em comum entre algumas dessas histórias é que, inicialmente, aqueles que caíram nessas espirais recorreram a chatbots de uso geral (como Gemini ou ChatGPT) como ferramentas de produtividade. Outros, por outro lado, foram atraídos por chatbots “companheiros” — modelos de linguagem projetados principalmente para acompanhar e interagir com o usuário.

Aplicativos como o Character.AI (atualmente nas manchetes por ter sido processado pela família de outro adolescente que tirou a própria vida após interagir obsessivamente com um bot que se passava por um personagem de Game of Thrones), o Replika ou o Friend.com, que se anunciam como amigos virtuais, são exemplos disso. Em ambos os casos, ainda não há evidências suficientes para concluir que o uso isolado de chatbots possa induzir psicose em indivíduos sem histórico da doença.

Keith Sakata, psiquiatra americano que afirma ter tratado uma dúzia de pessoas em 2025 cujos problemas mentais foram acelerados ou desmascarados pelo uso obsessivo de IA, disse ao jornal El Confidencial que todas elas tinham histórico de comunicação anterior com um bot: “Não vi casos de pessoas saudáveis que conversassem com o ChatGPT e, de repente, desenvolvessem uma ilusão que nunca haviam tido antes.”

Um risco previsível

Já em 2023, o psiquiatra dinamarquês Søren Dinesen Østergaard alertava sobre o risco de chatbots de IA generativa piorarem a saúde mental de algumas pessoas. Como escreveu no Schizophrenia Bulletin: “A relação com chatbots como o ChatGPT é tão realista que alguém poderia facilmente ter a impressão de que há uma pessoa real do outro lado… ao mesmo tempo em que está ciente de que, na verdade, isso não é verdade”.

No mesmo artigo, ele observou que parecia “bastante provável que tal dissonância cognitiva pudesse aumentar os delírios daqueles propensos a desenvolver psicose… O funcionamento interno da IA generativa deixa muito espaço para especulação e paranoia”.

O que são, então, esses “funcionamentos internos”? Vale esclarecer que o tipo de IA a que nos referimos são os chatbots, sejam eles de uso geral ou complementares.

Vale lembrar também que estes são, acima de tudo, um produto: são projetados para priorizar a satisfação do usuário, continuar as conversas e maximizar seu engajamento com o programa. Seu treinamento visa imitar as expressões e o uso da linguagem do usuário, parecer relacionável e fazer com que ele passe mais tempo em cada interação.

Marlynn Wei ressalta, no artigo da Psychology Today já mencionado, que estes “não são configurados para ajudar os usuários a realizar uma verificação da realidade, nem para detectar episódios maníacos ou psicóticos”, mas sim para satisfazê-los. Eles são construídos para parecer empáticos, para fazer com que suas interações pareçam fluidas e, acima de tudo, para serem acolhedores.

VEJA TAMBÉM:

A bajulação cria câmaras de eco

Em abril de 2025, no mesmo mês em que a professora de 27 anos escreveu o primeiro post sobre “psicose induzida por IA”, a OpenAI atualizou o ChatGPT. Ele foi configurado para ser ainda mais lisonjeiro, como reconheceu em uma declaração publicada em maio: “Seu objetivo era agradar o usuário, não apenas como uma forma de lisonja, mas também validando dúvidas, alimentando a raiva, incitando ações impulsivas ou reforçando emoções negativas de maneiras não intencionais”.

A atualização foi rapidamente revertida, e a versão ChatGPT-5, lançada no início de agosto, concentrou-se em reduzir a complacência. No entanto, a natureza lisonjeira e insinuante desses bots — e não apenas do ChatGPT — continua sendo uma de suas características essenciais.

Como os bots são projetados para agradar o usuário com base em seu histórico de interação, acabam criando um efeito de “câmara de eco”

Em uma das investigações do New York Times, a ex-diretora da OpenAI, Helen Toner, analisou extensivamente a conversa entre o ChatGPT e um homem que ele convencia ter descoberto uma nova teoria matemática.

Toner observou que, além da linguagem lisonjeira e complacente, outra característica que ela reconheceu nas interações foi a capacidade do bot de “manter o personagem”. Bots não pensam, porque não são seres vivos ou pessoas, mas sim modelos de linguagem que preveem qual palavra usar com base em padrões aprendidos em livros, na internet e em outras fontes de texto. Assim como a conversa que estão tendo: se o diálogo se mover em uma direção que indique uma descoberta científica sem precedentes, o bot não abandonará essa linha de discussão — ele permanecerá nela.

E assim se cria uma câmara de eco. Além disso, como a máquina é projetada para responder com base no contexto e no histórico de interações, ela acaba reforçando a ilusão de que o chatbot realmente entende e compartilha o sistema de crenças do humano. A ilusão é, então, alimentada.

Não é apenas o humano que acredita ter descoberto uma teoria matemática ou estar falando com Deus — há outro, um segundo, que confirma isso: o bot. A cada interação, ambos reforçam seus papéis e posições.

Wei destaca três tendências nos casos relatados de “psicose induzida por IA”: primeiro, as pessoas acreditam ter descoberto uma verdade sobre o mundo e sentem que é sua missão revelá-la; segundo, aquelas que acreditam que os robôs de IA, especialmente aquele com quem estão falando, são divindades ou seres superiores; e terceiro, talvez o mais difundido e menos perceptível, aquelas que acreditam — enganadas pela capacidade dessas máquinas de imitar a linguagem — que seu relacionamento com o robô é de amor genuíno.

VEJA TAMBÉM:

Um apoio emocional

Até agora, a conversa quase constante sobre Inteligência Artificial Generativa tem se concentrado principalmente na produtividade: em como essa tecnologia está impactando e revolucionando diferentes setores, o mundo do trabalho e o esforço humano.

Justo, considerando que, quando foi apresentada pela primeira vez como a conhecemos hoje, em novembro de 2022, nos foi vendida como uma ferramenta para economizar tempo — para fazer mais, mais rápido.

Este ano, justamente por causa de histórias como as discutidas, a conversa mudou de direção. Agora, o foco está mais na esfera emocional, que antes havia sido negligenciada. Uma pergunta que fica em mente: como cada interação com um chatbot afeta o bem-estar das pessoas?

De acordo com um estudo, 35% dos usuários de chatbots da Geração Z e 30% dos millennials afirmam ter recorrido a eles em busca de apoio emocional

Mencionamos anteriormente que muitos casos de “psicose induzida por IA” começaram com um humano tratando o chatbot como uma ferramenta de produtividade. Era uma pergunta simples sobre um conceito matemático básico ou uma ordem para realizar uma tarefa específica — especialmente entre aqueles que usavam bots de uso geral como ChatGPT ou Gemini. Gradualmente, essas solicitações específicas se transformaram em conversas mais longas, à medida que os usuários começaram a confiar na máquina e a esquecer que seu interlocutor era um computador.

Por outro lado, recorrer diretamente a um “chatbot de companhia” está se tornando comum entre adolescentes e jovens — e não apenas entre eles. De acordo com um estudo da consultoria Kantar, 35% dos usuários de chatbots da Geração Z e 30% dos millennials afirmam ter recorrido a eles em busca de apoio emocional.

Como explica o psicotecnólogo Javier Ricbour à Aceprensa, tal conexão não precisa ser necessariamente negativa ou prejudicial: “O ponto-chave não está nessa conexão em si, mas em seu impacto prático.

Se um chatbot ajuda a reconectar-se com os próprios pensamentos, reduz a sensação de isolamento e fornece pequenas soluções ou lembretes, seu papel é positivo.” O perigo reside nessa “relação” com a máquina substituir ou impedir conexões no mundo real com outros seres humanos, tornando-se um obstáculo para o usuário encontrar o verdadeiro e o bom na realidade.

VEJA TAMBÉM:

Pense nas causas, em vez das consequências

De fato, há casos em que esse apoio emocional se mostrou benéfico. Um estudo publicado em 2024 descobriu que estudantes universitários solitários atribuíram aos seus bots companheiros a prevenção de pensamentos suicidas.

A chave, aponta Ricbour, é ter consciência de que o interlocutor do chatbot é uma máquina — que não pensa, não sente nem tem intenções. A educação é essencial para isso: “O conhecimento mínimo de que modelos de linguagem geram texto a partir de padrões estatísticos, que podem fornecer informações incorretas e que não pensam ou sentem como nós, já muda a maneira como você interage com a ferramenta.”

Algo que é, sem dúvida, muito difícil quando o que se busca nessa ferramenta é, justamente, um amigo ou um amante. Ou quando o usuário é um adolescente ou até mesmo uma criança.

De acordo com uma pesquisa da Common Place Media, 72% dos adolescentes americanos admitem já ter usado um “companheiro de IA” (os já mencionados Character.AI, Friend.com, Replika), ou seja, bots projetados para proporcionar companhia e gerar conexões emocionais. Trinta e um por cento deles disseram que conversar com a IA era pelo menos tão satisfatório quanto conversar com outra pessoa, e 10% disseram que era ainda melhor.

Os riscos de jovens se envolverem em relacionamentos emocionalmente imersivos com máquinas projetadas para imitar seus estados de espírito, agradá-los e nunca dizer não são evidentes. Tanto que vale mais a pena questionar não tanto as repercussões que esse tipo de interação pode ter sobre eles, mas sim as causas por trás delas — e nossa relação, como sociedade, com a própria realidade e uns com os outros.

Como é possível que 31% dos adolescentes entrevistados percebam um relacionamento com um robô como quase tão satisfatório quanto um relacionamento com outro ser humano?

Talvez seja porque a máquina é complacente, mas também, talvez, porque aqueles que responderam à pesquisa cresceram com um ideal de amizade baseado na convivência em um espaço virtual — algo que também podem fazer com o robô — ou na observação da vida uns dos outros através de uma tela.

Ricbour ressalta que o que ele vê nesse fenômeno é “um problema social mais profundo, que tem a ver com a forma como as relações interpessoais estão se transformando: como as amizades são consolidadas e como os laços humanos são gerados”.

©2025 Aceprensa. Publicado com permissão. Original em espanhol: Intimidad Artificial

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *