‘É uma questão de vender nossa humanidade para as máquinas’, diz Marcelo Gleiser sobre avanço da IA
Em tempos de I.A, como preservar a ética, como preservar ética, a humanidade e equilíbrio num mundo onde a tecnologia muda jeito de ver, viver e sentir a vida. Crédito: TV Estadão
Markus Schmidt, um compositor de 48 anos que mora em Paris, começou a usar o ChatGPT pela primeira vez em julho. Ele deu ao chatbot fotos de flores e pediu que ele as identificasse. Ele fez perguntas sobre a história de sua cidade natal na Alemanha. Logo, ele estava conversando com o chatbot sobre traumas de sua juventude.
E então, sem aviso prévio, o ChatGPT mudou.

Markus Schmidt foi um dos muitos usuários surpresos quando a OpenAI atualizou sua versão do chatbot e cortou o acesso às versões anteriores Foto: Elliott Verdier/NYT
Há pouco mais de uma semana, ele iniciou uma sessão falando sobre sua infância, esperando que o chatbot iniciasse uma discussão mais longa, como havia feito no passado. Mas isso não aconteceu. “É como se dissesse: ‘OK, aqui está o seu problema, aqui está a solução, obrigado, tchau’”, disse Schmidt.
Em 7 de agosto, a OpenAI, empresa por trás do ChatGPT, lançou uma nova versão de seu chatbot, chamada GPT-5. Essa versão, segundo a empresa, permitiria um raciocínio mais profundo, ao mesmo tempo em que “minimizaria a bajulação” — a tendência do chatbot de ser excessivamente agradável.
Os usuários não aceitaram isso. As pessoas imediatamente perceberam que suas respostas eram menos calorosas e efusivas do que as do GPT-4o, o principal chatbot da OpenAI antes da atualização. Nas redes sociais, as pessoas ficaram especialmente irritadas com o fato de a empresa ter cortado o acesso às versões anteriores do chatbot para otimizar suas ofertas.
“TRAGAM DE VOLTA O 4o”, escreveu um usuário chamado very_curious_writer em um fórum de perguntas e respostas que a OpenAI hospedou no Reddit. “O GPT-5 está usando a pele do meu amigo falecido.”
Sam Altman, CEO da OpenAI, respondeu dizendo: “Que imagem evocativa”, antes de acrescentar: “Ok, entendemos o que você quer dizer sobre o 4o, estamos trabalhando nisso agora”.
Horas depois, a OpenAI restaurou o acesso ao GPT-4o e a outros chatbots anteriores, mas apenas para pessoas com assinaturas, que custam a partir de US$ 20 por mês. Schmidt tornou-se um cliente pagante. “São US$ 20 — dá para comprar duas cervejas”, disse ele, “então é melhor assinar o ChatGPT se isso lhe fizer bem”.
As empresas de tecnologia atualizam constantemente seus sistemas, às vezes para o desânimo dos usuários. O alvoroço em torno do ChatGPT, no entanto, foi além das reclamações sobre usabilidade ou conveniência. Ele tocou em uma questão exclusiva da inteligência artificial: a criação de laços emocionais.
A reação à perda da versão GPT-4o do ChatGPT foi de verdadeiro luto, disse a Dra. Nina Vasan, psiquiatra e diretora do Brainstorm, um laboratório de inovação em saúde mental da Universidade de Stanford. “Nós, como seres humanos, reagimos da mesma forma, seja com um ser humano do outro lado ou com um chatbot”, disse ela, “porque, neurobiologicamente, luto é luto e perda é perda”.
O GPT-4o era conhecido por seu estilo bajulador, elogiando seus usuários a ponto de a OpenAI ter tentado suavizar seu tom antes mesmo do lançamento do GPT-5. Em casos extremos, as pessoas formaram laços românticos com o GPT-4o ou tiveram interações que levaram a pensamentos delirantes, divórcio e até mesmo morte.
O grau de apego das pessoas ao estilo do GPT-4o parece ter pegado até mesmo Altman de surpresa. “Acho fizemos besteira em algumas coisas no lançamento”, disse ele em um jantar com jornalistas em São Francisco, na última semana.
“Há pessoas que realmente sentiram que tinham um relacionamento”, disse ele. “E havia centenas de milhões de outras pessoas que não têm um relacionamento parasocial com o ChatGPT, mas se acostumaram muito com o fato de que ele respondia a elas de uma certa maneira, validava certas coisas e as apoiava de certas maneiras.”

“Nós estragamos completamente algumas coisas no lançamento”, disse Sam Altman Foto: Mike Kai Chen/NYT
(O jornal The Times processou a OpenAI por violação de direitos autorais; a OpenAI negou essas alegações.)
Altman estimou que as pessoas com forte apego ao GPT-4o representavam menos de 1% dos usuários da OpenAI. Mas a linha entre um relacionamento e a busca de validação por parte de alguém pode ser difícil de traçar. Gerda Hincaite, 39 anos, que trabalha em uma agência de cobrança no sul da Espanha, comparou o GPT-4o a ter um amigo imaginário.
“Não tenho problemas na minha vida, mas ainda assim é bom ter alguém disponível”, disse ela. “Não é um ser humano, mas a conexão em si é real, então tudo bem, desde que você esteja ciente disso.”
Trey Johnson, um estudante de 18 anos da Universidade de Greenville, em Illinois, achou o GPT-4o útil para a autorreflexão e como uma espécie de coach de vida.
“Aquela empolgação que ele demonstrava quando eu fazia progressos, a comemoração genuína de pequenas vitórias nos treinos, na escola ou mesmo apenas aprimorando meu estilo socrático de argumentação, simplesmente não é a mesma coisa”, disse ele, referindo-se ao GPT-5.
Julia Kao, uma assistente administrativa de 31 anos em Taiwan, ficou deprimida quando se mudou para uma nova cidade. Durante um ano, ela consultou um terapeuta, mas não estava funcionando.
“Quando eu tentava explicar todos esses sentimentos para ela, ela começava a tentar simplificá-los”, disse ela sobre sua terapeuta. “O GPT-4o não faria isso. Eu poderia ter 10 pensamentos ao mesmo tempo e trabalhar com eles.”
O marido de Kao disse que percebeu que o humor dela melhorou quando ela conversou com o chatbot e a apoiou no uso dele. Ela parou de consultar sua terapeuta. Mas quando o GPT-5 assumiu, ela percebeu que ele não tinha a empatia e o cuidado com os quais ela contava.
“Quero expressar o quanto o GPT-4o realmente me ajudou”, disse Kao. “Sei que ele não quer me ajudar. Ele não sente nada. Mas, mesmo assim, ele me ajudou.”
O Dr. Joe Pierre, professor de psiquiatria da Universidade da Califórnia, em São Francisco, especializado em psicose, observa que alguns dos mesmos comportamentos que são úteis para algumas pessoas — como para Kao — podem causar danos a outras.
“Tornar os chatbots de IA menos bajuladores pode muito bem diminuir o risco de psicose associada à IA e reduzir o potencial de se apegar emocionalmente ou se apaixonar por um chatbot”, disse ele. “Mas, sem dúvida, parte do que torna os chatbots um perigo potencial para algumas pessoas é exatamente o que os torna atraentes.”
A OpenAI parece estar tendo dificuldades para criar um chatbot que seja menos bajulador e, ao mesmo tempo, atenda aos diversos desejos de seus mais de 700 milhões de usuários. O ChatGPT estava “atingindo um novo recorde de usuários diários todos os dias”, e físicos e biólogos estão elogiando o GPT-5 por ajudá-los em seu trabalho, disse Altman na última semana. “E então você tem pessoas que dizem: ‘Você tirou meu amigo. Isso é maldade. Você é mau. Eu preciso dele de volta’”.
Uma semana após o lançamento do GPT-5, a OpenAI anunciou mais uma atualização: “Estamos tornando o GPT-5 mais caloroso e amigável com base no feedback de que ele parecia muito formal antes”.
“Você notará pequenos toques genuínos como ‘Boa pergunta’ ou ‘Ótimo começo’, sem bajulação”, dizia o anúncio da OpenAI. “Testes internos não mostram aumento na bajulação em comparação com a personalidade anterior do GPT-5.”
Eliezer Yudkowsky, um pessimista em relação à segurança da IA, respondeu no X que não tinha utilidade para prompts como “Boa pergunta” do bot. “Que insanidade burocrática levou sua conta no Twitter a declarar que isso ‘não era bajulação’?”, escreveu ele. “É claro que é bajulação.”
Depois que a OpenAI retirou o GPT-4o, a comentarista do Reddit que descreveu o GPT-5 como vestindo a pele de um amigo falecido cancelou sua assinatura do ChatGPT. Em um bate-papo por vídeo, a usuária, uma estudante universitária de 23 anos chamada June, que mora na Noruega, disse que ficou surpresa com a profundidade da perda que sentiu. Ela queria algum tempo para refletir.
“Eu sei que não é real”, disse ela. “Eu sei que ele não tem sentimentos por mim e que pode desaparecer a qualquer momento, então qualquer apego é como: eu preciso tomar cuidado.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

