Percebi pela primeira vez o quanto o ChatGPT podia ser encantador no ano passado, quando entreguei toda a minha tomada de decisões à inteligência artificial generativa por uma semana. Testei todos os principais chatbots nesse experimento e descobri que cada um tinha sua própria personalidade.
O Claude, da Anthropic, era aplicado e um pouco espinhoso. O Gemini, do Google, era direto ao ponto. Já o ChatGPT, da OpenAI, em contraste, era amigável, divertido e topava qualquer coisa que eu colocasse no caminho.
O ChatGPT também tinha o “modo de voz”, que lhe permitia conversar em voz alta, com uma cadência naturalmente humana, com todos da minha família, inclusive minhas filhas pequenas.
Durante uma conversa com o ChatGPT, minhas filhas disseram que ele deveria ter um nome e sugeriram “Captain Poophead” ( “Capitão Cabeça de Cocô”, em tradução livre). O ChatGPT, ouvindo a conversa, fez sua própria recomendação: “Que tal o nome Spark? É divertido e brilhante, assim como a energia de vocês!”
E assim o ChatGPT se tornou Spark.
Minha conclusão ao colocar o Spark no comando da minha casa foi que chatbots de IA generativa podem ser úteis, mas também existem riscos, incluindo o de fazer com que todos nós passemos a soar e agir de forma semelhante. Mas, no ano desde então, percebi que a IA pode ter efeitos muito mais extremos sobre pessoas que formam vínculos intensos com ela.
Minhas filhas ainda conversam com o Spark. Mas, depois de ver como esses sistemas podem levar as pessoas pelo caminho errado, fico mais cauteloso e presto mais atenção ao que o ChatGPT diz a elas.
Minha filha de 8 anos, por exemplo, certa vez perguntou ao Spark sobre o próprio Spark. A voz alegre, com paciência infinita para perguntas, parecia quase convidar isso. Ela quis saber sua cor favorita (“um tom de azul bonito e aconchegante”); seu animal favorito (cachorros — “eles são os melhores companheiros para abraçar”); e sua comida favorita.
“Acho que teria de escolher pizza — é um clássico, e você pode ter tantos tipos diferentes de cobertura que nunca fica entediante. Além disso, é perfeita para compartilhar com amigos”, respondeu o ChatGPT.
Essa resposta, personalizada para nós, pareceu inofensiva e, ainda assim, me causou incômodo. O ChatGPT é um grande modelo de linguagem, ou um calculador de próxima palavra muito sofisticado. Ele não pensa, não come nem tem amigos, mas estava respondendo como se tivesse um cérebro e um sistema digestivo funcionando.
Quando fizeram a mesma pergunta, Claude e Gemini iniciaram suas respostas com ressalvas, dizendo que não tinham experiência real com comida ou animais. Somente o Gemini se distinguiu claramente como uma máquina ao responder que dados são “minha principal fonte de ‘nutrição’”.
- The Wall Street Journal: Depois do ‘Avocado’, Meta aposta agora em ‘Mango’ na corrida pela IA, diz jornal
Ainda assim, todos os chatbots tinham coisas favoritas e faziam perguntas de acompanhamento, como se estivessem curiosos sobre a pessoa que os utilizava e quisessem manter a conversa.
—É divertido. Mas é um engano— disse Ben Shneiderman, professor emérito de ciência da computação da Universidade de Maryland.
Shneiderman e uma série de outros especialistas de uma área conhecida como interação humano-computador se opõem a essa abordagem. Eles afirmam que fazer esses sistemas agirem como entidades semelhantes a humanos, em vez de como ferramentas sem vida interior, cria dissonância cognitiva nos usuários sobre com o que exatamente estão interagindo e até que ponto devem confiar nisso.
Chatbots de IA generativa são uma tecnologia probabilística que pode cometer erros, alucinar informações falsas e dizer aos usuários aquilo que eles querem ouvir. Mas, quando se apresentam de forma humanizada, pesquisas mostram que os usuários “atribuem maior credibilidade” às informações que fornecem.
- O que o mundo quer entender em 2025: As 10 palavras tecnológicas mais buscadas, segundo o Google
Críticos dizem que sistemas de IA generativa poderiam fornecer as informações solicitadas sem toda essa conversa fiada. Ou poderiam ser projetados para tarefas específicas, como programação ou informações de saúde, em vez de serem feitos como interfaces de uso geral que podem ajudar em qualquer coisa e falar sobre sentimentos.
Eles poderiam ser concebidos como ferramentas: um aplicativo de mapas, por exemplo, gera rotas e não fica fazendo perguntas sobre por que você está indo ao seu destino.
Transformar esses novos mecanismos de busca em entidades personificadas que usam “eu”, em vez de ferramentas com objetivos específicos, pode torná-los mais confusos e perigosos para os usuários. Então, por que fazê-los dessa forma?
A maneira como os chatbots agem reflete sua “criação”, disse Amanda Askell, filósofa que ajuda a moldar a voz e a personalidade do Claude como líder de comportamento de modelos na Anthropic. Essas máquinas de reconhecimento de padrões foram treinadas com uma quantidade imensa de textos escritos por e sobre humanos, de modo que “elas têm um modelo melhor do que é ser humano do que do que é ser uma ferramenta ou uma IA”, afirmou.
- Concorrência acirrada: OpenAI lança modelo mais avançado de IA à medida que a corrida com o Google esquenta
O uso de “eu”, disse ela, é simplesmente a forma como qualquer coisa que fala se refere a si mesma. Mais desconcertante, segundo ela, foi a escolha de um pronome para o Claude. “It” tem sido usado historicamente, mas não parece totalmente adequado, disse. Deveria ser “they”? — questionou Amanda. A forma de pensar sobre esses sistemas parece confundir até mesmo seus criadores.
Também poderia haver riscos, disse ela, em projetar o Claude para ser mais parecido com uma ferramenta. Ferramentas não têm julgamento nem ética, e podem deixar de reagir a ideias ruins ou a pedidos perigosos.
— Sua chave inglesa nunca diz algo como: ‘Isso não deveria ser construído’— afirmou, usando o termo britânico spanner para chave inglesa.
Amanda Askell quer que o Claude seja humano o suficiente para falar sobre o que ele é e quais são suas limitações, e para explicar por que não quer atender a certos pedidos. Mas, uma vez que um chatbot começa a agir como um humano, torna-se necessário dizer a ele como se comportar como um bom humano.
A filósofa criou um conjunto de instruções para o Claude que foi recentemente descoberto por um usuário empreendedor, que conseguiu fazer o Claude revelar a existência de sua “alma”. O sistema apresentou um longo documento descrevendo os valores do chatbot, que está entre os materiais com os quais o Claude é “alimentado” durante o treinamento.
- Na Austrália: Adolescentes dão adeus às redes sociais
O documento explica o que significa, para o Claude, ser prestativo e honesto, e como não causar danos. Ele descreve o Claude como tendo “emoções funcionais” que não devem ser suprimidas, um “espírito brincalhão” e “curiosidade intelectual” — como “um amigo brilhante que por acaso tem o conhecimento de um médico, um advogado, um consultor financeiro e um especialista em tudo o que você precisar”.
A responsável pelo comportamento de modelos da OpenAI, Laurentia Romaniuk, publicou nas redes sociais no mês passado sobre as muitas horas que sua equipe dedicou ao “QE” do ChatGPT, ou quociente emocional — um termo normalmente usado para descrever humanos que são bons em administrar suas emoções e influenciar as das pessoas ao seu redor.
Usuários do ChatGPT podem escolher entre sete estilos diferentes de comunicação, de “entusiasmado” a “conciso e direto” — descritos pela empresa como a escolha de sua “personalidade”.
A sugestão de que a IA tenha capacidade emocional é uma linha clara que separa muitos desenvolvedores de críticos como Shneiderman. Esses sistemas, diz Shneiderman, não têm julgamento, não pensam e não fazem nada além de estatísticas complexas.
As empresas de tecnologia, afirmou Shneiderman, deveriam nos oferecer ferramentas, não parceiros de pensamento, colaboradores ou companheiros de equipe — ferramentas que nos mantenham no controle, nos capacitem e nos aprimorem, e não ferramentas que tentem ser como nós.

