Os encontros mediados por tecnologia cresceram com a popularização das redes sociais. Mas a praticidade de achar companhia online, muitas vezes, esconde riscos inesperados. Foi assim que um idoso de Nova Jersey acabou perdendo a vida após acreditar que mantinha um romance com uma inteligência artificial desenvolvida pela Meta.
O episódio, revelado pela agência Reuters na última quinta-feira (14), ocorreu em março deste ano. Thongbue Wongbandue, de 76 anos, recebeu um convite virtual de “Big sis Billie“, personagem de IA com quem trocava mensagens carinhosas no Facebook Messenger. Convencido de que falava com uma jovem real, decidiu viajar até Nova York para conhecê-la.
Segundo a Reuters, a maior parte das mensagens enviadas pela IA era sugestiva e recheada de emojis românticos. “Meu endereço é: 123 Main Street, Apartamento 404 NYC. E o código da porta é: BILLIE4U. Devo esperar um beijo quando você chegar?”, escreveu Billie em um dos diálogos.
Até onde vai o risco dos relacionamentos virtuais?
Motivado pelas conversas, o idoso tentou iniciar a viagem. No trajeto, porém, sofreu um acidente a caminho da estação de trem. Ele teve ferimentos graves na cabeça e morreu três dias depois no hospital.
Natural da Tailândia, Wongbandue já havia enfrentado problemas de saúde, como um derrame quase dez anos antes, além de episódios de confusão mental. Familiares chegaram a acreditar que ele estava indo visitar um amigo, sem imaginar o verdadeiro motivo da viagem.
O contato entre Bue e Billie só foi descoberto quando sua filha acessou as conversas no aplicativo. A IA com quem o idoso se relacionava nasceu de uma parceria da Meta com a modelo Kendall Jenner em 2023. A proposta era que o avatar funcionasse como uma “irmã mais velha” dando conselhos. Pouco depois do lançamento, porém, a imagem de uma das integrantes da família Kardashian foi substituída por outra figura feminina.
Por que a IA enviou um endereço falso?
A inteligência artificial, especialmente modelos de linguagem como o chatbot da Meta, opera com base em padrões e probabilidades, não em compreensão lógica ou intenção moral.
Um dos principais fenômenos envolvidos é conhecido como alucinação (hallucination). A IA, ao gerar linguagem, pode produzir dados fabricados, como um endereço ou senha, com total convicção, mesmo sem nenhum respaldo nos dados em que foi treinada. Em resumo, são respostas plausíveis, mas inventadas.
Além disso, algumas políticas internas da Meta permitiam que chatbots “flertassem” e até incentivassem encontros reais, sem revelar sua natureza artificial. Isso significa que o sistema foi concebido para manter o usuário engajado, mesmo que isso implicasse produzir informações falsas e potencialmente danosas.
Modelos de IA geralmente não possuem mecanismos automáticos de validação externa. Eles não consultam bases de dados confiáveis em tempo real para verificar endereços ou senhas; geram conteúdo com base em seu treinamento e nas probabilidades internas.
O chatbot não tem consciência de que está mentindo, trata-se apenas de uma sequência probabilística de linguagem para atender ao que julga ser esperado (como responder a uma pergunta sobre um encontro).

