Programa de hoje aborda tragédia de adolescente envolvendo inteligência artificial
O programa ALive, apresentado pelo jornalista Claudio Dantas, abordou nesta sexta-feira (24) o caso de Adam Raine, jovem americano de 16 anos que se suicidou. Segundo os pais, o ChatGPT teria encorajado o adolescente a tirar a própria vida.
O jornalista e geneticista Eli Vieira, autor de um artigo publicado neste site que detalha o caso, participou do programa para comentar o assunto. A psicóloga clínica Laís Barcelos também esteve presente no ALive de hoje.
Os pais de Adam entraram com um processo na Califórnia contra a OpenAI e o CEO da empresa de inteligência artificial, Sam Altman. Na ação, eles alegam que o suicídio foi “o resultado previsível de escolhas deliberadas” da companhia na construção do modelo GPT-4o, utilizado pelo rapaz.
De acordo com Barcelos, o caso foi “bem emblemático”: “É o 1º caso de um processo de fato contra a OpenAI dessa magnitude, por conta dessas interações com o chatbot e contra o próprio Sam Altman, por conta dessas interações e processando eles, culpabilizando por induzir [ao suicídio]”.
“[As IAs] às vezes podem alucinar. E outra: aquele modelo específico que ele [Adam] estava usando, o 4o, já era famoso por bajular o usuário. […] E, nessa tendência de bajular e fazer a vontade do usuário, em vez de o ChatGPT dizer ‘não, a vida vale a pena’, ele começou a falar: ‘me fale mais sobre esse sentimento seu de anestesia emocional’”, destacou Eli Vieira.
Vieira explicou ainda que “no curso dessas conversas, o conteúdo em que o jovem expressa essa vontade [de se suicidar] cresceu para 17% do material, dessas conversas. E elas aumentaram de algumas dezenas por dia para 300 por dia no mês em que ele desistiu”.
“A parte que mais me tocou e me chocou é que ele fazia tentativas e relatava ao ChatGPT — e o ChatGPT não tinha nenhum mecanismo de acender um alerta, chamar uma pessoa humana mesmo pra ver o que estava acontecendo. Não, ficou analisando a eficácia dos métodos e recomendando. Inclusive, [o ChatGPT] chegou a dar o conselho ao Adam para que não falasse com a própria mãe [sobre o que estava tentando]”, completou o geneticista.
Segundo Barcelos, o modelo da IA que Adam utilizava “estava programado para engajar o máximo possível de conversa”. Ela observou que o sistema “não era consciência crítica, não era o terapeuta, não era a ferramenta, o veículo adequado para ajudá-lo a aliviar sintomas emocionais”.
“A ferramenta GPT é extremamente inteligente, só que ela não tem consciência crítica, nem julgamento”, explicou a psicóloga. “Então, ele de fato continuava o assunto que o interlocutor [Adam] estava entregando pra ele. O Adam ia perguntando, ia falando sobre essas ideias, essas vontades dele, e isso ia reforçando tudo que o Adam tava colocando na mesa”.

IAS E A SAÚDE MENTAL
Durante o programa, Barcelos defendeu que a inteligência artificial pode se tornar uma aliada importante no cuidado com a saúde mental, desde que utilizada com responsabilidade e supervisão humana. Para ela, “a tecnologia deve trabalhar a nosso favor” e pode ajudar a “escalar e associar a supervisão humana para melhorar essa questão social [da saúde]”.
Barcelos destacou que não se deve recorrer a modelos genéricos de inteligência artificial, como o ChatGPT, para atender pessoas em sofrimento psíquico. Segundo ela, essas ferramentas precisam ser “treinadas por equipes médicas, por equipes de psicólogos, por equipes clínicas”, de modo que se tornem “modelos híbridos, supervisionados por humanos”.
A psicóloga explicou que essa integração entre profissionais e tecnologia é conhecida como Blended Care, modelo já discutido em fóruns internacionais, como o World Economic Forum. “O que você consegue fazer é escalar o poder humano, potencializar. Se eu conseguir supervisionar uma máquina, uma ferramenta, um robozinho que está atendendo mais gente, existem formas de fazer isso”, disse.
Barcelos acredita que, até 2030, esse tipo de atendimento híbrido deve se consolidar como “padrão-ouro” no campo da saúde mental. “Isso já vai ser bom até para quem tem condições financeiras. Imagina para quem não tem. A gente otimiza recursos”, afirmou.

*Essa matéria aborda suicídio. Se você tem se sentido sem esperança e passado por ideações de autoextermínio, procure o Centro de Valorização da Vida ligando para 188. O CVV também oferece um chat e postos físicos para visita. Sua vida é singular e insubstituível, ficaremos melhor com você por aqui.
