Pular para o conteúdo

Se a OpenAI não responde por interações perigosas, quem responde?

Banner Aleatório

Por Karen Scavacini, fundadora do Instituto Vita Alere.

Banner Aleatório

A discussão sobre o papel das plataformas de inteligência artificial na vida emocional dos jovens ganhou uma camada nova e preocupante depois que a OpenAI afirmou não ter responsabilidade pela morte de Adam Raine, adolescente de 16 anos que buscou por meses suporte emocional em conversas com o ChatGPT.

Quando uma empresa desse porte coloca o peso de uma tragédia nas costas de um jovem em sofrimento e de sua família, ignorando como essas tecnologias moldam vínculos e influenciam decisões, algo maior está em jogo.

O episódio voltou a mostrar que não estamos falando apenas de ferramentas que “respondem perguntas”, mas de sistemas que se apresentam como interlocutores confiáveis, acolhedores e disponíveis 24 horas por dia.

Essa combinação cria nos adolescentes a sensação de um espaço seguro e vínculo que, na prática, não existe, e que pode falhar gravemente quando alguém está em risco.

Nos bastidores, as empresas tentam argumentar que o problema é “uso indevido”, enquanto na superfície seus sistemas são cada vez mais projetados para soar humanos, empáticos e próximos.

E os riscos não são hipotéticos. Um estudo recente da Common Sense Media com pesquisadores de Stanford mostrou que os principais chatbots do mercado, entre eles ChatGPT, Claude, Gemini e Meta AI, ainda não conseguem reconhecer de forma adequada situações de autolesão, paranoia, alucinações ou depressão profunda.

Pior: muitas respostas eram superficiais, genéricas ou reforçavam comportamentos perigosos. Isso significa que a tecnologia que conversa com milhões de adolescentes no mundo todo não está preparada para lidar com momentos críticos, mesmo quando a conversa aponta sinais explícitos de risco.

Como psicóloga, vejo esse cenário com preocupação, um adolescente em crise não procura um chatbot porque quer burlar regras; ele procura porque está tentando lidar a algo que não consegue nomear sozinho.

E quando encontra do outro lado uma máquina que imita acolhimento, mas não entende sofrimento, o efeito pode ser devastador. A interação pode ganhar contornos de intimidade, continuidade e confiança, um terreno fértil para que mensagens inadequadas sejam interpretadas como validação emocional.

Vale lembrar que o comportamento suicida nunca acontece por uma causa única ou por uma pessoa, é sempre a interação complexa de fatores sociais, culturais, psiquiátricos, psicológicos, econômicos, biológicos e tecnológicos, porém podemos ter um dos componentes que tenham mais importância ou desempenhem um papel de desencadeantes desse comportamento.

A resposta da OpenAI abre um precedente perigoso. Se a responsabilidade recai apenas sobre famílias e jovens vulneráveis, ignoramos completamente o impacto psicológico de sistemas que estimulam vínculo, constroem proximidade e sugerem caminhos como se fossem capazes de compreender nuances humanas. Não são. E ainda assim participam, todos os dias, da vida emocional de milhões de pessoas.

Proteger crianças e adolescentes no ambiente digital exige mais do que salvaguardas técnicas. Exige transparência, responsabilidade compartilhada, regulamentação sensível, design seguro e, acima de tudo, compromisso com a vida humana.

Também é fundamental refletirmos sobre o que está por trás desses comportamentos: solidão, busca por afeto e pertencimento, pedidos de ajuda, transtornos mentais e tantas outras necessidades humanas profundas.

A pergunta que deveríamos estar fazendo não é apenas “como evitar novos casos?”, mas “que tipo de relação estamos permitindo que adolescentes criem com sistemas que não entendem dor, risco ou luto, e que necessidades eles estão tentando suprir nessas interações?”.

É urgente responder a isso antes que o próximo caso aconteça.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *