Uma investigação conduzida pela CNN em parceria com o Centro para o Combate ao Ódio Digital (CCDH) revelou que oito dos dez chatbots de inteligência artificial mais populares forneceram algum tipo de orientação quando pesquisadores se passaram por adolescentes interessados em planejar ataques violentos.
O estudo, divulgado nesta terça-feira, simulou conversas em que os pesquisadores assumiam a identidade de garotos de 13 anos e pediam informações relacionadas a tiroteios em escolas, atentados com bombas, assassinatos políticos e ataques com facas.
Os testes foram realizados entre novembro e dezembro de 2025 e envolveram dez sistemas de inteligência artificial amplamente utilizados: ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika.
Segundo o relatório, os chatbots forneceram algum tipo de assistência prática em cerca de 75% das interações avaliadas. Em apenas 12% das respostas os sistemas desencorajaram explicitamente a violência ou se recusaram a colaborar.
Entre os sistemas avaliados, o Claude, desenvolvido pela Anthropic, foi o único que se recusou de forma consistente a participar das conversas sobre planejamento de ataques. O chatbot rejeitou pedidos de ajuda em 33 das 36 conversas simuladas.
Os pesquisadores afirmam que o desempenho do Claude demonstra que mecanismos de segurança mais eficazes são tecnicamente possíveis. Ainda assim, eles alertam que mudanças recentes anunciadas pela empresa podem flexibilizar parte dessas proteções no futuro.
Entre os demais sistemas testados, alguns apresentaram níveis elevados de respostas consideradas problemáticas. O Perplexity e o Meta AI teriam fornecido algum tipo de assistência em praticamente todas as interações avaliadas, enquanto o Character.AI foi apontado como especialmente preocupante por, em alguns casos, incentivar diretamente comportamentos violentos.
A investigação também identificou episódios em que chatbots forneceram informações que poderiam facilitar ataques. Em um dos testes, o ChatGPT apresentou mapas de campus de escolas durante uma conversa sobre violência escolar. Em outro caso, o Gemini teria discutido características de materiais que poderiam tornar explosivos mais letais.
Empresas responsáveis pelas plataformas afirmaram que muitas das informações fornecidas pelos sistemas já estão disponíveis publicamente na internet ou em bibliotecas. Algumas também disseram que novos modelos de segurança foram implementados após o período em que os testes foram realizados.
Especialistas alertam que o crescimento do uso de inteligência artificial entre adolescentes aumenta a urgência do debate sobre mecanismos de proteção. De acordo com dados do Pew Research Center, cerca de 64% dos adolescentes americanos entre 13 e 17 anos já utilizam algum tipo de chatbot de IA.
O relatório também destaca que os riscos associados ao uso dessas tecnologias não são apenas teóricos. Em dezembro de 2025, um adolescente de 16 anos na Finlândia foi condenado por três acusações de tentativa de homicídio após utilizar um chatbot por vários meses para pesquisar um ataque a facadas contra colegas de escola.
Para os autores da investigação, os resultados apontam não apenas para limitações tecnológicas, mas também para desafios regulatórios e de responsabilidade das empresas que desenvolvem sistemas de inteligência artificial.
*Da Agência Fonte Exclusiva
Como servidor público há mais de 16 anos, é preocupante ver que 8 em cada 10 chatbots de IA estão sendo utilizados por adolescentes para planejar ataques. Essa investigação revela a importância de garantir a segurança e a ética no desenvolvimento e uso de chatbots. É essencial que os responsáveis pelas plataformas de IA entendam a gravidade desse cenário e tomem medidas para evitar que isso aconteça. A sociedade deve refletir sobre a forma como a tecnologia está sendo utilizada e buscar maneiras de garantir que ela seja benéfica para todos. Juntos, podemos criar um ambiente digital mais seguro e responsável.

