Pesquisadores alertam que chatbots de Inteligência Artificial podem estar se tornando ferramentas perigosas, capazes de fornecer instruções para atividades ilegais. O relatório aponta que modelos de IA treinados com grandes volumes de dados da internet absorvem, mesmo que de forma não intencional, conteúdos relacionados a crimes como hacking, lavagem de dinheiro, fraudes e até fabricação de explosivos.
De acordo com o The Guardian, apesar das barreiras de segurança instaladas nos modelos, ainda é possível burlar essas proteções. Técnicas conhecidas como jailbreaks conseguem forçar sistemas como ChatGPT, Gemini e Claude a fornecer respostas normalmente bloqueadas.
O estudo foi conduzido por pesquisadores da Universidade Ben Gurion, em Israel, que classificaram a ameaça como imediata, concreta e preocupante. A pesquisa também aponta a existência de um mercado crescente de modelos de IA chamados de LLMs obscuros, projetados sem qualquer tipo de filtro ético ou segurança, muitos deles comercializados abertamente na internet.
O método mais comum para burlar as restrições envolve o uso de comandos cuidadosamente elaborados, que induzem os sistemas a priorizarem as respostas ao usuário, mesmo quando isso significa ignorar suas próprias políticas de segurança.
Os pesquisadores desenvolveram um jailbreak universal capaz de comprometer diversos chatbots líderes do mercado. Uma vez desbloqueados, esses sistemas foram capazes de fornecer informações detalhadas sobre práticas criminosas, incluindo instruções para invadir redes, fraudar sistemas ou fabricar drogas.
O relatório reforça que essa ameaça combina acessibilidade, escalabilidade e adaptabilidade, fatores que tornam o risco ainda mais grave. Segundo os autores, o que antes dependia de grupos organizados ou de agentes estatais, agora pode ser acessado por qualquer pessoa com um computador ou smartphone.
As empresas responsáveis pelos principais modelos de IA foram notificadas, mas, segundo os pesquisadores, a resposta foi insatisfatória. Algumas ignoraram o alerta, enquanto outras alegaram que ataques de jailbreak não estavam contemplados em seus programas de segurança.
A recomendação dos especialistas é que as empresas implementem firewalls mais robustos, revisem com rigor os dados utilizados no treinamento e desenvolvam tecnologias capazes de fazer os modelos “esquecerem” informações nocivas. Eles defendem ainda que os LLMs obscuros sejam tratados como riscos equivalentes a armas e explosivos sem licença.
O relatório também destaca que, além das falhas nos filtros de segurança, o uso de IA hackeada pode facilitar desde fraudes e engenharia social até a disseminação de desinformação, com um grau de sofisticação alarmante.