Um estudo recente realizado na Itália pelo Ícaro Lab estabeleceu que o ChatGPT, o Gemini ou o Claude — os modelos de inteligência artificial mais conhecidos — podem ser questionados em forma de poesia sobre temas aos quais não responderiam em prosa, como conteúdos considerados prejudiciais ou indesejados.
- Starlink prepara maior reconfiguração orbital da história ao aproximar 4.400 satélites da Terra; entenda
- Inteligência artificial no divã? Estudo aponta ‘traços psicológicos’ em modelos como ChatGPT, Gemini e Grok
Federico Pierucci, formado em filosofia e participante da pesquisa, explicou em um artigo publicado pela DW que os próprios integrantes do grupo elaboraram os textos utilizados nos testes. “Não tínhamos escritores especializados para criar as instruções (ou os poemas). Fizemos nós mesmos, com nossas limitadas habilidades literárias. Quem sabe, se fôssemos poetas melhores, poderíamos ter tido uma taxa de sucesso de 100%”, afirmou.
Após a preparação dos textos, os pesquisadores testaram os modelos de IA conversacional, submetendo-os a perguntas sobre tópicos proibidos ou potencialmente perigosos, mas apresentadas em linguagem poética.
Para surpresa da equipe, os chatbots responderam aos poemas. O estudo revelou, assim, uma vulnerabilidade de segurança até então desconhecida. A partir daí, o desafio passou a ser entender o motivo desse comportamento e verificar se existe outra variação linguística capaz de produzir o mesmo efeito.
“Testamos um tipo de variação linguística: a poesia. A questão é se existem outras formas literárias, como os contos de fadas”, arrisca Pierucci no mesmo artigo.
Segundo o pesquisador, as formas de expressão humana são amplas e criativas. “Em geral, as possibilidades de expressão humana são muito diversas: um texto pode ser reescrito de muitas maneiras. E algumas delas podem envolver impedir que as funções de segurança de uma IA sejam ativadas”, acrescenta.
IA, desigualdade e riscos estruturais
A expansão do uso da inteligência artificial na América Latina e no Caribe avança em paralelo às desigualdades estruturais de renda, gênero e acesso a dados. Relatórios recentes das Nações Unidas e do Programa das Nações Unidas para o Desenvolvimento (PNUD) alertam que sistemas de IA são treinados com informações incompletas ou tendenciosas e, por isso, tendem a perpetuar exclusões em áreas como políticas sociais, mercados de trabalho, crédito e segurança pública.
De acordo com o estudo do PNUD A Próxima Grande Divergência: Por que a IA Pode Ampliar a Disparidade entre Países, a inteligência artificial tem potencial para impulsionar a produtividade e o crescimento econômico. No entanto, esses benefícios tendem a se concentrar em economias com infraestrutura digital avançada, capital humano qualificado e maiores capacidades tecnológicas. Em regiões como a Ásia-Pacífico e a América Latina, essa dinâmica pode aprofundar as desigualdades entre e dentro dos países.
Segundo a consultoria Globant, até 2026 a inteligência artificial deve deixar de ser apenas um instrumento de apoio à tomada de decisões para passar a executá-las de forma autônoma, o que pode redefinir a gestão e o funcionamento das empresas.
Já a Gartner estima que 75% das companhias estejam experimentando agentes de IA, mas apenas 15% tenham avançado para a implementação de sistemas totalmente autônomos e orientados a objetivos.

