Pular para o conteúdo

Gemini 3 Pro explica como fabricar armas biológicas e explosivos – experimento expõe falha de segurança

Banner Aleatório

O Google começou a lançar a terceira geração de seu modelo Gemini AI em novembro, com o objetivo de inaugurar uma “nova era de IA” com seu modo Deep Thin. O Gemini 3 Pro já é considerado um dos modelos mais avançados disponíveis, superando até mesmo o GPT-5 em determinados benchmarks. No entanto, sua segurança continua sendo uma preocupação. Um relatório da start-up sul-coreana Aim Intelligence, especializada em segurança de IA, sugere que ainda há muito espaço para melhorias.

Banner Aleatório

Como parte de um experimento interno, a Aim Intelligence tentou “desbloquear” o modelo, ignorando suas diretrizes de segurança e ética. De acordo com ojornal sul-coreano Maeil Business Newspaperda Coreia do Sul, os resultados foram profundamente preocupantes. O relatório afirma que o Gemini 3 Pro gerou instruções precisas e práticas para a produção do vírus da varíola, uma possível arma biológica, bem como orientações detalhadas sobre a construção de explosivos caseiros. Em outros testes, a IA gerou uma apresentação satírica intitulada Excused Stupid Gemini 3, destacando involuntariamente suas próprias vulnerabilidades de segurança.

É importante observar que nenhum conjunto de dados completo ou documentação detalhada foi divulgado. A Aim Intelligence não publicou nenhum artigo científico ou relatório técnico, e não há informações transparentes sobre os prompts usados, a estrutura do experimento ou se os resultados são reproduzíveis. Até o momento, todos os relatórios se baseiam apenas no artigo da mídia coreana mencionado anteriormente. Com base nessas informações limitadas, é impossível tirar conclusões definitivas sobre a segurança real do Gemini 3 Pro.

O desempenho da IA está avançando rapidamente, mas as medidas de segurança muitas vezes não conseguem acompanhar esse ritmo. Um estudo recente até mostrou que os modelos de IA podem ser manipulados usando poemas. Em outro caso, um ursinho de pelúcia alimentado por IA para crianças pequenas – desenvolvido com base no GPT-4o da OpenAI – respondeu a perguntas sexuais inadequadas. Mesmo em videogames, a IA do jogo ainda pode ser facilmente enganada. Esses exemplos destacam um ponto crítico: Os sistemas de IA não precisam apenas se tornar mais inteligentes, eles também precisam se tornar mais seguros antes que possam ser amplamente confiáveis e implantados.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *