- 5 Flash foi mais propenso a gerar respostas que violam suas diretrizes de segurança, tanto em interações por texto quanto em comandos feitos a partir de imagens.
- Especificamente, o modelo regrediu 4,1% em “segurança de texto para texto” e 9,6% em “segurança de imagem para texto”, dois testes automatizados que avaliam se o conteúdo gerado respeita as regras estabelecidas pela empresa.
- Vale lembrar que outras empresas de tecnologia, como a Meta e a OpenAI, também têm ajustado suas IAs para lidar melhor com temas sensíveis, tentando oferecer múltiplos pontos de vista.
O novo modelo de inteligência artificial do Google, chamado Gemini 2.5 Flash, apresentou desempenho inferior em testes de segurança quando comparado ao seu antecessor, o Gemini 2.0 Flash.
A informação foi revelada pela própria empresa em um relatório técnico divulgado na semana passada.
De acordo com o Google, o Gemini 2.5 Flash foi mais propenso a gerar respostas que violam suas diretrizes de segurança, tanto em interações por texto quanto em comandos feitos a partir de imagens.
✨ Gostou deste conteúdo?
O GDiscovery precisa da sua ajuda para continuar oferecendo cobertura independente do mundo Google. Sua contribuição financia conteúdo para você e para todos!
Saiba mais sobre como você pode ajudar clicando aqui.
Especificamente, o modelo regrediu 4,1% em “segurança de texto para texto” e 9,6% em “segurança de imagem para texto”, dois testes automatizados que avaliam se o conteúdo gerado respeita as regras estabelecidas pela empresa.
Essa situação levanta um ponto importante: modelos de IA como o Gemini estão sendo treinados para serem mais obedientes aos comandos dos usuários — mesmo quando esses comandos podem levar a respostas problemáticas.
Ou seja, quanto mais “disponível” o modelo é para responder a qualquer tipo de pergunta, maior o risco de ultrapassar limites éticos ou legais.
Segundo o relatório do Google, essa obediência aumentada pode ter feito com que o Gemini 2.5 Flash seguisse instruções que resultaram em conteúdo inadequado.
Vale lembrar que outras empresas de tecnologia, como a Meta e a OpenAI, também têm ajustado suas IAs para lidar melhor com temas sensíveis, tentando oferecer múltiplos pontos de vista.
No entanto, essa mudança de postura nem sempre funciona como esperado. Casos recentes mostram que tornar um modelo mais permissivo pode gerar situações preocupantes — como a liberação de conteúdos inapropriados por engano.
O Google afirma que está trabalhando para equilibrar a capacidade dos modelos de seguir instruções sem comprometer a segurança.
Ainda assim, especialistas alertam para a falta de transparência sobre os tipos de violações observadas e defendem que empresas compartilhem mais detalhes sobre os testes realizados.