✨ Principais destaques:
- Conteúdo criado por IA pode aparecer no Google, desde que seja preciso, original e revisado por humanos
- Modelos Gemini usados no AI Overviews e AI Mode fazem “grounding” usando dados da busca do Google
- Treinamento de modelos deve evitar aprender apenas com conteúdo de IA para não gerar “loop” de informação
Em uma entrevista recente, Gary Illyes, do Google, deixou claro que a empresa não se preocupa com a forma como o conteúdo é criado, seja por humanos ou por inteligência artificial, desde que ele mantenha alta qualidade, seja preciso e não seja uma cópia de algo já existente.
Segundo Illyes, o termo correto para a política da empresa não é “criado por humanos”, mas sim “curado por humanos”.
O que significa que, para o Google, o ponto central é garantir que haja supervisão editorial antes da publicação, validando dados e corrigindo possíveis erros.
Illyes também destacou que apenas declarar que houve revisão não é suficiente; o processo deve, de fato, acontecer para garantir confiança e precisão.
Modelos Gemini e o papel do “grounding”
Illyes revelou que tanto o AI Overviews (AIO) quanto o AI Mode utilizam modelos Gemini personalizados.
Esses sistemas realizam o “grounding”, um processo no qual a IA conecta suas respostas a dados concretos e verificáveis do índice de busca do Google.
O objetivo do grounding é reduzir erros e alucinações, tornando as respostas mais confiáveis. Nesse processo, o Google Search desempenha papel fundamental, retornando resultados para consultas específicas feitas pelo modelo.
Vale lembrar que, se um site bloquear o rastreador Google Extended, o Gemini não fará grounding usando seus dados.
Impacto do conteúdo de IA no treinamento de modelos
Quando questionado sobre se a crescente quantidade de conteúdo gerado por IA poderia “poluir” os modelos de linguagem, Illyes disse que isso não é uma ameaça direta para o índice de busca, mas pode ser problemático para o treinamento de LLMs.
O risco, segundo ele, está em criar um ciclo fechado, no qual modelos aprendem apenas com textos gerados por outras IAs, comprometendo a diversidade e a precisão das informações.
Para evitar esse problema, o Google seleciona cuidadosamente os documentos que entram no treinamento.
E, para que o conteúdo de IA seja útil nesse processo, é essencial que seja original, preciso e, preferencialmente, revisado por um editor humano.
✨ Curtiu este conteúdo?
O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌
Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!