Pular para o conteúdo

Google detalha como lida com conteúdo de IA em seus resultados de busca

Banner Aleatório

✨ Principais destaques:

Banner Aleatório
  • Conteúdo criado por IA pode aparecer no Google, desde que seja preciso, original e revisado por humanos
  • Modelos Gemini usados no AI Overviews e AI Mode fazem “grounding” usando dados da busca do Google
  • Treinamento de modelos deve evitar aprender apenas com conteúdo de IA para não gerar “loop” de informação

Em uma entrevista recente, Gary Illyes, do Google, deixou claro que a empresa não se preocupa com a forma como o conteúdo é criado, seja por humanos ou por inteligência artificial, desde que ele mantenha alta qualidade, seja preciso e não seja uma cópia de algo já existente.

Segundo Illyes, o termo correto para a política da empresa não é “criado por humanos”, mas sim “curado por humanos”.

O que significa que, para o Google, o ponto central é garantir que haja supervisão editorial antes da publicação, validando dados e corrigindo possíveis erros.

Illyes também destacou que apenas declarar que houve revisão não é suficiente; o processo deve, de fato, acontecer para garantir confiança e precisão.

Modelos Gemini e o papel do “grounding”

Illyes revelou que tanto o AI Overviews (AIO) quanto o AI Mode utilizam modelos Gemini personalizados.

Esses sistemas realizam o “grounding”, um processo no qual a IA conecta suas respostas a dados concretos e verificáveis do índice de busca do Google.

O objetivo do grounding é reduzir erros e alucinações, tornando as respostas mais confiáveis. Nesse processo, o Google Search desempenha papel fundamental, retornando resultados para consultas específicas feitas pelo modelo.

Vale lembrar que, se um site bloquear o rastreador Google Extended, o Gemini não fará grounding usando seus dados.

Impacto do conteúdo de IA no treinamento de modelos

Quando questionado sobre se a crescente quantidade de conteúdo gerado por IA poderia “poluir” os modelos de linguagem, Illyes disse que isso não é uma ameaça direta para o índice de busca, mas pode ser problemático para o treinamento de LLMs.

O risco, segundo ele, está em criar um ciclo fechado, no qual modelos aprendem apenas com textos gerados por outras IAs, comprometendo a diversidade e a precisão das informações.

Para evitar esse problema, o Google seleciona cuidadosamente os documentos que entram no treinamento.

E, para que o conteúdo de IA seja útil nesse processo, é essencial que seja original, preciso e, preferencialmente, revisado por um editor humano.

✨ Curtiu este conteúdo?

O GDiscovery está aqui todos os dias trazendo informações confiáveis e independentes sobre o universo Google – e isso só é possível com o apoio de pessoas como você. 🙌

Com apenas R$ 5 por mês, você ajuda a manter este trabalho no ar e leva informação de qualidade para ainda mais gente!

Clique aqui e faça parte da nossa rede de apoiadores.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *