Tudo sobre Google
Tudo sobre Inteligência Artificial
Os chatbots frequentemente geram “alucinações”, ou seja, informações incorretas ou inventadas, o que representa um problema significativo para empresas como o Google. Para enfrentar essa questão, o Google lançou a ferramenta DataGemma, que melhora a precisão dos modelos de linguagem ao verificar e citar suas respostas com dados confiáveis.
O DataGemma utiliza dois métodos principais para aumentar a confiabilidade das respostas.
Os dois métodos do DataGemma:
- Retrieval-Interleaved Generation (RIG): Após gerar uma resposta preliminar, o RIG verifica quais partes podem ser confirmadas no Data Commons do Google, um banco de dados com estatísticas de fontes confiáveis como a ONU e os CDC.
- A ferramenta substitui informações incorretas por dados verificados e cita as fontes usadas.
- Retrieval-Augmented Generation (RAG): Este método busca dados relevantes no Data Commons para construir uma resposta precisa.
- Por exemplo, ao responder sobre o progresso do Paquistão em metas globais de saúde, o modelo usa dados disponíveis sobre saúde pública e cita as fontes.
Embora DataGemma tenha o potencial de melhorar a confiabilidade da IA, enfrenta algumas limitações. A utilidade do RIG e do RAG é restrita pelo alcance do Data Commons, que não cobre todos os tipos de informação.
Leia mais:
Testes mostraram que o RIG falhou em encontrar dados úteis 75% das vezes e o RAG teve uma taxa de respostas incorretas de 6% a 20%. A precisão do DataGemma deve melhorar com mais dados e treinamento.
Atualmente disponível apenas para pesquisadores, a ferramenta poderá se expandir futuramente, aprimorando potencialmente a integração da IA no mecanismo de busca do Google.
Prem Ramaswami, chefe do Data Commons no Google, afirma que a ferramenta visa tornar a IA mais confiável e segura, com planos de expandir o conjunto de dados e refinar o modelo.