

O Google começou a lançar novos recursos de IA para o Gemini Live, que permitem que “veja” sua tela ou através da câmera do smartphone e responda a perguntas sobre o tempo real, o porta-voz do Google, Alex Joseph, confirmou em um email para A beira. Os recursos acontecem quase um ano depois que o Google demonstrou o trabalho “Project Astra” que os alimenta.
Um usuário do Reddit disse 9to5GOOGLE. Hoje, o mesmo usuário postou o vídeo abaixo demonstrando a nova capacidade de leitura de tela da Gemini. É um dos dois recursos que o Google disse no início de março “começaria a ser lançado para assinantes avançados de Gêmeos como parte do Plano Premium do Google One AI” no final do mês.
O outro recurso Astra lançado agora é o vídeo ao vivo, o que permite que Gemini interprete o feed da câmera do seu smartphone em tempo real e responda a perguntas sobre isso. No vídeo de demonstração abaixo que o Google publicou este mês, uma pessoa usa o recurso para pedir ajuda a Gemini para decidir sobre uma cor de tinta para usar para sua cerâmica recém-vibrada.
As informações são do The Verge, site especializado em tecnologia