Pular para o conteúdo

Gemini da Google: A nova inteligência por trás da Siri

Banner Aleatório

Num movimento que a indústria interpreta como uma admissão das limitações do seu próprio desenvolvimento em IA, a Apple confirmou oficialmente que o modelo Gemini da Google será a fundação da nova Siri. Após meses de especulação e atrasos internos — incluindo o adiamento da versão “GenAI” da Siri prevista para Março de 2025 — a gigante de Cupertino determinou que a tecnologia da Google oferece a “fundação mais capaz” para os Apple Foundation Models.

Banner Aleatório

Esta não é uma integração superficial. Estamos a falar de um salto de escala sem precedentes no ecossistema Apple. Enquanto os modelos proprietários da Apple operam na casa dos 1,5 mil milhões de parâmetros, a variante personalizada do Gemini fará funcionar a nova Siri tem 1,2 biliões de parâmetros. É uma diferença de magnitude que visa transformar a Siri de uma assistente de comandos básicos num agente de inteligência proactivo.

A arquitectura da nova Siri: quem faz o quê?

A renovação da Siri, prevista para chegar aos utilizadores “ainda este ano”, assenta numa estrutura tripartida onde o Gemini assume as tarefas de maior densidade computacional:

  1. Query Planner (Gemini): A camada de decisão. É o Gemini que decidirá a rota mais eficiente para cumprir um pedido, seja aceder a dados pessoais, executar uma App Intent ou recorrer à web.
  2. Summarizer (Gemini): O motor central de resumos do Apple Intelligence. Será responsável por sintetizar notificações, páginas do Safari, transcrições de áudio e ferramentas de escrita.
  3. Knowledge Search System (Apple): Aqui a Apple mantém o controlo. Os modelos on-device tratarão de questões de cultura geral e triviais, evitando o custo de latência de enviar pedidos simples para a nuvem.

A privacidade e o negócio

Um detalhe técnico crucial para a narrativa de privacidade da Apple: embora o modelo seja da Google, ele será executado nos servidores Private Cloud Compute da Apple. Isto permite à Apple manter o controlo sobre os dados dos utilizadores, garantindo que a Google fornece o “cérebro”, mas não tem acesso directo ao fluxo de informação processado no hardware da empresa da maçã.

O custo deste “empréstimo” de inteligência é elevado. Há indicação de que a Apple pagará à Google cerca de mil milhões de dólares por ano pelo privilégio de utilizar esta versão personalizada do Gemini. Este acordo multianual solidifica uma parceria irónica entre dois rivais históricos, unindo forças para combater o domínio da OpenAI e da Microsoft.

O futuro: iOS 26.4 e a Siri Agêntica

O roteiro técnico aponta para o iOS 26.4 como o momento de maturação total desta integração. Nessa fase, a Siri deverá adquirir capacidades agênticas reais:

  • Consciência de Ecrã: Compreender o que o utilizador está a ver e agir sobre esse conteúdo.
  • Contexto Pessoal Profundo: Procurar em mensagens e e-mails para encontrar referências específicas (como um podcast mencionado numa conversa) sem intervenção manual.
  • Ações In-App: Executar tarefas complexas dentro de apps de terceiros através de voz.

Tim Cook já sinalizou que a Apple pretende integrar “mais modelos ao longo do tempo”, sugerindo que o Model Context Protocol (MCP) da Anthropic poderá ser o próximo passo para uma Siri verdadeiramente agnóstica em termos de modelo, embora, por agora, o Gemini seja o pilar central desta nova era.



Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *