Pular para o conteúdo

O iPhone 17 está dois anos atrasado e esses recursos de IA provam isso

Banner Aleatório

Banner Aleatório

Seu navegador não suporta esse video.

Preços? Cores? Modelos? Explicamos tudo sobre os novos celulares da Apple

No ano passado, a Apple veiculou um anúncio destacando a inteligência artificial (IA) personalizada do iPhone. A atriz Bella Ramsey perguntou à Siri: “Qual é o nome do cara com quem eu tive uma reunião há alguns meses no Cafe Grenel?” O problema era que a Apple Intelligence não conseguia realmente fazer isso. Sob pressão, a Apple retirou o anúncio.

Um ano depois, há um novo telefone (ao menos nos EUA) que pode responder a essa pergunta exata: o Google Pixel 10. O iPhone 17, revelado na terça-feira, 9, ainda não consegue.

IA da Apple se mostra atrasada em relação aos concorrentes  Foto: Reprodução/ Apple

A Apple está destacando a velocidade, durabilidade e câmera do novo iPhone, como tem feito há quase duas décadas. Agora vem na cor laranja. Mas a tecnologia definidora desta era é a IA — e o novo iPhone 17 já parece que está dois anos atrasado.

Por algumas semanas, testei dois telefones: um iPhone com o iOS 26 que acompanha o iPhone 17, e o Google Pixel 10 lançado em agosto. Lado a lado, fica claro que a IA do Pixel pode fazer coisas que eu gostaria que o novo iPhone pudesse fazer.

Não espero que isso mude muitas decisões imediatas de compra. Por um lado, as empresas dificultam a troca. Ainda assim, a conclusão do meu teste é que a IA está começando a ter um impacto real sobre o que torna um telefone inteligente e útil — e a vantagem é do Google.

Claro, qualquer smartphone pode rodar aplicativos de IA como ChatGPT ou o Gemini do Google. Tanto o iPhone quanto o Pixel têm chips projetados para IA e possuem funções como tradução em tempo real e criação de e-mails. Ainda assim, muitos recursos de IA se revelaram gambiarras. A Apple Intelligence pode, de maneira única, resumir notificações e mensagens — mas eu não isso muito útil ou mesmo corretos.

Três anos após o ChatGPT tornar possível uma conversa natural com um computador, faz sentido que devamos ser capazes de interagir de forma mais natural com nossos telefones também.

Aqui estão três maneiras como a IA está mudando o funcionamento dos telefones — e onde tanto o Google quanto a Apple estão entregando isso.

Seu telefone já é o repositório das suas informações pessoais importantes, guardadas em aplicativos separados de e-mail, chat, fotos e outros. E se a IA pudesse vasculhá-los e lembrar das coisas importantes?

O Google avançou na personalização de seu assistente de IA, Gemini. Apertei o botão no Pixel para chamar o Gemini e perguntei: “Quando foi meu último corte de cabelo?” Ele olhou na minha agenda e me disse a resposta.

No iPhone, a Siri ficou confusa e me contou sobre um compromisso próximo.

Para fazer isso funcionar no Pixel, concedi acesso ao Gemini ao meu Gmail, calendário Google e outros serviços. Na maioria dos telefones Android, o Gemini também pode acessar os aplicativos Mensagens, WhatsApp, Telefone e Fotos do seu dispositivo local.

A personalização do Gemini funcionou mesmo quando eu encadeei um comando como, “Obter direções para casa e compartilhar o tempo estimado de chegada com Steven.”

Está longe de ser perfeito. A capacidade de resposta do Gemini era por vezes frágil e o Google não faz um ótimo trabalho em deixar claro o que sua IA pode e não pode fazer. Algumas vezes, quando eu perguntava sobre meu último corte de cabelo, ele não pensava em verificar o calendário a menos que eu dissesse especificamente para fazer isso. Não adicionaria um endereço em uma mensagem a um cartão de contato, porque ainda não tem essa capacidade.

E se você usa o Outlook da Microsoft ou o Slack para informações importantes, ele não pode acessá-los, embora o Google diga que está trabalhando em mais integrações.

Os esforços da Apple em personalização de IA sofreram atrasos. Quando apresentou a Apple Intelligence, a empresa ofereceu uma visão bastante empolgante: a IA do iPhone acompanharia o que está acontecendo na sua vida, para que a Siri pudesse ser mais inteligente. E descreveu uma maneira de preservar a privacidade ao armazenar e processar todos esses detalhes.

Mas a Apple não conseguiu entregar esses elementos centrais da Apple Intelligence, dizendo que eles não estavam à altura de seus padrões de qualidade. Em junho, a Apple disse que espera lançar sua Siri personalizada em algum momento de 2026. Em teoria, todos os modelos desde o iPhone 15 Pro têm o hardware e o poder de processamento para executá-la. Até a Apple lançar, é o que os técnicos chamam de “vaporware.”

No Pixel, um amigo me mandou uma mensagem de texto: “Que horas é o jantar hoje à noite?” Bem no chat, apareceu uma pequena bolha com os detalhes. Com um toque, ele enviou para meu amigo.

Em um iPhone, ao pressionar as palavras “jantar hoje à noite” em um texto semelhante, surge uma visualização do meu calendário, mas não uma resposta para o meu amigo.

O avanço aqui é o novo recurso de IA do Pixel chamado Magic Cue. Ele fornece ajuda proativa observando o que você está fazendo no telefone: com quem você está ligando, o que você está enviando por mensagem. Em seguida, tenta fornecer informações relevantes, incluindo datas, nomes, locais, clima, números de reservas de passagens aéreas, etc. — extraídas do seu Gmail, Calendário, Contatos, Mensagens e telas abertas recentemente. Suas sugestões aparecem no aplicativo atual como uma janela flutuante.

Nos bastidores, o Magic Cue funciona inteiramente no telefone usando seu processador de IA, rastreando e fornecendo informações sem enviar nada para o Google.

O Magic Cue funcionou para mim quando alguém pediu meu número de programa de milhagem, e no aplicativo de tempo quando eu estava prestes a fazer uma viagem para fora da cidade. Eu só queria vê-lo ainda mais; o alcance das situações em que ele entra em ação e o alcance dos dados que utiliza são bastante limitados. O Google me diz que está começando tentando resolver alguns pontos problemáticos específicos, mas espera aprender mais sobre eles.

O paralelo mais próximo no iPhone é uma função chamada Sugestões da Siri. A IA da Apple tenta aprender com a forma como você usa o telefone e, em seguida, faz sugestões sobre o que você pode querer fazer a seguir, como sugerir pessoas para adicionar a um e-mail. Isso é bom, mas a IA que tem acesso às minhas informações pessoais e ao contexto do que estou fazendo no telefone tem o potencial de ser muito mais útil.

3) Reinvenção de chats de voz

Todo mundo sabe como fazer uma pergunta a um assistente de voz de IA pode se tornar uma avalanche de erros cômicos.

Então fiquei impressionado com uma das maneiras que o Google reinventou a interação com o Gemini como uma conversa real. Pressione um botão rotulado como “Live” na tela inicial do Pixel, e você pode conversar naturalmente com o bot — até mesmo interrompê-lo.

Mas o Gemini Live vai além: Pressione um botão com um ícone de vídeo e você não apenas fala, mas a IA também pode ver através da câmera do seu telefone e conversar com você enquanto você anda por aí.

Eu dei isso para o meu filho de 3 anos e ele correu apontando para plantas e fazendo perguntas sobre elas. Eu me acostumei tanto com isso que Gemini Live se tornou meu modo preferido de simplesmente buscar informações e obter ajuda.

Se você conceder permissão, o Gemini Live também pode ver o que está na tela do seu telefone enquanto você conversa com ele, para que você possa obter ajuda ou mais informações.

Mas, novamente, o Gemini Live nem sempre faz o que você quer. Tecnicamente, é um sistema diferente das conversas de voz únicas com o Gemini — e ele não pode acessar o mesmo conjunto de informações pessoais ou aplicativos, como o seu Gmail.

No iPhone, a Apple fez alguns progressos para fazer com que a Siri entenda melhor a linguagem conversacional. E tem uma parceria com a OpenAI que encaminhará consultas mais complicadas para o ChatGPT responder. Mas, até agora, a Siri não tem um equivalente ao chat de voz ao vivo.

Um novo recurso da Siri chamado Visual Intelligence também pode ajudá-lo a buscar informações ou obter feedback sobre coisas que você tira uma foto ou faz uma captura de tela no seu iPhone. Mas são apenas imagens estáticas, não um chat de vídeo contínuo.

A coisa mais próxima de uma experiência do Gemini Live no iPhone é instalar e usar o aplicativo Gemini. Eu gostei tanto de usá-lo que atribuí ao botão de ação do meu iPhone a função de lançar o Gemini como um atalho. Essa é uma maneira de deixar seu iPhone mais inteligente.

Source link

Join the conversation

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *