Pela primeira vez em anos, a assistente virtual da Apple vai funcionar como deveria. E quem está fazendo isso acontecer é o Google.
A Apple confirmou que vai apresentar a versão reconstruída da Siri ainda em fevereiro, rodando sobre a infraestrutura do Google Gemini. A mudança chega via iOS 26.4, com beta programado para o próximo mês e lançamento público entre março e abril. Quem possui iPhone 15 Pro ou modelo superior terá acesso imediato.

O que muda de verdade
A nova Siri finalmente faz o que prometeu na WWDC 2024: acessar dados pessoais e conteúdo em tela para executar tarefas complexas. Pergunte sobre o voo da sua mãe ou planos de almoço, e ela vai buscar isso direto no Mail e Messages, sem precisar de comandos extras.
Parece básico porque é. Mas também é exatamente o que a Siri deveria fazer há anos.
A assistente agora consegue puxar informações de Mail, Messages, Calendar e Notes, entender contexto da tela ativa e processar solicitações em múltiplas etapas sem que você precise repetir tudo do zero.
Ainda não é um chatbot conversacional. Isso vem depois.
Por que Apple recorreu ao Google
Originalmente, a Apple planejava construir tudo internamente. Não deu certo. Problemas de desenvolvimento forçaram a empresa a pivotar, e em vez de adiar indefinidamente, integraram a tecnologia do Gemini em um novo modelo proprietário batizado de Apple Intelligence.
Tecnicamente, ainda é um produto Apple. Mas a inteligência por trás vem do Google. Para uma empresa que controla cada detalhe da experiência do usuário, isso representa uma concessão significativa.
A versão chatbot vem em 2026
Se o iOS 26.4 coloca a Apple no jogo, o iOS 27 é onde ela tenta liderar. De acordo com Mark Gurman da Bloomberg, a Apple está transformando a Siri em um chatbot completo até o ano que vem. Nada de apps separados ou troca de contexto. Apenas uma assistente conversacional nativa que lembra do que foi dito três interações atrás.
A promessa é competir diretamente com o Gemini 3 e superar significativamente o que está sendo lançado agora.
Essa é a versão que pode realmente importar.
Análise de Mercado
A Siri virou piada há anos. Lançada em 2011 como recurso revolucionário, estagnou enquanto Google Assistant e Alexa evoluíram. Quando o ChatGPT chegou, a defasagem ficou inegável.
Apple trabalha com IA há tempos, mas de forma discreta e, aparentemente, lenta. Enquanto isso, Google, OpenAI e outros redefiniram o que se espera de assistentes de voz. Este lançamento é a tentativa de fechar essa lacuna sem abandonar a vantagem do ecossistema integrado.
A parceria com o Google revela que a infraestrutura interna de IA da Apple ainda não está pronta para suportar a assistente que eles querem entregar. Se a versão chatbot do iOS 27 continuar dependendo de tecnologia externa, muda completamente a narrativa em torno da Apple Intelligence.
A apresentação de fevereiro dirá muito. Se a Apple só mostrar os mesmos exemplos ensaiados da WWDC, é sinal vermelho. Se demonstrar cenários reais onde a Siri puxa contexto entre apps e acerta, é progresso real. O teste verdadeiro será no uso diário: ela lida com ambiguidade? Entende follow-ups sem repetição? Falha de forma elegante quando não sabe algo?
São essas nuances que separam uma demo de uma ferramenta que as pessoas realmente usam.

