Após um primeiro ano decepcionante, a Apple Intelligence retorna à força no WWDC 2025 com tradução ao vivo e a abertura para os desenvolvedores. O que faz você esquecer as falhas embaraçosas e vazamentos internos?

Com o iOS 26, iPados 26, Macos Tahoe 26, WatchOS 26, TvOS 26 e Visionos 26, a Apple lançou uma série de novos recursos de inteligência da Apple no WWDC 2025, o que pode ser como o verdadeiro início de um projeto que acumulou atrasos por um ano.
Tradução ao vivo, inteligência visual prolongada, acesso ao desenvolvedor ao modelo da IA: a empresa tenta alcançar promessas inarquinas e um Siri ainda decepcionante.
Ir além
iOS 26, Vidro líquido, Apple Intelligence … todos os anúncios da Keynote WWDC 2025
Um ano após o anúncio com grande alarde da Apple Intelligence, o balanço permaneceu misto. A Apple finalmente descobre seus cartões para 2025. O que faz você esquecer as falhas do primeiro ano?
O contexto irritado: um ano de decepções
Vamos nos lembrar dos fatos. Junho de 2024, WWDC: Apple apresenta a Apple Intelligence como sua revolução da IA, prometendo um Siri transformado, dez vezes mais produtividade e recursos impressionantes. A realidade era mais prosaica.
Ir além
Eu testei a inteligência da Apple em francês no meu iPhone, e aqui está o que eu acho
Um ano depois, a Siri permanece em grande parte o mesmo assistente frustrante de antes. As características “revolucionárias” estavam atrasadas, muitas vezes adiadas ou diluídas. Pior, vazamentos internos revelaram as dúvidas das equipes da Apple na estratégia da IA, alguns engenheiros qualificando o projeto de “grande atraso tecnológico” em comparação com o Openai e o Google.
Ir além
“Uma vergonha absoluta”: a crise do Siri está explodindo em The Open na Apple
Essas indiscrições, relatadas por A informação E Bloombergdestacou as tensões internas. As equipes da Siri, envolvidas pelo ChatGPT, lutam para oferecer as melhorias prometidas. A integração da IA é mais complexa do que o esperado, atrasando os recursos, no entanto, anunciados para 2024.
Diante dessa situação embaraçosa, a Apple teve que atingir fortemente o WWDC 2025. Missão cumprida?
Tradução ao vivo: finalmente concreto
A principal novidade, tradução ao vivo, trabalha nativamente em mensagens, FaceTime e o telefone do aplicativo. Não há necessidade de fazer malabarismos com os aplicativos: suas conversas se traduzem em tempo real, diretamente na interface.

No FaceTime, você segue as legendas traduzidas ao ouvir a voz original. Nas mensagens, seus textos se traduzem durante a greve e aparecem no idioma do destinatário. No telefone, a tradução de voz funciona em ambas as direções ao longo da conversa.

Essa profunda integração marca progresso significativo em comparação com as soluções atuais de retalhos. A Apple finalmente usa seu domínio do ecossistema para criar uma experiência fluida, impossível de reproduzir no Android fragmentado.


O iPhone 16 é mais barato quando você o aluga
E se você escolher o aluguel para o seu futuro iPhone 16? No Mobile.club, ele é acessível a partir de apenas 36,90 euros por mês, com garantia e seguro incluídos contra voos e quebras!
A Apple insiste no aspecto confidencial: todos os tratamentos são feitos no dispositivo, sem transmissão para os servidores. Uma diferença notável com o Google Translate, que requer uma conexão com a Internet para funcionar corretamente.
Essa abordagem “no dispositivo” era esperada, mas permanece tecnicamente impressionante. Tirar modelos de tradução eficiente em um iPhone é o Feat de otimização.
Inteligência visual: além da câmera
A inteligência visual agora se estende para toda a tela do iPhone. Não há necessidade de apontar a câmera: a Apple Intelligence analisa o que você olha em seus aplicativos e oferece ações contextuais.
Você consulta um pôster de concerto? O sistema se oferece para adicionar o evento ao calendário com data, hora e local pré-preenchido. Você admira uma lâmpada no Instagram? A IA sugere procurá -lo no Google Shopping ou Etsy diretamente.
Essa extensão lógica da inteligência visual existente explora melhor as capacidades da inteligência da Apple. Em vez de se limitar à câmera, a Apple analisa todo o seu uso digital.

Para análises adicionais, você pode solicitar o ChatGPT diretamente da interface. Essa integração permanece opcional e transparente: você mantém o controle do que é compartilhado com o OpenAI.
Uma admissão implícita dos limites da Apple Intelligence, mas uma abordagem pragmática que enriquece as possibilidades sem forçar a adoção.
Buddy de treino: a IA chega a fitness
O Apple Watch ganha o treino Buddy, um sistema de motivação vocal alimentado pela Apple Intelligence. A IA analisa seus dados de treinamento, histórico de fitness e desempenho real para gerar incentivo personalizado.
“O quilômetro quatro, você acelerou o ritmo com 8 minutos de 28 segundos” ou “sua corrida anual total excedeu 200 quilômetros!»: Ai contextualiza seus esforços de acordo com o seu perfil.
A voz gerada usa dados do Fitness+ Coaches para reproduzir a energia e o tom apropriados. Uma aplicação inteligente da síntese vocal que excede o texto robótico simples.
Desenvolvedores: acesso direto ao modelo IA
A Apple finalmente abre o acesso ao seu modelo básico por meio do novo Modelos da Fundação Framework. Os desenvolvedores podem operar a inteligência da Apple diretamente em seus aplicativos, com apenas três linhas de código SWIFT.
Essa abertura permite usos inovadores: aplicativos educacionais que geram testes personalizados, aplicativos ao ar livre adicionando a pesquisa em linguagem natural off-line, serviços de análise de documentos privados.
A inferência da IA permanece livre e localo que evita os custos das APIs em nuvem, que geralmente prejudicam os desenvolvedores. Uma diferença importante com abordagens concorrentes com base em serviços pagos.
Essa democratização pode transformar a App Store. Até agora, apenas os gigantes da tecnologia poderiam integrar a IA eficiente. Apple Nivenele o playground, que sem dúvida permitirá que pequenos desenvolvedores inovem sem investimentos maciços.
Outras melhorias notáveis
O GenMoji agora permite misturar emojis existentes com descrições textuais para criar novas variações. O Image Playground é enriquecido com novos estilos via ChatGPT e uma função “qualquer estilo” para criações feitas sob medida.

Os atalhos usam diretamente os modelos de inteligência da Apple para automatizar tarefas complexas. Um aluno pode criar um atalho comparando automaticamente suas notas manuscritas para transcrever um curso para identificar os pontos perdidos.
A Apple Intelligence está mais profundamente ancorada no iOS: Detecção automática de ações em e -mails para lembretes, resumo dos controles dos comandos no Wallet, sugestão inteligente de pesquisas nas mensagens.
O desafio da Siri permanece inteiro
Apesar desses anúncios, o grande ausente permanece Siri. Nenhuma melhoria foi apresentada, enquanto os recursos prometidos no ano passado (compreensão contextual, ações complexas) brilham por sua ausência.
Essa lacuna questiona a capacidade da Apple de acompanhar o ChatGPT e o Google Gemini. A integração do ChatGPT pode parecer pragmática, mas também destaca os limites persistentes da estratégia da IA da Apple.
Apesar de tudo, a Apple Intelligence WWDC 2025 marca um progresso notável. Tradução ao vivo, inteligência visual estendida e abertura do desenvolvedor Atendesse às necessidades reais do usuário. A abordagem local mantém a vantagem de confidencialidade da Apple.
Mas essas melhorias permanecem incrementais. Nada revoluciona fundamentalmente a experiência, diferentemente das promessas iniciais. A Apple alcança mais do que realmente inova.
O teste real virá da adoção dos desenvolvedores e do desempenho real. Se a Framework Foundation modelar democratizar a IA no iOS, a Apple poderá encontrar uma vantagem competitiva. Caso contrário, esses novos recursos podem permanecer gadgets, certamente bem integrados, mas sem o impacto do transformador.
Quer ingressar em uma comunidade de entusiastas? Nossa discórdia recebe você, é um lugar de ajuda mútua e paixão em torno da tecnologia.