iOS 26: Fuga de informação revela a grande aposta da Apple em IA com tradução em tempo real

By | 09/06/2025

A poucos dias do arranque da conferência anual de programadores da Apple, a WWDC, que começa já na próxima segunda-feira, 9 de junho, o conhecido jornalista Mark Gurman, da Bloomberg, publicou um relatório detalhado que antecipa uma avalanche de novidades focadas em inteligência artificial. Entre os anúncios esperados, destaca-se uma renovada e poderosa aplicação de Tradução.

Tradução em tempo real: a grande aposta da Apple no iOS 26

Segundo as informações de Gurman, a Apple prepara-se para integrar a funcionalidade de tradução de forma transversal em todo o sistema operativo com o lançamento do iOS 26. A atual aplicação Traduzir, que já permitia traduzir texto, voz e conversas, receberá um significativo reforço de IA, passando a ser uma das pedras basilares do que a empresa apelida de “Apple Intelligence”.

A grande novidade será a capacidade de traduzir chamadas telefónicas e mensagens de texto em tempo real, quebrando barreiras de comunicação diretamente a partir do iPhone. Além disso, Gurman avança que a Apple está a trabalhar numa funcionalidade semelhante para os utilizadores de AirPods, que permitirá a tradução de conversas ao vivo.

Apple Intelligence: dos emojis personalizados aos atalhos inteligentes

O leque de novidades de IA não se fica por aqui. Uma das funcionalidades mais curiosas que deverão ser apresentadas é a “Genmoji”. No iOS 26, esta ferramenta permitirá que os utilizadores criem um emoji totalmente novo simplesmente ao combinar dois emojis já existentes, abrindo um novo mundo de personalização nas comunicações.

A aplicação Atalhos (Shortcuts) também será “contaminada” pela Apple Intelligence. A ideia é que os utilizadores possam criar rapidamente novos atalhos para diversas ações através de comandos de voz, com a IA a tratar de todo o processo de configuração de forma automática e transparente.

Novas ferramentas para programadores e alguns adiamentos notáveis

Para a comunidade de programadores, a Apple irá alegadamente disponibilizar o acesso aos seus “Foundation Models”, um conjunto de modelos de IA generativa que servem de base para as funcionalidades da Apple Intelligence, como a sumarização de textos e as ferramentas de escrita. No entanto, numa fase inicial, os programadores terão acesso apenas à versão que funciona localmente nos dispositivos.

O Xcode, o ambiente de desenvolvimento da Apple, também receberá uma nova versão que se integra com modelos de linguagem de grande dimensão (LLMs) de terceiros. Internamente, a empresa estará a testar esta funcionalidade com os modelos Claude.

Contudo, nem todas as novidades chegam este ano. De acordo com Gurman, a renovada aplicação de Calendário foi adiada e só deverá surgir com o iOS 27 e macOS 27. O mesmo aconteceu com a nova aplicação de Saúde, que usaria IA para fazer recomendações, e que foi adiada, na melhor das hipóteses, para o final do próximo ano.

O futuro: otimização de bateria e a sombra do Gemini

Olhando mais para o futuro, a Apple parece estar a desenvolver uma funcionalidade de otimização de bateria que recorre a inteligência artificial para poupar energia nos iPhones. Esta tecnologia poderá estrear-se mais para o final do ano com o lançamento do iPhone 17 Air.

Finalmente, Gurman confirma que a Apple mantém conversações com a Google para integrar o modelo Gemini nos iPhones como uma alternativa ao ChatGPT da OpenAI. No entanto, uma parceria deste calibre não será anunciada na WWDC deste ano, uma vez que as empresas aguardam a decisão final do processo judicial relativo ao acordo de pesquisa entre a Google e a Apple.

(TT)