A Apple anunciou nesta segunda-feira (9) que está abrindo o Apple Intelligence para desenvolvedores, permitindo que aplicações de terceiros integrem modelos de linguagem e ferramentas avançadas de IA diretamente nos dispositivos dos usuários. O anúncio foi feito durante a WWDC 2025 e marca uma nova etapa na estratégia da empresa em inteligência artificial, com foco em privacidade, desempenho local e integração nativa.
Leia mais:
- Liquid Glass chegou: Apple apresenta novo design de software para todos os seus produtos
- iPhone 18 Pro e Fold podem trazer chip Apple A20 com design inédito e processo de 2 nm da TSMC
- Futuros AirPods da Apple poderão ser controlados com movimentos da boca e do rosto
IA no dispositivo e foco em privacidade
Diferente de concorrentes como OpenAI, Meta ou Google, a Apple optou por permitir que os desenvolvedores acessem os modelos de linguagem no próprio dispositivo (on-device), reforçando seu compromisso com a privacidade dos usuários. Essa abordagem reduz a necessidade de enviar dados para servidores externos, garantindo mais controle sobre informações sensíveis.

A funcionalidade estará disponível por meio do framework Foundation Models, que oferece uma série de APIs para geração de texto, compreensão de comandos e análise contextual. Desenvolvedores poderão testar esses recursos a partir desta semana, com o lançamento das primeiras betas do iOS 26, macOS Tahoe e iPadOS 26. A plataforma também traz integração com recursos como criação de imagens por IA, resumos inteligentes de e-mails e respostas automáticas personalizadas, conforme detalhado na lista completa de novidades da Apple Intelligence na WWDC 25.
Para aproveitar todos esses recursos no seu dia a dia, o iPhone 16 com 128 GB é uma excelente opção. Com o novo iOS 26 e suporte ao Apple Intelligence, ele oferece desempenho otimizado, câmeras potentes e integração total com as funções de IA local.
Xcode 26 com recursos de IA
Além da integração nos apps, a Apple também revelou o novo Xcode 26, seu ambiente de desenvolvimento atualizado com assistência de código baseada em IA generativa. A ferramenta ajuda desenvolvedores a escreverem trechos de código, detectar bugs automaticamente e implementar funções com sugestões inteligentes baseadas no contexto do projeto.
Esses recursos são possíveis graças ao Apple Intelligence, que estará embutido no Xcode. A ferramenta foi treinada com dados específicos do ecossistema Apple e é capaz de compreender padrões de design, frameworks como SwiftUI e interações com APIs nativas, proporcionando uma experiência de programação mais eficiente e assistida.
Apple Intelligence vai além do ChatGPT
Durante a apresentação, a empresa deixou claro que o Apple Intelligence não se limita à integração com o ChatGPT. Os recursos liberados para desenvolvedores envolvem modelos proprietários otimizados para rodar localmente em chips da série A17 Pro e M1 ou superior, garantindo velocidade e confidencialidade.

Com isso, será possível criar assistentes personalizados, gerar conteúdo visual com o recurso Image Playground, e até desenvolver sistemas de emoji por IA (Genmoji), permitindo respostas e interações mais criativas e contextuais nos aplicativos.
Quem prefere um modelo ainda mais refinado pode optar pelo iPhone 16e com 128 GB, que combina design premium com todo o poder da IA embarcada, ideal para produtividade, fotos e experiências imersivas com apps de última geração.
Estética redesenhada e funções estendidas
O sistema também estreia uma identidade visual chamada Liquid Glass, que traz efeitos translúcidos e animações mais suaves para iPhones, iPads e Macs. A experiência do usuário foi pensada para refletir a integração nativa da IA ao sistema, com atalhos contextuais, sugestões automáticas e tradução simultânea de mensagens.
Recursos como controle remoto por gestos, ativação por voz com precisão aprimorada e leitura de notificações em tempo real também foram integrados aos AirPods, que agora passam a interagir de forma mais natural com o assistente pessoal e com as novas funções do sistema. Entre as melhorias está o novo modo de controle por movimentos da cabeça e áudio adaptativo, como descrito nos novos recursos anunciados para os AirPods.
Disponibilidade e cronograma
O Apple Intelligence está disponível a partir desta segunda-feira (9) para desenvolvedores cadastrados no programa da Apple, com o lançamento das betas do iOS 26, iPadOS 26, macOS Tahoe e Xcode 26. Já a beta pública está prevista para julho, com liberação oficial das versões estáveis no outono do hemisfério norte.
Inicialmente, os recursos de IA funcionarão apenas em dispositivos com chips mais recentes: iPhones com A17 Pro ou superior, além de iPads e Macs com processadores M1 ou superiores. O novo Siri com IA avançada será liberado apenas em 2026.

Compare os planos
Google Gemini: vale a pena pagar pela versão Pro?
Fonte: Apple