Embora não tenhamos ouvido muito sobre a Siri ou a Apple Intelligence durante o evento de 2025 da Apple, que lançou novos iPhones, AirPods e Apple Watches, houve dois enormes recursos de IA anunciados que escorregaram amplamente sob o radar. Isso ocorre principalmente porque eles foram apresentados como ótimos recursos e não usaram o idioma de advertising de IA excedente.
No entanto, consegui demonstrar os dois recursos no Apple Park na terça -feira e minha primeira impressão foi que os dois estão quase totalmente assados e prontos para começar a melhorar a vida diária – e esses são meus tipos favoritos de falar.
Também: 5 novos recursos movidos a IA que voaram sob o radar no evento de lançamento da Apple
Aqui está o que eles são:
1. Uma câmera de selfie que enquadra automaticamente a melhor foto
A Apple implementou um novo tipo de câmera frontal. Isso usa um sensor quadrado e aumenta a resolução do sensor de 12 megapixels nos modelos anteriores para 24MP. No entanto, como o sensor é quadrado, ele gera imagens de 18MP. O verdadeiro truque é que ele pode produzir em formatos verticais ou horizontais.
Na verdade, você nem precisa mais girar o telefone para alternar mais entre o modo vertical e horizontal. Agora você pode simplesmente manter o telefone em uma mão e na posição vertical ou horizontal que preferir, você pode tocar no botão Girar e ele virará da vertical para a horizontal e vice -versa. E como possui um sensor ultrawido com o dobro dos megapixels, pode tirar fotos igualmente nítidas em qualquer orientação.
Agora, é aqui que entra a IA. Você pode definir a câmera frontal para zoom automático e girar automaticamente. Em seguida, ele encontrará automaticamente os rostos em sua foto e aumentará ou apertará a foto e decidirá se uma orientação vertical ou horizontal funcionará melhor para se encaixar em todos na foto. A Apple chama isso de seu recurso “Middle Stage”, que é o mesmo termo que usa para centralizar você no meio da tela para uma videochamada no iPad e no Mac.
Também: Cada modelo iPhone 17 comparado
O recurso usa tecnicamente o aprendizado de máquina, mas ainda é justo chamar isso de um recurso de IA. A marca Middle Stage é um pouco confusa, porque a câmera selfie no iPhone 17 é usada para fotos enquanto o recurso no iPad e Mac é para chamadas de vídeo. O recurso Selfie Digicam também é destinado a fotos com várias pessoas, enquanto o recurso iPad/Mac é usado principalmente com você apenas no quadro.
Ainda assim, depois de experimentá -lo em vários iPhones Demo em Apple Park após a palestra na terça -feira, é fácil chamar isso de câmera mais inteligente e melhor que eu já vi. Não tenho dúvidas de que outros fabricantes de telefones começarão a copiar esse recurso em 2026. E a melhor parte é que a Apple não o limitou apenas ao iPhone 17 Professional e Professional Max deste ano, mas o colocou no iPhone 17 padrão e no iPhone Air também. Isso é uma ótima notícia para os consumidores, que levaram 500 bilhões de selfies nos iPhones no ano passado, de acordo com a Apple.
2. Tradução ao vivo em AirPods Professional 3
Eu já disse isso muitas vezes antes, mas a tradução do idioma é um dos melhores e mais precisos usos para modelos de idiomas grandes. Na verdade, é uma das melhores coisas que você pode fazer com a IA generativa.
Ele permitiu que empresas como a Apple estão muito atrás do Google e outras pessoas em seu aplicativo de tradução de idiomas para avançar grandes avanços na implementação de recursos de tradução de idiomas em produtos importantes. Enquanto o Google Translate suporta 249 idiomas diferentes, o aplicativo traduzido da Apple suporta 20. O Google Translate existe desde 2006, enquanto o aplicativo traduzido da Apple foi lançado em 2020.
Também: AirPods Professional 3 vs. AirPods Professional 2: Aqui está quem deve atualizar
No entanto, enquanto o Google faz demos há anos mostrando tradução em tempo actual em seus telefones e fones de ouvido, nenhum dos recursos nunca funcionou muito bem no mundo actual. O Google novamente fez um grande negócio sobre a tradução em tempo actual durante seu evento de lançamento do Pixel 10 em agosto, mas mesmo durante a demonstração no palco, o apresentar um pouco de soluço.
Digite a Apple. Juntamente com o AirPods Professional 3, lançou seu próprio recurso de tradução ao vivo. E embora o número de idiomas não seja tão amplo, a implementação é muito mais suave e mais fácil de usar. Eu recebi uma demo pessoalmente disso com um grupo de outros jornalistas do Apple Park na terça-feira após a palestra.
Um falante de espanhol entrou na sala e começou a falar enquanto tínhamos o AirPods Professional 3 em nossos ouvidos e um iPhone 17 Professional em nossas mãos com o recurso de tradução ao vivo ativado. O AirPods Professional 3 imediatamente entrou no modo ANC e começou a traduzir as palavras faladas em espanhol para o inglês para que pudéssemos olhar para o rosto da pessoa durante a conversa enquanto ouvia suas palavras em nosso próprio idioma sem a distração de ouvir as palavras nos dois idiomas. E eu sei o suficiente espanhol para entender que a tradução period bastante precisa – sem soluços nesse caso.
Foi apenas uma breve demonstração, mas trocou os truques da demonstração do Pixel 10 do Google (tentando colocar as palavras e a entonação em uma voz clonada de IA do alto-falante) para obter uma usabilidade mais prática. A versão da Apple é um recurso beta que será limitado a inglês, espanhol, francês, alemão e português para começar.
E para ficar claro, o iPhone faz a maior parte do trabalho de processamento, enquanto os AirPods melhoram a experiência, invocando automaticamente o cancelamento de ruído. Mas por causa disso, O recurso não se limita apenas ao AirPods Pro 3. Também funcionará com o AirPods Professional 2 e o AirPods 4, desde que estejam conectados a um telefone que pode executar a Apple Intelligence (iPhone 15 Professional ou mais recente). Essa é outra vitória para os consumidores.
Como estou planejando testar o Pixel 10 Professional XL com o Pixel Buds Professional 2 e o iPhone 17 Professional Max com o AirPods Professional 3, colocarei seus novos recursos de tradução frente a frente para ver como eles se saiam. Toda semana, estou em contato com amigos e membros da comunidade que falam um ou mais dos idiomas apoiados, por isso terei amplas oportunidades de colocá -lo para trabalhar no mundo actual e depois compartilhar o que aprendo.