
Cette amélioration serait possible grâce à l'intégration du processeur M5 dans la prochaine génération de lunettes, ce qui permettrait d'améliorer la computation spatiale de l'appareil.
Selon l'analyste Ming-Chi Kuo, bien que le processeur M5 représenterait une avancée, les spécifications et le design matériel des Apple Vision Pro ne changeraient pas beaucoup dans d'autres domaines, ce qui aiderait à réduire les coûts et probablement les prix de l'appareil.

À quoi ressemblera la prochaine génération d'Apple Vision Pro
La prochaine génération d'Apple Vision Pro pourrait incorporer le processeur M5, ce qui améliorerait considérablement ses capacités, en particulier dans le traitement des fonctions basées sur l'intelligence artificielle. Actuellement, cet appareil de réalité mixte est équipé de deux puissants puces qui optimisent ses performances.
La première est la puce M2, avec un CPU à 8 cœurs (4 de haute performance et 4 de haute efficacité), ce qui permet un équilibre entre vitesse et efficacité énergétique.
Cette puce dispose également d'un GPU à 10 cœurs pour des graphismes avancés, d'un moteur neuronal à 16 cœurs spécialisé dans les tâches d'intelligence artificielle, et de 16 Go de mémoire unifiée, ce qui améliore la capacité multitâche et la vitesse de traitement de l'appareil.
La seconde est la puce R1, conçue spécifiquement pour améliorer l'expérience en réalité augmentée et virtuelle en réduisant la latence. Cette puce présente une latence photon-photon de 12 millisecondes, promettant une réponse visuelle rapide, et une bande passante de 256 Go/s, offrant une performance fluide lors de la gestion de grandes quantités de données en temps réel.

Qu'est-ce qu'Apple Intelligence
Apple Intelligence est un ensemble de fonctions d'intelligence artificielle intégrées dans les appareils de la dernière gamme d'Apple : iPhone 16, iPhone 16 Plus, iPhone 16 Pro et iPhone 16 Pro Max. Selon le PDG d'Apple, cette nouvelle gamme d'appareils a été développée spécifiquement pour tirer parti des capacités de cette plateforme d'IA, grâce à l'intégration des puissantes puces A18 et A18 Pro.
Ces puces sont essentielles pour permettre le traitement avancé nécessaire pour des fonctions telles que l'apprentissage automatique, l'optimisation des performances de l'appareil et l'amélioration de l'expérience utilisateur en général, le tout propulsé par l'intelligence artificielle.
Ces outils seront disponibles avec l'arrivée d'iOS 18, le système d'exploitation le plus récent de la société. Selon l'analyste de Bloomberg, Mark Gurman, la version complète d'Apple Intelligence sera déployée lors de la mise à jour iOS 18.4, prévue pour la mi-octobre 2024.
Que fait Apple Intelligence sur iPhone

Avec l'arrivée d'Apple Intelligence, les utilisateurs des iPhone 15 Pro, iPhone 15 Pro Max et de la série iPhone 16 pourront intégrer ChatGPT dans Siri, tant qu'ils donnent leur consentement pour que le chatbot d'OpenAI accède à leurs données. De plus, lors de recherches sur un contact, l'intelligence artificielle générera un résumé détaillé des informations concernant cette personne.
Une autre nouveauté d'iOS 18 sera la possibilité d'éditer du texte directement depuis le menu copier-coller, facilitant l'édition de manière par défaut sur l'appareil.
D'autre part, les utilisateurs pourront créer des emojis personnalisés à partir de descriptions textuelles. Par exemple, en décrivant une "grenouille avec un chapeau de cow-boy", l'IA générera un GenEmoji basé sur cette description.
Enfin, la boîte de réception de l'application de messagerie proposera des résumés automatiques des messages, permettant aux utilisateurs de comprendre rapidement le contenu des e-mails, selon les informations fournies par Apple.