Les lunettes intelligentes Apple ont une arme secrète contre les Meta Ray-Bans – et c'est la « prochaine grande chose » de Tim Cook
0
Suivez-nous
Alors qu'Apple aurait redoublé d'efforts pour introduire un trio de wearables dotés d'IA, ses lunettes intelligentes attendues sont à l'avant-garde pour affronter les Meta Ray-Bans. Et il dispose déjà de la fonctionnalité pour le faire : l’intelligence visuelle.
Selon la rumeur, les Apple AI Glasses s'appuieront sur l'IA visuelle de l'entreprise pour « voir » le monde, comme l'a souligné Mark Gurman de Bloomberg. Faisant partie d'Apple Intelligence, Visual Intelligence peut examiner des objets, lire du texte et obtenir des informations à leur sujet. Et il se prépare à juste titre à être fortement intégré dans la première version d'Apple des spécifications intelligentes. Le titre de l'article de Gurman qualifie cela de « prochaine grande nouveauté » d'Apple.
L'intelligence visuelle est sûrement prête à alimenter la prochaine ère d'appareils IA d'Apple, et il semble que nous la verrons d'abord en action dans les lunettes intelligentes IA. Si tel est le cas, ce sera le premier grand tremplin pour s’attaquer aux meilleures lunettes intelligentes du marché aujourd’hui – rattrapant les dernières lunettes Ray-Ban Meta.
Qu’est-ce que l’intelligence visuelle d’Apple ?

L'intelligence visuelle d'Apple est une fonctionnalité d'IA qui permet aux utilisateurs d'analyser le contenu à l'écran et le monde qui les entoure via la caméra. Il peut reconnaître des objets et proposer des informations à leur sujet, répondre à des questions sur ce qu'il voit, permettre une traduction en temps réel, des recherches instantanées sur le Web et bien plus encore.
Il a été introduit pour la première fois sur l’iPhone 16 Pro et est disponible à partir de l’iPhone 15 Pro. Il s'appuie sur ChatGPT d'OpenAI pour les résultats, et c'est devenu un moyen rapide de trouver des détails sur tout ce que vous prenez en photo.
Il s'agit essentiellement de la version Apple de Google Lens, et il est logique que cette fonctionnalité Apple Intelligence soit intégrée aux lunettes intelligentes du géant de la technologie de Cupertino. Fait intéressant, cependant, cela semble être la principale fonctionnalité qui alimente les spécifications.
L'intelligence visuelle prend les devants

Lors de l'appel aux résultats d'Apple, Gurman note que le PDG Tim Cook a largement fait allusion à son intérêt pour l'intelligence visuelle, ce qui est un signe clair qu'il y a plus à venir de cette fonctionnalité :
« L'une de nos fonctionnalités les plus populaires est l'intelligence visuelle, qui aide les utilisateurs à apprendre et à faire plus que jamais avec le contenu sur l'écran de leur iPhone, ce qui accélère la recherche, l'action et la réponse aux questions dans leurs applications », a déclaré Cook.
Avec la nouvelle des appareils portables IA potentiels d'Apple, tous équipés de caméras, y compris un pendentif AI et des AirPod AI, il est logique qu'Apple utilise une technologie qu'elle utilise déjà. Et cela devrait également s’améliorer.
Selon le rapport, Apple travaille sur ses propres modèles visuels d'IA, qui pourraient coïncider avec la sortie éventuelle de Siri 2.0 en 2026. Ceux-ci tireraient pleinement parti des caméras intégrées attendues dans les lunettes intelligentes, conçues pour être utilisées pour prendre des photos et enregistrer des vidéos.
Cependant, la rumeur dit qu'il y aura une caméra haute résolution dans les lunettes intelligentes Apple AI pour les images et la vidéo, ainsi qu'une caméra dédiée à l'intelligence visuelle.
Si Apple fait de l'intelligence visuelle une priorité dans ses spécifications intelligentes, il serait intéressant de voir quelles autres fonctionnalités elle pourrait offrir dans un nouveau facteur de forme qui n'est pas un iPhone.
Rattraper Meta

Avec les outils proposés par l'intelligence visuelle d'Apple sur les lunettes intelligentes, cela ne serait toujours pas une nouvelle fonctionnalité audacieuse à venir dans les spécifications, car Meta dispose déjà de sa propre forme d'IA visuelle à bord.
Comme pour les Ray-Ban Meta (gen 2) et Meta Ray-Ban Display, ces spécifications sont capables de « voir » ce que vous regardez – capables d'identifier des objets, d'afficher des informations à leur sujet et de répondre aux questions. Ils peuvent également aider à la navigation dans les cartes, ce qui est pratique (mais il reste encore un peu d'amélioration à faire dans ce domaine). Et oui, vous pouvez également vous attendre à ces fonctionnalités sur les lunettes Android XR de Google.
Quoi qu'il en soit, apporter l'intelligence visuelle aux Apple Glasses attendues est une évidence, et cela montre que l'équipe de Cupertino a déjà les moyens de fournir des spécifications intelligentes pour rattraper la concurrence lorsqu'elle devrait arriver fin 2026 ou 2027.
Cook semble certain que l'intelligence visuelle va prospérer, et les lunettes intelligentes d'Apple semblent être l'appareil idéal pour mettre en valeur cette vision. En attendant, découvrez comment mettre à profit l’intelligence visuelle sur votre iPhone.




