« Je suis extrêmement sceptique » : les lunettes connectées d’Apple n’auront sûrement pas cette fonction révolutionnaire
Le marché des lunettes connectées s’apprête à accueillir un nouvel acteur : Apple. Le plan que la firme de Cupertino élaborerait pour s’imposer sur ce secteur porteur a été révélé, mais un nouveau rapport vient le détailler. Il affirme que ces accessoires seraient capables de lire les gestes de la main, mais cette déclaration a de quoi faire débat. Décryptage.

Apple n’a pas dit son dernier mot, que ce soit avec les accessoires connectés ou avec l’IA. La firme de Cupertino serait actuellement en train de travailler sur un trio de produits intelligents dopés à l’IA. Parmi ces appareils figureraient des lunettes connectées. C’est en tout cas ce qu’affirmait le média Bloomberg il y a quelques jours en révélant le plan qu’aurait élaboré la marque à la pomme pour concurrencer Meta.
Apple envisagerait de se lancer sur ce marché porteur – plus que celui de l’Apple Vision Pro – au plus tard en 2027 et miserait sur une intégration étroite avec l’iPhone, un design reconnaissable au premier coup d’œil et un système de caméra distinctif. Et justement, un nouveau rapport déclare que les lunettes connectées d’Apple seraient capables de comprendre les gestes de la main. Mais cette affirmation suscite le scepticisme de spécialistes.
L’existence de cette fonction des futures lunettes connectées d’Apple fait débat
Selon ce rapport étonnant, les lunettes connectées d’Apple seraient équipées de deux caméras, dont une dédiée à l’analyse des gestes de la main. Cette information n’est pas passée inaperçue : Mark Gurman, le célèbre journaliste de Bloomberg, en a pris connaissance et la met sérieusement en doute.
Les lunettes Ray-Ban Meta prennent en charge les gestes de la main, mais c’est via le truchement d’un accessoire supplémentaire : un bracelet neuronal capable de lire les micro-mouvements musculaires. C’est pourquoi Gurman remet en cause la faisabilité d’une telle fonctionnalité : selon lui la technologie permettant de lire les gestes de la main de manière fiable sans bracelet et avec une seule caméra et sans suivi oculaire « n’existe pas à ce jour ».
The technology to do this reliably with a single camera, no neural band and no eye-scanning doesn’t exist today as far as I know. I’ve also heard nothing to suggest the first version has any sophisticated form of gestures as this describes. I am extremely skeptical. https://t.co/27RGM2YhgA
— Mark Gurman (@markgurman) April 30, 2026
Alors certes, l’Apple Vision Pro permet de lire précisément les gestes de la main. Mais il s’appuie sur plusieurs caméras pour le faire. À ce stade, cette fonctionnalité paraît impossible à intégrer – surtout pour Apple qui, pour tenir sa réputation, ne sortirait pas un produit inabouti et bancal.
De plus, Gurman déclare n’avoir « rien entendu qui suggère que la première version dispose d’une gestuelle sophistiquée telle qu’elle est décrite ici ». Il poursuit son fil X (ex-Twitter) en contredisant une autre affirmation du rapport. Selon ce dernier, les futurs AirPods équipés d’une caméra pourraient aussi lire les gestes de la main. Mais pour le journaliste, ce ne sera pas le cas, « les caméras étant pour Siri ».
Une nouvelle preuve qu’il ne faut pas croire tout ce qu’on lit sur le web : toute rumeur est à prendre avec des pincettes tant qu’elle n’a pas été officiellement confirmée.