AirPods avec caméras pour l'intelligence visuelle : la révolution de la sécurité personnelle d'Apple ?
Voici pourquoi l'intégration de caméras dans les AirPods par Apple pourrait être une excellente chose
Résumé:
- Selon certaines informations, Apple travaillerait toujours à l’intégration de caméras dans les AirPods.
- L’intelligence visuelle d’iOS 18 est au cœur des projets d’Apple.
- Les fonctionnalités sont encore à des « générations de distance ».
Nous connaissons le « quoi » depuis un certain temps — Apple expérimente l’intégration de caméras dans les AirPods — et maintenant nous connaissons peut-être le « pourquoi ». Un nouveau rapport met en lumière les plans d'Apple pour les futurs AirPods, et si la technologie tient ses promesses, elle pourrait devenir une fonctionnalité de sécurité personnelle vraiment importante. Apple développe des AirPods avec des caméras intégrées, ce qui en fait un appareil plus intelligent et plus performant.
Il y a cependant une mise en garde importante : ces fonctionnalités sont encore « à au moins plusieurs générations de leur arrivée sur le marché ».
Le rapport provient de Mark Gorman, un homme bien connecté, de Bloomberg, qui affirme que « le plan ultime d’Apple en matière d’intelligence visuelle va bien au-delà de l’iPhone. » Et les AirPods constituent une part importante de ce plan. Des fuites indiquent que la société travaille à l'intégration de caméras dans les AirPods pour améliorer la sécurité personnelle.
Selon Gorman, l'intelligence visuelle — reconnaître le monde qui vous entoure et fournir des informations ou une assistance utiles — est très importante chez Apple, et l'entreprise prévoit également d'intégrer des caméras dans l'Apple Watch et l'Apple Watch Ultra. Comme pour les AirPods, « cela aidera l’appareil à voir le monde extérieur et à utiliser l’intelligence artificielle pour fournir des informations pertinentes ». Des rapports suggèrent également qu'Apple envisage d'ajouter des caméras à ses montres intelligentes pour améliorer ses capacités d'intelligence visuelle.
Comment les AirPods fonctionneront-ils avec Visual Intelligence ?
L'intelligence visuelle, introduite dans iOS 18 pour l'iPhone 16, vous permet de pointer votre appareil photo vers quelque chose et d'en apprendre davantage à ce sujet : le type de plante, la race de chien (comme illustré en haut de cet article), les horaires d'ouverture du café que vous venez de trouver, etc. Cette technologie est également connue sous le nom d'« intelligence visuelle » et constitue l'une des fonctionnalités les plus importantes de la mise à jour.
L’intelligence visuelle peut également traduire des textes et, un jour, elle pourra peut-être aider les personnes ayant une mauvaise mémoire des noms et des visages. Cette technologie pourrait faciliter la vie quotidienne de nombreuses personnes.
Mais le gros problème avec l’intelligence visuelle est que vous devez sortir votre téléphone pour l’utiliser. Il y a des circonstances où vous ne voulez pas faire cela. Je me souviens de l'époque où Apple a rendu Plans disponible sur l'Apple Watch : permettre d'utiliser Plans sans afficher à tout le monde dans le quartier « Je ne suis pas d'ici et je suis complètement perdu. J'ai aussi un téléphone cher » était une fonctionnalité de sécurité personnelle importante.
C'est peut-être ça aussi. Si Apple permettait d'invoquer l'intelligence visuelle d'un simple hochement de tête et d'un tapotement sur les tiges des AirPods, cela vous permettrait d'obtenir des informations importantes, comme la traduction d'un panneau de direction dans un autre pays, sans agiter votre téléphone.
Nous sommes encore loin d'avoir réellement ces fonctionnalités - ne vous attendez pas à les trouver dans les AirPods Pro 3, qui arriveront probablement plus tard en 2025. Mais je suis enthousiasmé par cette perspective : imaginez Apple Intelligence, mais en mieux.
Les commentaires sont fermés.