Aujourd'hui, pendant Connect, Meta a annoncé la boîte à outils d'accès aux appareils wearables, qui représente les premières étapes de l'entreprise vers l'autorisation des expériences tierces sur ses lunettes intelligentes.
Si le nom «Toolkit d'accès aux périphériques wearables» semble un peu étrange, c'est pour une bonne raison. Par rapport à un vieux SDK ordinaire, qui permet généralement aux développeurs de créer des applications pour un appareil spécifique, les applications faites pour Meta Smart Lunes ne fonctionnent pas réellement sur les lunettes elles-mêmes.
La partie «Accès de l'appareil» du nom est la clé; Les développeurs pourront accéder Les capteurs (comme le microphone ou la caméra) sur les lunettes intelligentes, puis recoupent ces informations sur leur propre application en cours d'exécution sur un appareil Android ou iOS. Après avoir traité les données du capteur, l'application peut ensuite renvoyer des informations aux lunettes pour la sortie.
Par exemple, une application de cuisine fonctionnant sur Android (comme Épicutif) pourrait être déclenché par l'utilisateur disant «hé épicurious» aux lunettes intelligentes. Ensuite, lorsque l'utilisateur dit «Montrez-moi la recette la mieux notée que je peux faire avec ces ingrédients», l'application Android pourrait accéder à l'appareil photo sur les méta-lunettes intelligentes pour prendre une photo de ce que l'utilisateur regarde, puis traiter cette photo sur le téléphone de l'utilisateur avant de renvoyer sa recommandation en tant qu'audio parlé aux lunettes intelligentes.
De cette façon, les développeurs pourront étendre Des applications des smartphones aux lunettes intelligentes, mais pas d'exécuter des applications directement sur les lunettes intelligentes.
La raison probable de cette approche est que les lunettes intelligentes de Meta ont des limites strictes sur le calcul, les thermiques et la durée de vie de la batterie. Et l'interface audio uniquement sur la plupart des lunettes intelligentes de l'entreprise ne permet pas le type de navigation et d'interaction auxquels les utilisateurs sont utilisés avec une application pour smartphone.
Les développeurs intéressés à construire des lunettes intelligentes de META peuvent désormais s'inscrire à l'accès à la prochaine prévisualisation de la boîte à outils d'accès aux périphériques Wearables.
Quant à ce qui peut être fait avec la boîte à outils, Meta a montré quelques exemples de partenaires qui expérimentent les appareils.
Disney, par exemple, a créé une application qui combine des connaissances sur ses parcs avec une conscience contextuelle de la situation de l'utilisateur en accédant à la caméra pour voir ce qu'ils regardent.
https://www.youtube.com/watch?v=hu7oku9vrny
L'application de golf 18Birdes a montré un exemple d'informations contextuellement conscientes sur un parcours de golf spécifique.
https://www.youtube.com/watch?v=xvw68hcvzrw
Pour l'instant, Meta affirme que seuls les partenaires sélectionnés pourront apporter leur intégrations d'applications avec ses lunettes intelligentes au public, mais s'attend à permettre une accessibilité plus ouverte à partir de 2026.
Les exemples indiqués jusqu'à présent n'utilisaient que la sortie vocale comme moyen d'interagir avec l'utilisateur. Bien que Meta indique que les développeurs peuvent également étendre les applications aux lunettes d'affichage Ray-Ban, il n'est pas clair à ce stade si les applications pourront renvoyer du texte, une photo ou une vidéo aux lunettes, ou s'intègre à la propre interface utilisateur de l'appareil.