Les Meta Smart Glasses bénéficieront d’une entrée multimodale de l’IA en avril

Image : Mixte

L'article ne peut pas être activé avec JavaScript. Vous pouvez également activer JavaScript dans votre navigateur et sur la nouvelle page.

Une mise à jour des lunettes intelligentes Ray-Ban Meta en avril permettra à Meta AI d'accepter des photos en entrée et de répondre aux questions sur ce que vous voyez.

«  »

Méta-IA multimodale

Les lunettes intelligentes Ray-Ban Meta bénéficieront d’une IA multimodale le mois prochain. Cette fonctionnalité supplémentaire vous permet de demander à Meta AI ce que vous regardez.

En plus du mot d'activation habituel « Hey Meta », l'ajout de « regarde et… » signale à l'assistant IA qu'il doit utiliser la caméra intégrée pour « voir » de quoi vous parlez et répondre aux questions.

Le New York Times a annoncé la sortie du jeu en avril et a partagé quelques exemples de ses succès et de ses échecs. Par exemple, la version bêta de Meta AI peut traduire les signes en anglais, espagnol, français et allemand, mais n'a pas pu identifier le fruit du cherimoya.

«  »

Hors version bêta

Ce n'est pas la première fois que nous entendons parler de la fonctionnalité à venir. Meta a commencé à tester en version bêta l'IA multimodale pour les lunettes intelligentes Ray-Ban Meta en décembre 2023.

Plusieurs influenceurs YouTube ont partagé leur expérience avec la version bêta de Meta AI avec des capacités de traitement visuel. Voici un exemple de Jasmine Uniza, passionnée de XR.