Image : Pomme
Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser et lade die Seite neu.
Un ancien employé d’Apple donne un aperçu du développement de l’Apple Vision Pro et parle de « lecture dans les pensées » grâce à l’IA.
Selon Sterling Crispin, il était chercheur en prototypage en neurotechnologie au sein du groupe de développement technologique d’Apple et a joué un rôle déterminant dans le développement du casque Vision Pro VR/AR récemment annoncé. Entre autres choses, il a travaillé sur une technologie qui utilise l’intelligence artificielle pour prédire le comportement des utilisateurs.
Selon Crispin, une grande partie de la technologie développée pendant son séjour chez Apple est confidentielle. Cependant, il a dit que parce que certains aspects de son travail sont devenus publics grâce à des brevets, il est désormais autorisé à en parler. « Généralement dans l’ensemble, une grande partie du travail que j’ai effectué consistait à détecter l’état mental des utilisateurs sur la base des données de leur corps et de leur cerveau lorsqu’ils étaient dans des expériences immersives », a écrit Crispin sur Twitter.
Développement de Vision Pro : lire dans les pensées grâce à l’IA ?
Ces états seraient mesurés par les mouvements oculaires, l’activité électrique dans le cerveau, les battements et le rythme cardiaques, l’activité musculaire, la densité sanguine dans le cerveau, la pression artérielle, la conductance cutanée, etc. En utilisant ces données, « les modèles d’IA tentent de prédire si vous vous sentez curieux, errant dans votre esprit, effrayé, attentif, vous souvenant d’une expérience passée ou d’un autre état cognitif », a déclaré Crispin.
Une telle analyse par IA des utilisateurs dans les applications de réalité mixte ou de réalité virtuelle devrait détecter les intentions cognitives en plus des états émotionnels. Dans son fil, le chercheur révèle qu’il a été impliqué dans des technologies telles que la prédiction de la décision de l’utilisateur – une sorte de lecture de l’esprit par l’IA.
«Votre élève réagit avant que vous ne cliquiez, en partie parce que vous vous attendez à ce que quelque chose se produise après avoir cliqué. Ainsi, vous pouvez créer un biofeedback avec le cerveau d’un utilisateur en surveillant son comportement oculaire et en repensant l’interface utilisateur en temps réel pour créer davantage de cette réponse anticipée de la pupille. C’est une interface cerveau-ordinateur grossière via les yeux », a décrit Crispin.
Vision Pro sait-il à quel point vous êtes concentré ?
Crispin a également travaillé sur la prédiction de l’état de concentration ou de relaxation d’un utilisateur. L’apprentissage automatique et l’analyse des signaux corporels et cérébraux peuvent prédire à quel point quelqu’un est concentré ou détendu, ou à quel point il ou elle étudie, décrit Crispin. Ces informations auraient pu être utilisées dans les environnements de bureau ou de méditation immersifs d’Apple.
Selon Crispin, les environnements virtuels pourraient être mis à jour en temps réel sur la base de ces données pour faciliter la concentration. « Alors, imaginez un environnement immersif adaptatif qui vous aide à apprendre, à travailler ou à vous détendre en modifiant ce que vous voyez et entendez en arrière-plan. » Jusqu’à présent, Apple n’a introduit qu’un cadran sur le cadre du casque qui permet aux utilisateurs de régler eux-mêmes le niveau d’immersion.
Combien de technologies décrites ont été intégrées à l’Apple Vision Pro, et dans quelle mesure, Crispin ne sait pas : « Je suis vraiment curieux de savoir ce qui a été retenu et ce qui sortira plus tard. » Crispin a quitté l’entreprise fin 2021.