Image : Confidentialité perdue
Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser et lade die Seite neu.
Privacy Lost esquisse un avenir dans lequel les émotions humaines deviennent publiques grâce à la RA et à l’IA. Il est accompagné d’un avertissement sérieux.
Dans une nouvelle production de courts métrages intitulée « Privacy Lost », le Dr Louis Rosenberg, PDG et scientifique en chef d’Unanimous AI, aborde les risques potentiels des technologies d’IA, de la réalité augmentée et des lunettes de données.
La réalité augmentée lit les émotions humaines
Une famille est assise à une table dans un restaurant. Pendant que le fils est occupé avec une tablette, les parents se disputent à propos d’un rendez-vous. Le père a oublié de parler à la mère d’un week-end de golf avec son meilleur pote. C’est une scène de tous les jours qui s’est probablement produite d’innombrables fois auparavant. Si ce n’était pas pour les lunettes de données sur le nez des personnes impliquées.
Les wearables futuristes peuvent lire les émotions de l’autre. Ainsi, la colère exagérée de la mère est projetée dans la ligne de mire du père alors qu’il lui avoue le week-end de golf. La mère, quant à elle, voit que le père bluffe lorsqu’il prétend que ce n’est pas important pour lui et qu’il peut annuler à tout moment.
Il est également intéressant de noter que la famille est servie par une intelligence artificielle qui se présente différemment pour chaque invité. Le père voit une superbe blonde, la mère une surfeuse en pleine forme et l’enfant un ours en peluche câlin. L’IA lit également les émotions des membres de la famille et les utilise pour leur vendre des extras hors de prix.
Les risques liés à l’IA ne sont plus théoriques
Privacy Lost dépeint une scène qui pourrait être typique du futur proche, selon Rosenberg. Le film vise à rendre la complexité de la manipulation de l’IA facilement compréhensible. Rosenberg développe des technologies VR, AR et AI depuis plus de 30 ans et met en garde contre l’impact potentiel sur la société.
Maintenant, alors que l’IA et le métaverse deviennent plus importants dans les médias, ses préoccupations gagnent du terrain. « ChatGPT est arrivé et tout à coup ces risques ne semblaient plus théoriques », a déclaré Rosenberg dans une interview avec ARPost. Les décideurs politiques et les régulateurs qui souhaitent mieux comprendre le potentiel de manipulation par l’IA dans le métaverse l’ont depuis inondé de demandes de renseignements, a-t-il déclaré.
Régulation et juste milieu
Pour Rosenberg, la réglementation des technologies émergentes est essentielle pour garantir la confiance du public. S’il soutient l’avancement de ces technologies, il préconise également des garanties contre les abus et la manipulation.
« Nous devons permettre un suivi émotionnel en temps réel, pour rendre le métaverse plus humain, mais interdire le stockage et le profilage des données émotionnelles, pour nous protéger contre de puissantes formes de manipulation », explique Rosenberg. « Il s’agit de trouver un terrain d’entente intelligent, et c’est tout à fait faisable. »