Meta Quest obtient un meilleur son spatial

Image : Méta

Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser et lade die Seite neu.

Les nouveaux outils audio de Meta promettent un son plus naturel et localisable en VR et AR, des cris lointains aux chuchotements à côté de votre oreille.

Le 7 février, Meta a ajouté des capacités audio immersives à sa plate-forme propriétaire Presence. Le nouveau « XR Audio SDK » est conçu pour permettre aux développeurs d’intégrer plus facilement un son spatial localisable. Il n’est actuellement disponible que pour le moteur Unity, qui est largement utilisé en réalité virtuelle. La prise en charge d’Unreal Engine, Wwise et FMOD est prévue.

La plate-forme de présence est une collection d’outils de développement et d’interfaces de programmation qui permettent une interaction manuelle et vocale et des capacités de réalité augmentée avec Quest 2 et Quest Pro, par exemple. Un ajout récent à l’automne 2022 était le SDK Movement pour le suivi du visage, des yeux et du corps. La plateforme a été introduite pour la première fois à l’automne 2021.

Son 3D pour Quest 2 et autres casques VR

Les applications pour les nouvelles fonctionnalités sonores immersives incluent la réalité virtuelle, la réalité augmentée et la réalité mixte. Pour ce dernier, les casques Meta Quest 2 et Quest Pro VR ajoutent des graphiques informatiques à l’image vidéo de leurs caméras frontales. En plus des appareils Meta, le nouveau SDK audio prend en charge « presque tous les appareils VR mobiles autonomes » ainsi que PC VR (par exemple Steam VR) et les appareils tiers.

Les nouvelles fonctionnalités incluent une meilleure gestion des effets de filtrage de la tête, de l’oreille externe et du torse qui affectent considérablement le son dans le monde réel : Fonction de transfert liée à la tête (HRTF) est conçu pour imiter avec précision la perception audio authentique. Sans cela, les sons de votre environnement immédiat ne sembleront pas naturels.

Simulation acoustique de salle bénéficie de réflexions et de réverbérations sonores qui dépendent de la taille, de la forme et des surfaces matérielles de la pièce. Donc, si vous démarrez un jeu AR dans un bureau vide, les sons des ennemis virtuels peuvent rebondir sur les murs, tout comme votre propre voix. Cette homogénéité du son est destinée à renforcer le sentiment de présence.

Les fonctionnalités de rendu audio spatial et d’acoustique de la pièce s’appuient sur l’ancien Oculus Spatializer et continueront d’être développées. Le système est bien mieux adapté à une utilisation en réalité virtuelle que les systèmes audio intégrés dans les moteurs de jeu populaires, qui sont principalement conçus pour les consoles et les PC, a déclaré Meta dans son blog de développeur.

Immersion acoustique pour les novices en audio

Le nouveau SDK audio offre à la fois flexibilité et facilité d’utilisation. Selon Meta, même les développeurs sans expérience audio pourront mixer l’audio, ce qui est essentiel pour l’immersion.

À titre d’exemple, Meta a démontré son utilisation dans le bureau virtuel Horizon Workrooms et l’application de réunion pour Quest 2 et Quest Pro lors de son événement Connect en octobre 2022. Aux tables de conférence, le son des voix provenant de différentes directions est essentiel pour une compréhension globale crédible. de la scène.

L’ancien Oculus Spatializer continuera d’être pris en charge dans Unreal Engine, FMOD ou Wwise ou pour ceux qui préfèrent une solution API native. Meta ne recommande pas encore la mise à niveau dans ces domaines.

Pour les nouveaux projets dans Unity Engine, Meta recommande d’utiliser le nouveau « XR Audio SDK » pour mieux maintenir les applications à long terme ou pour essayer des fonctionnalités expérimentales.

Des instructions et des exemples peuvent être trouvés dans la documentation officielle du « XR Audio SDK » et dans le Meta Developer Center.