Image : VR Chat
Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser et lade die Seite neu.
Un modérateur de contenu chevronné partage son travail en réalité virtuelle et les défis auxquels il est confronté au quotidien.
Tate Ryan-Mosley s’entretient avec Ravi Yekkanti, modérateur de contenu pour des expériences de réalité virtuelle comme Horizon Worlds, dans sa newsletter The Technocrat. Yekkanti supervise les mondes virtuels de divers fournisseurs pour une entreprise extérieure. Dans son travail, dit Yekkanti, il ne se passe pas un jour sans qu’il ne rencontre de mauvais comportements.
Modération en VR : différences fondamentales avec les médias sociaux
Yekkanti est modérateur de contenu depuis 2014, et il souligne que la modération de contenu VR est très différente de la modération de contenu traditionnel. La modération VR semble très réelle car vous modérez directement le comportement des joueurs, a déclaré Yekkanti.
La grande différence avec les plateformes en ligne « normales » est qu’il n’y a pas que le texte et les images qui doivent être contrôlés. Les modérateurs VR évaluent principalement la parole et le comportement en temps réel. La modération dans la réalité virtuelle est donc encore considérée comme un territoire relativement inexploré. Ceci est illustré par une expérience qui a révélé de sérieux problèmes de modération chez Meta début 2022.
La plate-forme VR relativement jeune Horizon Worlds a dû faire face à plusieurs reprises à du harcèlement. Meta essaie de le combattre avec des mesures de sécurité telles que les interactions personnelles limitent plus de 18 zones dans Horizon Worlds.
À la chasse à la discrimination et à la haine en VR
En tant que modérateur, Yekkanti lui-même fait partie du monde virtuel et n’est pas reconnaissable en tant qu' »officiel ». Les modérateurs VR agissent incognito. S’ils étaient marqués de quelque manière que ce soit, les utilisateurs pourraient ajuster consciemment leur comportement.
Son propre comportement et son apparence pourraient donc également déclencher des réactions négatives de la part de certains joueurs. Son accent indien à lui seul fait de lui une cible pour le ridicule, la discrimination et l’intimidation, dit Yekkanti.
Certains joueurs veulent juste être mauvais
Pour se préparer à la modération dans le métaverse, les modérateurs suivent une formation technique et mentale. Ils apprennent à ne pas être détectés, à démarrer des conversations et à aider les autres joueurs à naviguer.
En même temps, ils sont prêts à faire face à un comportement problématique. Des modérateurs bien formés deviennent de plus en plus importants pour les fournisseurs de plateformes de réalité virtuelle sociale, car le harcèlement n’est pas rare dans le métaverse. Le PDG de Metas XR, Andrew Bosworth, décrit le comportement toxique comme une menace existentielle pour les plans Metaverse de Metas.
Yekkanti éprouve ce comportement presque quotidiennement. « Tous les joueurs ne se comportent pas comme vous voulez qu’ils se comportent. Parfois, les gens viennent juste pour être méchants. Nous nous préparons en passant en revue différents types de scénarios que vous pouvez rencontrer et comment les gérer au mieux », explique le modérateur.
Voici comment les modérateurs de contenu gèrent les violations
Les modérateurs de contenu rassemblent toutes les informations pertinentes, telles que le nom du jeu, les participants, la durée de chaque session et l’historique des conversations. Souvent, ils doivent également tenir compte du moment où une ligne a été franchie.
Par exemple, utiliser des grossièretés par frustration est considéré comme un comportement limite. « Nous le suivons toujours car il peut y avoir des enfants sur la plate-forme », explique Yekkanti. Si cela devient trop personnel, dit-il, il doit absolument intervenir en tant que modérateur.
Pour les violations graves du code de conduite, dit-il, il existe plusieurs options, telles que la mise en sourdine ou la suppression des joueurs du jeu. De plus, ces incidents sont signalés aux clients, qui peuvent alors prendre d’autres mesures.
La modération de contenu peut sauver des vies
Malgré les problèmes, l’animateur souligne que son travail est à la fois amusant et important. Un exemple est le sauvetage réussi d’un enfant kidnappé qui avait publié un appel à l’aide sur une plateforme en ligne.
Yekkanti a alors appelé les services de secours et l’enfant a été sauvé. Cette expérience lui a appris que son travail impacte réellement le monde réel et contribue à la sécurité des utilisateurs.