Des interactions physiques en trois dimensions
Comme pour certains jeux vidéo et autres mondes virtuels, le Métavers interroge sur les manières de modérer des comportements en ligne de plus en plus réalistes, notamment issus de la captation des comportements de l’individu qui est “derrière” l’avatar. Or, comme le note le Centre on Regulation in Europe (CERRE) dans un rapport sur les mondes virtuels, “[le] cadre juridique actuel s'attaque aux contenus illicites et préjudiciables en ligne (par le biais du DSA, par exemple). La notion de contenu fait référence aux produits et services, ainsi qu'aux discours haineux ou aux fausses informations. Il n'est toutefois pas clair si le comportement des personnes (dans les contextes de réalité mixte) ou des avatars, correspondrait à cette notion et serait donc modéré". Avec le développement des agents logiciels automatiques ou semi-automatiques (ou “bots”) (cf. “Modèle publicitaire”) et de l’intelligence artificielle (IA), un autre enjeu émerge. Faut-il distinguer, dans les métavers, les relations entre humains, des relations entre un humain et une IA, des relations entre plusieurs IA ? Un comportement préjudiciable à l’encontre d’une IA est-il plus tolérable que lorsqu’il est dirigé vers un humain personnifié par un avatar ? Dès lors, comment faire la différence entre les deux ? Doit-il exister un moyen technique de savoir visuellement si on s’adresse à un autre humain ou à un système d’IA ? À cet égard, les discussions actuelles autour des IA génératives pourraient être éclairantes. Plusieurs solutions sont d’ores et déjà envisagées, comme l'obligation d’apposer un filigrane sur les contenus générés par IA.
Des interactions sociales en temps réel
Appréhender et réguler les interactions dans les métavers est d’autant plus complexe que ces dernières ont lieu en temps réel. S’il est possible, grâce à des algorithmes d’intelligence artificielle, de repérer des textes, des images ou des vidéos illicites ou préjudiciables, dans les secondes qui suivent leur publication (voire qui la précèdent, dans certains cas), la tâche peut s’avérer plus complexe lorsqu’il s’agit de gestes réalisés ou de paroles prononcées en direct. L’expérience des jeux vidéo et mondes virtuels doit une fois de plus nous éclairer. Des systèmes de régulation des comportements existent du simple fait que ces derniers autorisent ou non certains gestes, postures et comportements. Second Life est à ce titre un bon exemple, puisque si l’architecture technique du monde virtuel, soit son code, permet ou non des comportements, ceux-ci sont ensuite modérés en fonction des espaces qui sont explorés par l’avatar. Autrement dit, les propriétaires ou locataires des différentes régions ou espaces du monde virtuel de Second Life ont la possibilité d’agir sur les droits qu’ils accordent à un usager, que cela concerne la production d’objets ou les comportements. Ainsi, s’il est par exemple possible de voler dans certaines zones (ce qui est autorisé dans les fonctionnalités de base du monde, dans son code), d’autres espaces interdisent cette fonctionnalité et obligent les avatars à marcher. Dans d’autres cas, un avatar peut passer “à travers” le corps des autres avatars, quand ça ne sera pas possible ailleurs. Certaines animations des avatars, ou comportements, vont ainsi caractériser des zones réservées à un public majeur.
Comment modérer les interactions sociales dans le Métavers ?
La modération des comportements dans les métavers passera certainement par trois dimensions : l’application du droit, des standards et conventions, et des moyens techniques. Sur ce dernier point, nous pouvons par exemple imaginer un système de détection des mouvements qui repère un mouvement illicite ou préjudiciable (que ce soit conformément à la loi, ou aux règles de l’espace en question) et fait en sorte qu’il ne soit pas reproduit dans l’environnement immersif, bien que l’utilisateur l’ait réalisé.
Du point de vue de l’expérience utilisateur, ce caractère “temps réel” des interactions en 3D réactualise les problématiques liées au signalement des comportements illicites ou préjudiciables qui peuvent avoir lieu dans les jeux vidéo. Dans la mesure où les interactions ont lieu en temps réel, comment prouver a posteriori que ces comportements ont bien eu lieu, afin de tenir leurs auteurs pour responsables et d’obtenir réparation ? Cela soulève des enjeux relatifs à ce que l’on appelle en droit la “charge de la preuve”, et aux données qui pourraient être stockées par les opérateurs de métavers et la durée de cette conservation. Selon certains participants à la troisième journée des Metaverse Dialogues, il se pourrait qu’une forte demande sociale émerge quant à la possibilité de “stocker” des comportements afin de pouvoir prouver, si nécessaire, qu’ils ont eu lieu. Mais quelles données conserver ? Où les stocker ? Dans quelles conditions ? Pendant combien de temps ? Finalement, comment ne pas tomber dans un état de surveillance permanent ?
Comment “stocker” les comportements inacceptables pour en apporter la preuve ?
Il s’agit là d’un débat complexe, qui s’est posé au sujet des données de trafic et de localisation détenues par les opérateurs de télécommunications, qui a donné lieu à de nombreux recours et décisions de justice. Dans un arrêt du 20 septembre 2022, la Cour de justice de l’Union européenne (CJUE) rappelle notamment que la conservation généralisée et indifférenciée, sans condition, des données de connexion est interdite au sein de l’UE. Par analogie, il est possible d’en déduire que pour des raisons de respect de la vie privée, de protection des données (notamment la notion de minimisation mise en avant dans le RGPD) et d'exploitabilité des preuves, il n’est ni possible ni souhaitable de surveiller et de stocker en permanence les données des utilisateurs. Il est fort probable qu’un débat similaire émerge vis-à-vis des données stockées par les opérateurs de mondes virtuels ou par les fournisseurs de dispositifs (casques, lunettes, lentilles) permettant d’y accéder. Il apparaît dès lors crucial de placer au cœur du débat public ces enjeux, et ce d’autant plus qu’il s’agit potentiellement de données particulièrement sensibles, à l’instar des données biométriques, mentales, comportementales et émotionnelles. L’aspect “temps réel” des interactions dans les métavers soulève des questions opérationnelles complexes et non-triviales, auxquelles devront faire face non seulement les équipes des propriétaires de métavers chargées d’assurer leur politique de “Trust & Safety” [[[Dans le contexte de la modération des contenus, le Trust & Safety est un ensemble de principes (généralement élaborés, appliqués et mis à jour par l’équipe chargée de la confiance et de la sécurité) visant à réglementer le comportement des utilisateurs d’une plateforme en ligne et à les empêcher de publier du contenu qui enfreindrait les directives de la plateforme]]], mais également les régulateurs et décideurs politiques qui pourraient avoir à se poser ces questions. Il est dès lors primordial que ces derniers initient sans attendre des réflexions sur ces enjeux.
Quelques pistes de solutions pour face face à ces nouveaux enjeux
Diverses solutions pouvant permettre de faire face aux enjeux posés par les métavers existent d’ores et déjà. En premier lieu, un certain nombre d’entre elles peuvent être mises en place au niveau technique afin d’assurer une sécurité des utilisateurs “by design”.
- Dans son rapport sur les mondes virtuels, le CERRE propose par exemple d’intégrer directement dans le code source des avatars la détection de certains comportements préjudiciables, de façon à ce que ses actions puissent être stoppées sur le champ.
- De son côté, Meta a mis en place plusieurs mesures de sécurité dans Horizon Worlds afin de protéger ses utilisateurs. Par défaut, une “bulle personnelle” (“personal boundary”) empêche les avatars avec qui les utilisateurs ne sont pas “amis” de s'approcher à moins d’un mètre, ce qui rend impossible tout contact. Il est également possible d’activer cette fonctionnalité pour l’ensemble des avatars, ou de la désactiver. Si besoin, une “zone de sécurité” (“safe zone”) peut être activée par les utilisateurs autour de leur avatar afin de s’isoler. Dans ce cas, plus aucun avatar ne peut les toucher, leur parler ou interagir avec eux. Ce mode permet également de signaler, bloquer ou mettre en sourdine les autres utilisateurs. Pour faciliter les signalements, les dernières minutes d’interaction de l’avatar sont systématiquement enregistrées par Meta et partagées avec les équipes chargées de les analyser. Ces enregistrements sont constamment effacés afin de ne garder que les dernières minutes des échanges. Afin de stopper les agressions verbales, la fonctionnalité “grable voice” permet de rendre inintelligibles les propos désobligeants d’un autre avatar. Dans une logique similaire, Orange a déployé des “safe zones” sur des plateformes de jeux vidéo comme Fortnite et Roblox.
- Dans le secteur du jeu vidéo, Xbox a mis en place la possibilité pour les joueurs d’enregistrer tout échange verbal inapproprié afin de le signaler auprès des équipes de modération. Au-delà des sons, les joueurs peuvent signaler tout contenu sous forme de texte, d’image ou de vidéo. Au niveau de la console Xbox, il est également possible de paramétrer le niveau de langage que l’on tolère pour les messages qui nous sont envoyés par d’autres utilisateurs. Quatre niveaux sont proposés : “convivial”, “moyen”, “adulte” et “non-filtré”. Ces filtres s’appliquent aux messages provenant de personnes ne figurant pas sur la liste des “amis” de l’individu.
- Dans le jeu vidéo League of Legends, par exemple, le compte d’un utilisateur peut être suspendu temporairement en cas de comportement inapproprié. L’utilisateur peut alors obtenir des informations sur les raisons de cette suspension, accéder à des conseils pour ne plus être suspendu à l’avenir, ou pour éviter d’être suspendu définitivement. L’éditeur du jeu, Riot Games, insiste en outre sur la responsabilisation des joueurs vis-à-vis de leur comportement.
- Toujours en s’appuyant sur l’expérience des jeux vidéo, des chercheurs américains ont imaginé un système alternatif à celui qu’ils qualifient de justice punitive (qui repose essentiellement sur la modération et la suppression des contenus, et sur les suspensions de compte). Afin de favoriser les victimes à faire face à la situation, d’encourager les contrevenants à réparer le préjudice qu’ils ont causé et de permettre à la communauté de traiter le préjudice de façon collective, ils mettent en avant l’idée de justice réparatrice (“restorative justice”).
- La façon collective de traiter les litiges, au niveau d’une communauté, fait écho à l’idée d’impliquer davantage les utilisateurs dans la modération des contenus, et plus largement dans la régulation des espaces en ligne ; une approche portée par Renaissance Numérique depuis plusieurs années notamment ici et là). Dans certains cas, la communauté peut en effet faire partie de la solution. C’est ce qu’il se passe par exemple sur certains forums en ligne, à l’instar de Reddit, ou encore sur Wikipédia, où la modération est faite par la communauté. Les modérateurs y remplissent un rôle clé dans la transmission de bonnes pratiques et contribuent aux efforts de pédagogie à l’encontre des autres utilisateurs. L’idée est par exemple d’éviter qu’un utilisateur dont le compte a été suspendu ne revienne sur la plateforme en créant un autre compte et sans modifier son comportement. Des questions très similaires vont très certainement émerger dans les métavers.