Le métavers et la (difficile) lutte contre les agressions sexuelles sur Internet

Si vous ne suivez pas trop tout ce qui concerne Meta (le métavers VR social de Facebook), la réalité virtuelle (VR) ou encore les agressions sexuelles online, cet article (10 minutes de lecture quand même) va vous plaire.

Chiche?

Meta a annoncé il y a quelques mois (mi-juin 2022) que Horizon Worlds commencera à se déployer sur les casques Meta Quest 2 au Royaume-Uni, développant ainsi son métavers VR social. La société (via Mark Zuckerberg) a déclaré que d’autres pays d’Europe seront également ajoutés plus tard…

Peu d’internautes (à peine 2 à 300 000) se sont laissé tenter par le Métavers.

Dans le métro, les journaux, à la TV, impossible en ce moment de faire un pas sans tomber sur une publicité de Meta (Facebook).

On peut se demander si le géant des réseaux sociaux ne joue cependant pas avec le feu en faisant une promotion si frénétique de son métavers.

L’univers virtuel dans lequel il nous invite avec tant d’insistance est, pour l’heure, en effet peu séduisant. Les avatars censés nous incarner sont si rudimentaires qu’ils sont devenus un sujet de plaisanterie à part entière sur les réseaux sociaux. Et l’univers très basique d’Horizon Worlds, le principal produit de Meta dans le domaine, évoque plus les jeux vidéo d’il y a vingt ans que les titres sophistiqués d’aujourd’hui. A l’heure où les feuilles mortes se ramassent à la pelle (automne 2022), peu d’internautes (à peine 200 à 300 000) se sont d’ailleurs laissé tenter… Cet univers immersif, peuplé d’avatars fait aujourd’hui plus peur qu’il n’engage. Certains rejettent même en bloc ce monde virtuel par crainte de s’y retrouver enfermés ou de ne pas en maîtriser les codes. Au-delà de la nécessité d’accompagner ce changement et de rassurer, des problèmes techniques apparaissent déjà dans les premières tentatives menées sur des environnements en 3D, gourmands en bande passante, et qui nécessitent la mise à disposition de casques de réalité virtuelle, un équipement contraignant physiquement et coûteux.

Comme c’est le cas avec les joueurs existants aux États-Unis et au Canada, vous devrez avoir au moins 18 ans pour accéder à l’expérience Méta.

La société Méta lance également une nouvelle fonctionnalité de sécurité appelée “Voice Mode”. Déployé sur les casques Quest 2 au cours des semaines suivantes, cet outil vous permettra d’ajuster le son d’autres étrangers dans le métavers. En plus de désactiver les autres utilisateurs, vous pouvez également activer « Voix brouillées » pour transformer les voix non amies en un non-sens amical.

Les femmes sont confrontées aux mêmes menaces physiques en ligne que hors ligne

Ce dernier point nous rappelle qu’en matière de monde virtuel, comme de monde réel, le harcèlement et, pire, les agressions sexuelles, sont monnaie courante en 2022.

En effet, à mesure que le monde du jeu et, plus largement, du monde virtuel progresse, les femmes sont confrontées aux mêmes menaces physiques en ligne que hors ligne. Les cas d’agressions sexuelles dans les mondes de réalité virtuelle soulèvent la question de la modération dans le métavers. Avertir, bannir, éduquer en amont? Si certaines tentatives de solutions existent depuis longtemps, notamment dans les jeux vidéo, il n’existe pas de solution simple. Les joueurs et les développeurs veulent néanmoins remédier à ces problématiques. Nous verrons comment après quelques rafraichissements (d’idées, pas de boissons fraîches)!

Officiellement lancé début décembre 2021, Horizon Worlds, le métavers de Facebook (Meta), est déjà au cœur d’une première polémique. Une femme a ainsi rapporté ce qui semble être un des premiers cas d’agression sexuelle au sein de cet univers en réalité virtuelle (VR)

Fin 2021, Mark Zuckerberg, fondateur et PDG de Facebook, annonçait que l’objectif de son entreprise, rebaptisée pour l’occasion Meta (signifiant « au-delà » ou « après » en grec ancien), serait désormais de créer un « métavers », monde immersif et évolutif dans lequel les utilisateurs, équipés de casques de réalité virtuelle, pourraient évoluer grâce à des avatars 3D.

Cette annonce a également mis en lumière des projets sur d’autres plateformes, qui développent déjà leurs propres métavers. Cela a également ravivé la peur des agressions, en particulier des agressions sexuelles, dans la réalité virtuelle. Andrew Bosworth, directeur de la technologie de Meta, a lui-même reconnu que le harcèlement dans un métavers est “une menace existentielle” pour les ambitions de son entreprise, selon une note confidentielle révélée en novembre par le Financial Times. Il a également admis que la modération à grande échelle était “pratiquement impossible”. 

Une fissure de plus dans l’empire Facebook

La jeune femme participait à une séance de bêta-test avant le lancement officiel de Meta. C’est au détour d’une publication sur la page officielle d’Horizon Worlds qu’elle décrit les faits et explique avoir été agressée sexuellement par l’avatar d’un inconnu, comme le rapportait The Verge.

« Le harcèlement sexuel est déjà quelque chose de grave en ligne, mais être en réalité virtuelle ajoute de l’intensité à ce type d’événement. Je n’ai pas seulement été pelotée hier soir, il y avait également d’autres personnes qui soutenaient ce comportement, et m’ont fait me sentir isolée dans cet espace. »

La jeune femme a rapporté cet incident auprès de l’équipe Meta. Les services de modération ont préféré noter le fait qu’elle n’avait pas activé les « dispositifs de sécurité ». Parmi ceux-ci, il existe par exemple la « bulle de sécurité », qui permet de maintenir une distance avec les autres utilisateurs.

Pour Vivek Sharma, vice-président d’Horizon Worlds, il s’agit d’un « accident absolument malheureux ». Il considère ce « retour d’expérience utile » pour « optimiser et rendre faciles d’accès nos dispositifs de sécurité ».

La modération des métavers a déjà soulevé de nombreuses questions. Dans un entretien accordé au Financial Times, Andrew Bosworth, président chargé de la réalité virtuelle et de la réalité augmentée chez Facebook, a exprimé de grandes inquiétudes quant à la possibilité que ces univers virtuels deviennent des lieux « toxiques ».

« Le choc est le même que dans la vraie vie »

Ces questions ne sont, pourtant, pas neuves. Les exemples d’agression sexuelle dans des mondes immersifs, qu’il s’agisse ou non d’expériences en réalité virtuelle, sont nombreux. En 2016, une utilisatrice du jeu de tir QuiVR racontait dans un post de blog avoir subi des attouchements à la poitrine par un autre joueur. Et dès 1993, un article du journaliste américain Julian Dibbel, « A Rape in Cyberspace » (« Un viol dans le cyberespace »), décrivait comment un membre d’un « MOO » (Multi-user dimension Object Oriented), une communauté en ligne reposant sur des échanges textuels, avait forcé d’autres joueurs et joueuses à des simulations d’actes sexuels.

Plus largement, d’après une récente étude de l’institut Ipsos, 41 % des Français (et 81 % des 18-24 ans) ont déjà été victimes de violence en ligne. « En un sens, le harcèlement dans les métavers est motivé par les mêmes facteurs que celui qu’on constate sur d’autres plates-formes : on se sent déconnecté des conséquences de nos actions, explique Katherine Cross, chercheuse américaine en sciences de l’information à l’université de Washington, spécialisée dans le harcèlement en ligne. Mais il existe une différence fondamentale, qui peut rendre cette expérience bien pire : la réalité virtuelle est conçue pour nous faire croire que ce que nous vivons est vrai. »

La réalité virtuelle, par sa nature immersive, rend la présence des autres joueurs étonnamment tangible, et parfois intimidante, selon les situations. Ce sentiment peut être aggravé selon l’attachement que l’on ressent à l’égard de son avatar, souvent censé nous représenter. On a beau savoir que l’univers est factice, l’émotion ressentie, elle, peut être bien réelle. Ainsi, les victimes d’agressions sexuelles dans des métavers témoignent de leur malaise, voire d’un traumatisme. « Le choc que j’ai ressenti était similaire à celui d’autres agressions que j’ai subies dans la vraie vie »racontait l’une d’entre elles au Guardian en 2016.

(Eduquer à) la modération des gestes

La modération des métavers est au carrefour d’enjeux divers. Les défis ne sont pas les mêmes dans les zones publiques – comme les salons d’accueil – que dans des communautés fermées, qui disposent souvent de modérateurs volontaires. Et, au contrôle du contenu produit par les internautes (textes ou images, comme sur un réseau social classique), s’ajoute celui des discussions tenues à l’oral et des comportements physiques. « Dans un métavers, la toxicité prend plein de formes différentes. Il y a le sujet de la voix. Comment repérer une insulte ? Ou si une personne très jeune discute avec d’autres plus âgées ? », détaille Charles Cohen, PDG de Bodyguard, entreprise française spécialisée dans les outils automatiques de modération pour les particuliers et les entreprises. « Et puis, il y a les gestes. Si un avatar en suit un autre, est-ce par jeu, ou s’agit-il de harcèlement ? »

A défaut de pouvoir contrôler ce genre d’attitudes en direct, la plupart des plates-formes proposent une panoplie d’outils pour améliorer l’expérience des internautes : activer une frontière invisible autour de son corps virtuel, moduler la tessiture de sa voix (si une femme veut se faire passer pour un homme), réduire les autres avatars à des petites boules flottantes… On peut aussi signaler les actions problématiques, comme sur un réseau social, mais encore faut-il avoir enregistré une vidéo à apporter comme preuve.

Le système VRchat est très complexe et vous permet d’adapter votre expérience en fonction des personnes avec lesquelles vous interagissez. VRCHAT

L’autre sujet crucial est celui du design. Comment construit-on un univers virtuel qui empêcherait les abus en amont ? Des métavers proposent des avatars sans jambes (évitant ainsi des postures sexuelles), proscrivent certains gestes avec les mains virtuelles (sur la version de base de VRChat, on peut lever son pouce en l’air, mais pas son majeur), prévoient des zones où un avatar devient aussitôt invisible aux yeux des autres, que ce soit pour se protéger ou faire une pause.

Beaucoup de mondes virtuels choisissent aussi de rappeler leurs règles de manière peu subtile, au travers de posters ou d’avertissements qui s’affichent pendant les temps de chargement. Comme si, en marchant dans la rue, des panneaux nous rappelaient sans cesse qu’il est interdit de gifler autrui.

Ces questions ne sont pourtant pas nouvelles.

Les exemples d’agressions sexuelles dans des mondes immersifs, qu’il s’agisse ou non d’expériences de réalité virtuelle, sont nombreux. En 2016, une utilisatrice du jeu de tir à l’arc QuiVR racontait dans un billet de blog qu’elle avait été touchée au torse par un autre joueur. Et dès 1993, un article du journaliste américain Julian Dibbel intitulé “A Rape in Cyberspace” décrivait comment un membre d’un “MOO” (Multi-User Domain Object Oriented), une communauté en ligne basée sur des échanges de texte, avait forcé d’autres joueurs masculins et féminins dans des actes sexuels simulés.

Dans « EchoVR », des avertissements accueillent les joueurs:

 

 

 

 

De la même manière que les femmes et les minorités sont déjà les cibles et les victimes les plus fréquentes du cyberharcèlement, les métavers pourraient ainsi amener un nouveau type « d’agression » à voir le jour, à la frontière entre le réel et le virtuel.

Qui est responsable ?

« Dans n’importe quel environnement ou jeu, il y a des règles explicites et implicites », explique Martin Buthaud, doctorant en philosophie à l’université de Rouen (laboratoire Equipe de recherche interdisciplinaire sur les aires culturelles), qui travaille sur les métavers. « Cela vaut aussi pour les métavers. Est-ce qu’on veut expliciter toutes les règles sous-jacentes et bâtir des mondes aux allures autoritaires ? Ou est-ce que l’on part du principe que les internautes savent déjà comment se comporter, au risque d’avoir des problèmes ? C’est un équilibre délicat. »

Comme en témoigne l’exemple de cette testeuse d’Horizon Worlds, dévoilé dans la presse fin 2021, qui a été victime d’un attouchement sexuel par un autre avatar. Au moment de son agression, elle n’a pas su déployer la « safe zone », une fonctionnalité qui permet en théorie à un utilisateur de disparaître aux yeux des autres.

Cette situation démontre que les plates-formes ne peuvent pas toujours se décharger de leurs responsabilités sur les internautes. Elle pose aussi des questions complexes : comment répartir les torts entre l’agresseur, qui s’est mal comporté, et la plate-forme, dont les outils n’ont pas protégé ? Doit-on faire évoluer les lois encadrant la haine en ligne et les responsabilités des réseaux sociaux pour prendre en compte la dimension physique de l’agression d’un avatar virtuel ? Et surtout, comment éduquer les joueurs en amont, pour qu’ils cessent ces violences ?

La modération est, depuis longtemps, une épine dans le pied des grandes entreprises du Web, accusées de ne pas assez investir pour la sécurité des internautes, et d’avoir conçu des plates-formes impossibles à contrôler. Les métavers, parfois décrits comme notre futur en ligne, pourraient-ils être l’occasion de faire les choses correctement, dès le commencement ? Ou, au contraire, est-on déjà en train de reproduire les erreurs du passé ? « La modération est souvent utilisée comme un pansement pour régler les problèmes structurels des plates-formes, regrette Katherine Cross. On doit construire des métavers qui prennent en compte les abus potentiels dès la première ligne de code. Mais, pour des grosses entreprises comme Meta, malheureusement, la modération restera probablement un sujet auquel on réfléchira après coup. Comme cela a toujours été. » Extrait de l’article de Lucie Ronfaut pour Le Monde

Facebook a réagi en oeuvrant à une “solution”

Les experts en sécurité affirment que les mesures que Facebook a mises en place jusqu’à présent pour lutter contre les comportements indésirables sont réactives, ne fournissant un soutien qu’une fois que le préjudice a été causé. Alors quoi? Appliquer des sanctions à ces joueurs agressifs dans le jeu ? Avertissements, bannissement ?

Un utilisateur peut également entrer dans une “zone de sécurité personnelle” pour s’éloigner de son environnement virtuel, dessiner une “bulle” personnelle pour protéger son espace contre d’autres utilisateurs, ou demander à un spécialiste de la sécurité invisible de surveiller une situation délicate. Bosworth a affirmé dans sa note que Facebook devrait s’appuyer sur ses règles communautaires existantes, qui autorisent par exemple les jurons en général mais pas contre une personne en particulier, mais ont également “un biais plus fort en faveur de l’application d’une sorte d’avertissement, des suspensions successivement plus longues, et finalement l’expulsion des espaces multi-utilisateurs ». Il a suggéré que parce que les utilisateurs auraient un seul compte avec Meta, la nouvelle société holding de Facebook, ils pourraient être bloqués sur différentes plates-formes, même s’ils avaient plusieurs avatars virtuels. “La théorie ici doit être que nous pouvons faire évoluer la culture afin qu’à long terme, nous n’ayons pas à prendre ces mesures d’application trop souvent”, a-t-il ajouté. Il a cependant reconnu que l’intimidation et les comportements toxiques peuvent être exacerbés par la nature immersive de la réalité virtuelle. Cela a été mis en évidence dans une étude réalisée en 2019 par des chercheurs de la division Oculus de Facebook, qui ont découvert que plus d’un cinquième de leurs 422 répondants avaient signalé une “expérience inconfortable” en réalité virtuelle. “L’impact psychologique sur les humains est beaucoup plus important”, a déclaré Kavya Pearlman, directeur général de XR Safety Initiative, une organisation à but non lucratif axée sur l’élaboration de normes de sécurité pour la réalité virtuelle, augmentée et mixte. Les utilisateurs retiendraient ce qui leur arrive dans le métavers comme si cela s’était produit dans la vraie vie, a-t-elle ajouté.

Au lieu de cela, Facebook pourrait utiliser de manière proactive les technologies émergentes d’intelligence artificielle, notamment la surveillance de la parole ou du texte à la recherche de mots-clés ou la numérisation de signaux d’activités anormales, comme un adulte s’approchant à plusieurs reprises d’enfants ou faisant certains gestes. “Ces filtres vont être extrêmement importants”, a déclaré Mike Pinkerton, directeur de l’exploitation du groupe d’externalisation de la modération ModSquad. Mais l’IA reste inefficace sur les plates-formes actuelles de Facebook, selon les propres évaluations internes de l’entreprise. Un exemple notable d’une IA n’ayant pas réussi à capturer une vidéo en direct problématique s’est produit au début de 2019, lorsque Facebook a été critiqué pour ne pas avoir réussi à contenir la diffusion d’images des attentats terroristes de Christchurch. Facebook a déclaré au Financial Times qu’il “explorait la meilleure façon d’utiliser l’IA” dans Horizon Worlds, ajoutant qu’il n’était “pas encore construit”. Au-delà de la modération du chat en direct et des interactions, Facebook devra peut-être également concevoir un ensemble de normes pour les créateurs et les développeurs qui s’appuient sur sa plate-forme métavers, qui, selon lui, sera ouverte et interopérable avec d’autres services. Ethan Zuckerman, directeur de l’Institute for Digital Public Infrastructure de l’Université du Massachusetts à Amherst, a déclaré qu’afin d’empêcher le spam ou le harcèlement, l’entreprise pourrait envisager un processus d’examen pour les développeurs similaire aux exigences de l’App Store d’Apple.

Cependant, une telle vérification pourrait “ralentir considérablement et vraiment nuire” au processus de création ouvert que Zuckerberg a proposé, a-t-il ajouté. Dans sa note de service, Bosworth a déclaré que la société devrait établir une base de normes pour les développeurs VR tiers, mais que c’était “une erreur” de les maintenir au même niveau que ses propres applications. “Je pense qu’il y a une opportunité dans la réalité virtuelle pour les consommateurs de rechercher et d’établir une” place publique “où l’expression est plus valorisée que la sécurité s’ils le souhaitent”, a-t-il ajouté. Il n’est pas clair si cette approche s’appliquerait aux développeurs qui construisent dans son futur métavers, en plus de ceux qui créent des applications pour son casque Oculus actuel. Un porte-parole de Facebook a déclaré que la société discutait maintenant du métavers pour s’assurer que les contrôles de sécurité et de confidentialité étaient efficaces pour assurer la sécurité des personnes.

On le pressent, ce ne sera pas le travail d’une seule entreprise. Cela nécessitera une collaboration entre l’industrie et avec des experts, des gouvernements et des régulateurs pour bien faire les choses.

Et des éducateurs (parents, profs, éducs)?

Comment et où?…

********************

Important : les principales sources (de cet article) sont en liens surlignés dans le texte.

Il existe de nombreux métavers (pas que Facebook). Exemple : The Sandbox, l’un des plus grands métavers, fondé par deux français.

Si vous souhaitez construire quelque chose dans Méta (de Facebook), c’est par ici le tuto.

Edge Communication oeuvre depuis longtemps pour un monde meilleur. “Societal marketing communication”, telle est depuis 32 ans la baseline de la scrl APTITUDES, maison-mère de la srl Edge Communication (créée en 1990). Ainsi, en 2005, nous avions créé un site interactif ludique, spécialement destiné à la cible jeune, à l’occasion de la journée SAFER INTERNET.

En 2008, toujours pour un de ses clients, Edge Communication piégeait les ados avides de téléphonie mobile pas chère... “CelBel, trop beau pour être vrai” (titre La Libre Belgique) => Un abonnement gratuit jusqu’à 21 ans? Avec SMS, chats, MSN et mails compris? C’est l’offre imbattable de CelBel qui se présente comme un nouvel opérateur téléphonique se testant sur le marché belge. Derrière cette poudre aux yeux, se cache en fait une campagne qui vise à mettre en garde les jeunes contre les dérives commerciales en ligne. Résumé au JT (RTBF) @ https://youtu.be/XezAxmHgTdA

Pour optimiser votre e-réputation => https://www.edgecommunication.be

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.