ET SI LES DEEPFAKES MONTRAIENT un autre VISAGE, POSITIF CELUI-LA ?

RESUME (TL*DR de l’article complet) :

Les deepfakes : une autre facette, plutôt positive

Peut-être as-tu déjà entendu parler des deepfakes ? Ce sont des photos ou des vidéos dans lesquelles le visage ou le corps d’une personne est transformé pour ressembler à quelqu’un d’autre. Cela peut sembler amusant, mais il y a aussi des problèmes liés à cette technologie.

Certaines personnes utilisent les deepfakes de manière malveillante, comme créer de fausses vidéos politiques ou des contenus inappropriés. Cela peut causer des problèmes sérieux. Par exemple, Tom Hanks et MrBeast, une célébrité de YouTube, ont été victimes de deepfakes non autorisés pour des escroqueries.

Cependant, il y a aussi des côtés positifs. Des chercheurs ont découvert que regarder des vidéos de deepfakes de soi-même peut aider à apprendre plus rapidement. Par exemple, si tu veux devenir meilleur en sport ou en prise de parole en public, une vidéo de deepfake de toi-même en train de faire ces activités peut être utile.

Cela signifie que les deepfakes peuvent être utilisés pour l’apprentissage et la motivation. Mais il est important de les utiliser de manière éthique, car ils pourraient aussi être utilisés pour des choses négatives.

En résumé, les deepfakes ont des côtés positifs en aidant à apprendre et à s’améliorer, mais il faut faire attention à ne pas les utiliser de manière nuisible.

 #enseignement #deepfake #fitness #apprentissage #sport #parlerenpublic #positif # tomhanks #escroquerie #mrbeast #youtube #fakeforward #scientifique #coachingsportif #IA #AI #intelligenceartificielle #metier #contenu #createur #aide #outil 

ARTICLE LONG READ :

Comme nous le soulignions déjà dans l’essai « ALORS QUOI DEMAIN ? » (paru aux editions-aptitudes.com en octobre 2020), cette technologie fait l’objet d’une presse très négative en raison de son potentiel de diffusion de fausses informations politiques et de développement malveillant de contenus pornographiques… superposant le visage d’une personne sur le corps d’une autre. Elle représente également une menace existentielle pour les professionnels des industries créatives.

Pour ne citer que 2 exemples actuels, Tom Hanks et MrBeast (une célébrité de YouTube) ont récemment mis en garde le public contre l’utilisation de « deepfakes » d’eux-mêmes, générées par l’IA et non autorisées, à des fins d’escroquerie.

Ces incidents ont ravivé les inquiétudes quant à l’utilisation de l’IA dans les médias numériques. Les “deepfakes” semblent avoir été créés en modifiant des vidéos existantes de célébrités pour les faire correspondre à des clones vocaux générés par l’IA (1).

MrBeast (une célébrité américaine de YouTube),
MrBeast (une célébrité américaine de YouTube),

Il y a à peine quelques jours également, MrBeast (YouTubeur américain très populaire), a publié sur le réseau X (anciennement Twitter) un message à propos d’une escroquerie similaire qui met en scène une vidéo modifiée de lui, avec des paroles et des mouvements de lèvres manipulés, faisant la promotion d’une offre frauduleuse de l’iPhone 15. “Beaucoup de gens reçoivent cette fausse publicité de moi”, a-t-il écrit.

Les réseaux sociaux sont-ils prêts à faire face à la montée des deepfakes AI ?

C’est un problème sérieux, ces fausses publicités ne sont que la partie émergée de l’iceberg (2).

 "ATTENTION ! Il y a une vidéo qui fait la promotion d'un plan dentaire avec une version de moi générée par l'IA. Je n'ai rien à voir avec ça", a écrit Hanks sur son fil Instagram.
“ATTENTION ! Il y a une vidéo qui fait la promotion d’un plan dentaire avec une version de moi générée par l’IA. Je n’ai rien à voir avec ça”, a écrit Hanks sur son fil Instagram. Un deepfake IA de Tom Hanks a été utilisé pour vendre une assurance dentaire.

Conséquence un peu malheureuse de tout cela, les tentatives visant à restreindre les logiciels d’IA par le biais d’une réglementation risquent de priver les « chercheurs légitimes d’outils d’IA générative » (généralement des scientifiques) tout en les laissant entre les mains de ceux qui pourraient les utiliser à des fins frauduleuses. Dans le même temps, les réseaux sociaux devront probablement intensifier leurs efforts de modération, en réagissant rapidement lorsque des contenus suspects sont signalés par les utilisateurs.

Bref, si la technologie de génération d’images par l’IA peut désormais créer facilement des “deepfakes” qui brisent des vies, rester attentif à la provenance de chaque photo que nous voyons devient d’autant plus important. A l’avenir tout comme aujourd’hui, nous devrons faire entièrement confiance à la personne qui partage les photos pour en croire une seule. Mais avant que tout le monde ne soit au courant de cette technologie, les deepfakes pourraient provoquer un certain chaos…(3)

Chaque revers aurait-il sa médaille ?

A PROPOS DES « chercheurs légitimes d’outils d’IA générative »

Les vidéos sont couramment utilisées pour soutenir l’apprentissage de nouvelles compétences, pour améliorer les compétences existantes et comme source de motivation pour la formation.

Selon une récente étude menée par le centre de recherche REVEAL de l’université de Bath (Grande-Bretagne), le fait de regarder une vidéo de formation présentant une version “deepfake” de soi-même, plutôt qu’un clip présentant quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant. Ces résultats ont été obtenus dans le cadre de deux expériences distinctes, l’une portant sur l’entraînement physique et l’autre sur la prise de parole en public.

L’auto-modélisation vidéo (VSM) est une technique d’apprentissage qui améliore les performances et la motivation en montrant à l’utilisateur une vidéo de lui-même en train d’exécuter une compétence à un niveau qu’il n’a pas encore atteint.

La VSM traditionnelle est très gourmande en gigas de données et en heures de travail : de nombreuses séquences vidéo doivent être collectées et éditées manuellement afin de créer une vidéo d’auto-modélisation efficace.

« Nous nous attaquons à ce problème en présentant FakeForward, une méthode qui utilise des “deepfakes” pour créer des vidéos d’auto-modélisation à partir de vidéos d’autres personnes. FakeForward transforme les vidéos de personnes plus performantes en outils de formation efficaces et personnalisés en remplaçant leur visage par celui de l’utilisateur. Nous étudions comment FakeForward peut être appliqué efficacement et démontrons son efficacité pour améliorer rapidement les performances lors d’exercices physiques, ainsi que la confiance et la compétence perçue lors d’une prise de parole en public. »

Video 9min

Christof Lutteroth et Christopher Clarke, tous deux du département d’informatique de Bath et coauteurs de la nouvelle étude (voir sources en fin d’article), affirment que leurs résultats présentent deux cas d’utilisation positive des deepfakes et espèrent qu’ils catalyseront d’autres recherches sur les façons dont les deepfakes peuvent être appliqués pour « faire le bien dans le monde ».

Les deepfakes sont souvent utilisés à des fins malveillantes, mais notre étude suggère que FakeForward (le nom utilisé par les chercheurs pour décrire l’utilisation d’un deepfake pour enseigner une nouvelle compétence) est une façon inexplorée d’appliquer la technologie afin qu’elle ajoute de la valeur à la vie des gens en soutenant et en améliorant leurs performances“, a déclaré le Dr Clarke.

Le Dr Lutteroth a ajouté : “Cette étude montre clairement que le deepfake a le potentiel d’être vraiment passionnant pour les gens. En suivant un tutoriel dans lequel ils agissent comme leur propre tuteur, les gens peuvent immédiatement s’améliorer dans une tâche – c’est comme de la magie“.

FakeForward => FITNESS : plus de répétitions, donc plus de plaisir

Pour l’expérience de fitness, les participants à l’étude ont été invités à regarder une vidéo d’entraînement dans laquelle un deepfake de leur propre visage était collé sur le corps d’un pratiquant plus expérimenté.

Les chercheurs ont choisi 6 exercices (planches, squats, squats muraux, redressements assis, sauts de squat et pompes), chacun ciblant un groupe musculaire différent et nécessitant différents types de mouvements.

Pour chaque exercice, les participants à l’étude ont d’abord regardé un didacticiel vidéo dans lequel un modèle faisait la démonstration de l’exercice, puis se sont essayés à répéter l’exercice eux-mêmes. Le modèle a été choisi à la fois pour ressembler au participant et pour le surpasser, bien que son niveau de compétence soit accessible au sujet de l’étude.

Le processus de visionnage de la vidéo et d’imitation de l’exercice a également été réalisé à l’aide d’un instructeur deepfake, où le visage du participant était superposé au corps d’un modèle.

Dans les deux cas, les chercheurs ont mesuré le nombre de répétitions, c’est-à-dire le temps pendant lequel les participants étaient capables de tenir un exercice. Résultat ? Pour tous les exercices, quel que soit l’ordre dans lequel les vidéos ont été regardées, les participants ont obtenu de meilleurs résultats après avoir regardé la vidéo d’eux-mêmes que la vidéo montrant quelqu’un d’autre.

Le Dr Lutteroth déclare :”Le deepfake était un outil très puissant. Immédiatement, les participants ont pu faire plus de pompes, ou tout autre exercice qu’on leur demandait de faire. La plupart d’entre eux ont également indiqué qu’ils faisaient mieux l’exercice qu’avec le tutoriel non simulé, et qu’ils l’appréciaient davantage“.

Communication => Bien parler en public

La deuxième étude FakeForward, réalisée par la même équipe, a révélé que le deepfake peut considérablement améliorer les compétences d’une personne en tant qu’orateur.

Lorsque le visage d’un orateur compétent était remplacé par celui d’un utilisateur, l’apprentissage était considérablement amplifié, la confiance et la compétence perçue en matière de prise de parole en public augmentant après le visionnage de la vidéo FakeForward.

De nombreux participants se sont sentis émus et inspirés par les vidéos de FakeForward, déclarant par exemple : “cela me donne beaucoup de force“, “la vidéo deepfake me fait sentir que parler n’est pas si effrayant” et “lorsque je me suis vu debout et en train de parler, je me suis senti fier de moi“.

En principe, il est déjà possible pour les particuliers de créer des vidéos FakeForward grâce à des applications libres telles que Roop et Deep Face Lab, même si, dans la pratique, un certain degré d’expertise technique est nécessaire.

Limites éthiques

Pour se prémunir contre d’éventuels abus, l’équipe de recherche de FakeForward a mis au point un protocole éthique pour guider le développement des vidéos de “selfie”.

Pour que cette technologie soit appliquée de manière éthique, les gens ne devraient créer que des modèles d’eux-mêmes, car le concept sous-jacent est qu’ils sont utiles pour la consommation privée“, déclare le Dr Clarke.

Le Dr Lutteroth ajoute : “Tout comme le deepfake peut être utilisé pour améliorer les “bonnes” activités, il peut également être utilisé à mauvais escient pour amplifier les “mauvaises” activités – par exemple, il peut apprendre aux gens à être plus racistes, plus sexistes et plus grossiers. Par exemple, regarder une vidéo de ce qui semble être vous en train de dire des choses terribles peut vous influencer davantage que de regarder quelqu’un d’autre en train de dire ces choses“.

Et de conclure : “Il est clair que nous devons veiller à ce que les utilisateurs n’apprennent pas de comportements négatifs ou nuisibles à partir de FakeForward. Les obstacles sont considérables mais pas insurmontables“.

Et vous ?  

Que pensez-vous de ce cas d’application de la technologie deepfake ?

Trouvez-vous cet usage pertinent et utile ?

Voyez-vous une application alternative de FakeForward ?

***********************

NOTES :

  1. Les nouvelles sur les deepfakes d’IA se répandent rapidement quand on s’appelle Tom Hanks. Dimanche passé, l’acteur a publié sur Instagram une mise en garde contre l’utilisation d’une version non autorisée de lui-même générée par l’IA pour vendre un plan dentaire. L’avertissement de Tom Hanks s’est répandu dans les médias, notamment dans le New York Times.
  2. Dans l’annonce, MrBeast, youtubeur/influenceur/créateur très influent semble offrir à 10 000 spectateurs un iPhone dernière version pour seulement 2 dollars ! Dans la plupart des cas, cela indiquerait clairement qu’il s’agit d’une escroquerie, mais quand il s’agit de MrBeast, cela pourrait être crédible.
  3. Même s’il est loin d’être le seul organisme à indiquer la dangerosité des deepfakes IA, le FBI met en garde contre l’utilisation croissante de “deepfakes” générés par l’IA dans le cadre de tentatives de sextorsion.
  4.  Sources : Deepfake celebrities begin shilling products on social media, causing alarm | Ars Technica + FakeForward: Using Deepfake Technology for Feedforward Learning « Deepfake shows its positive face«  https://youtu.be/SIl6BJkyN3k + https://researchportal.bath.ac.uk/en/publications/fakeforward-using-deepfake-technology-for-feedforward-learning + https://youtu.be/L3T4_k-Gjik 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.