Le porno avec des stars incrustées dedans n’est pas le bienvenu sur Internet

Il est désormais facile de remplacer le visage d'une actrice porno par celui d'une célébrité comme Katy Perry ou Taylor Swift. La pratique scandalise... et interroge.

Le porno avec des stars incrustées dedans n’est pas le bienvenu sur Internet
Cet article a été mis à jour ! Retrouvez de nouvelles informations à la fin.

Le 26 janvier 2018

La grande passion d’Hollywood en ce moment, c’est de brouiller les frontières entre réel et réalité.

Kurt Russell a été artificiellement rajeuni pour Les Gardiens de la Galaxie vol. 2 de façon ultra-réaliste. Anthony Hopkins aussi a perdu des décennies dans un flash-back de la série Westworld.

Regardez donc l’exemple ci-dessous :

En haut, on a une Carrie Fisher artificiellement recréée dans Rogue One, un film à très gros budget. En bas, la création d’un internaute qui ne bosse pas du tout dans le domaine des effets spéciaux.

Le réalisme est saisissant. Et selon l’adage « the Internet is for porn », ces technologies sont bien évidemment utilisées pour… plaquer le visage de célébrités « classiques » sur le corps d’actrices porno en pleine action.

Vous vous en doutez, l’innovation fait débat. Car elle est loin de se résumer à un simple support de masturbation.

D’où vient le porno avec des visages de célébrités ?

Fin 2017 circulaient déjà sur Internet, notamment Reddit, des vidéos porno avec le visage d’une célébrité plaqué sur celui de l’actrice. Malgré quelques ratés, le résultat était impressionnant de réalisme.

L’exemple qui a le plus tourné, et qui illustre cet article, est une vidéo utilisant le visage de Gal Gadot, devenue célèbre en incarnant Wonder Woman au cinéma.

En gros résumé, des processus d’intelligence artificielle et de machine learning permettent de créer un « masque » en compilant de nombreuses photos de la même personne.

Ensuite, il est possible d’appliquer ce « masque » sur une vidéo. Et ce n’est plus réservé aux passionné·es d’informatique : des applications de plus en plus accessibles sont disponibles.

La pratique est connue sous le nom de deepfake.

Si je vous en parle aujourd’hui, c’est parce qu’elle est en plein essor. Le fil Reddit dédié à ces montages, /r/deepfakes, cumule plus de 30 000 abonné·es… contre 15 000 il y a 2 jours, selon The Verge.

Voilà : nous vivons dans un monde où il est possible, relativement facilement, de mettre le visage de quelqu’un sur un autre corps. D’intégrer une star de cinéma à un film X. Et ça ne va pas sans risques.

Pourquoi le porno avec des visages de célébrités fait scandale

Sur Internet, rien ne disparaît. Plus on veut étouffer une chose, supprimer un contenu, plus il se multiplie, cloné à l’infini et stocké tout autour du monde.

Gal Gadot, Taylor Swift ou Natalie Dormer ont beau être riches et célèbres, elles n’arriveraient probablement pas à effacer totalement les vidéos les mettant dans des contextes pornographiques.

Ce droit à l’image, leur image, n’est plus sous leur contrôle : en quelques clics, j’ai vu une femme à laquelle quelqu’un a apposé le visage de Katy Perry dévoiler son imposante poitrine… et la chanteuse ne peut rien y faire.

De plus, comme le porno est majoritairement fait par des hommes hétéro pour des hommes hétéro, pour l’instant il n’y a quasiment que des femmes célèbres qui se voient mises en scène ainsi.

Alison Brie se fait prendre sur un bureau, Kristen Bell près d’une fenêtre. Megan Fox est en pleine sodomie. Nicolas Cage, lui, est… son propre double à la télé ! Qu’est-ce qu’on rit !

Ce sont toujours les femmes qu’on met dans des situations sexuelles, toujours les femmes dont on récupère l’image pour leur faire « faire » ce qu’on désire d’elles…

Et vous imaginez ce que ça sera quand ces montages concerneront tout le monde ?

Le « fake porn » ne va probablement pas rester cantonné aux célébrités

Le slut-shaming est toujours bien vivace en 2018, alors que faire le jour où circulera sur Internet la vidéo hyper réaliste d’une femme lambda en plein gang-bang, créée par une personne visant à lui nuire ?

Quelles seront les conséquences ?

Bien sûr, il est possible de dire qu’il s’agit d’un faux. Mais face au possible doute, encore faut-il pouvoir le prouver, ce qui demande des compétences en analyse d’image.

Et c’est sans compter sur tous les gens qui ne prêteront pas attention aux preuves, passeront à autre chose et garderont en tête l’image à jamais ternie de cette femme…

Clairement, cette nouvelle technologie va forcer nos sociétés connectées à se poser d’importantes questions.

Entre fantasme et partage, le « fake porn » est-il moral ?

Quand j’étais ado, j’avais un ÉNORME crush sur Keanu Reeves (c’était juste après ma période Leonardo DiCaprio). C’était une obsession.

Et comme c’était la période où mes hormones dansaient la macarena, j’imaginais régulièrement dans ma tête des scénarios érotiques avec Keanu Reeves en invité principal.

Aidez-moi je replonge adieu

Je pense que vous serez d’accord pour dire que ce n’était pas MAL de ma part. Ce n’était pas amoral. Car Keanu Reeves n’en saura jamais rien (sauf s’il me lit) (si oui, ajoute-moi sur Facebook bébé).

Personne, d’ailleurs, n’a accès à ces fantasmes : ils n’ont existé que dans mon esprit fiévreux d’adolescente.

Mais ce que je me demande, et ce que je vous demande, c’est à quel moment on peut considérer qu’il est amoral d’utiliser de vraies personnes comme supports de masturbation.

Est-ce « mal » d’écrire une nouvelle érotique avec Tom Hardy dans le rôle-titre ? De dessiner Laverne Cox dans un contexte sexuel ? De photoshopper Idris Elba sur le corps d’un modèle nu ?

Est-ce « mal » seulement à partir du moment où on partage nos créations, et où on rend donc accessible cette image faussée d’une personne réelle ? Ou est-ce « mal » seulement si on ne précise pas qu’il s’agit d’une fiction ?

Ces questions me fascinent, tant elles montrent qu’il n’est pas si aisé de tracer la frontière de la moralité quand il s’agit de sexualité.

Que faire maintenant que le « fake porn » existe ?

Il est rare qu’une technologie existante ne se développe pas.

Maintenant que Gal Gadot peut sembler sortir un sextoy d’un colis, j’ai comme l’impression que ces montages d’un nouveau genre sont là pour rester.

Et en soi, ce n’est pas l’innovation le problème, la preuve avec le premier exemple de l’article, qui montre une jeune princesse Leia créée avec très peu de moyens !

Alors comment limiter les risques de ces deepfakes ? J’ai quelques idées…

Banaliser la sexualité, pour éviter le revenge porn

Le risque principal avec la démocratisation du deepfake, c’est l’utilisation de cette technologie pour mettre des gens dans des vidéos compromettantes, et créer du « faux revenge porn ».

Une première piste serait de désacraliser la sexualité, ou en tout cas de la rendre banale, peu intéressante.

À lire aussi : Le sexe n’est pas sacré pour moi, et c’est pas grave, promis

Personne ne se scandaliserait d’une vidéo de Gal Gadot se goinfrant de pâtes ou de Katy Perry faisant une roulade. Ce qui rend ces montages dangereux pour leur réputation, c’est leur caractère sexuel.

Si on ne peut pas empêcher les montages, peut-être peut-on limiter leurs conséquences en considérant le sexe comme quelque chose de normal, et pas comme une pratique dégradante, extrêmement intime ou offensante.

En bonus, ça mettra fin au slut-shaming qui continue encore et toujours de gâcher des vies !

Voir, est-ce croire ?

Un autre aspect à ne pas négliger est notre rapport aux images.

Face à des technologies rendant les fausses images de plus en plus réaliste, au point qu’on ne puisse plus déceler à l’œil nu un contenu original d’un trucage, va-t-on devoir douter de tout ?

Il me semble que le doute est sain, avec parcimonie bien sûr. La remise en question permet de travailler sa curiosité et d’apprendre à vérifier des informations.

Si, en tombant sur une vidéo d’Emma Watson en plein bukkake, on a le réflexe de contrôler son authenticité, alors peut-être qu’on l’aura aussi pour éviter des fake news, théories du complot et autres mensonges viraux.

À lire aussi : Les élèves de CM2 apprennent à déceler les fausses infos… mieux que nous !

Vous l’aurez compris, les questions posées par le « fake porn » dépassent la sphère du X et même celle de la vie privée. C’est notre rapport à la sexualité, et à la vérité, qui est interrogé.

Du coup, mon cerveau turbine à cent à l’heure ! Et le vôtre ? Qu’en pensez-vous ?

À lire aussi : Les adolescents consomment davantage de porno… mais n’ont toujours pas plus d’éducation sexuelle

Mise à jour du 8 février 2018

Contre le fake porn, la résistance s’organise

Plusieurs acteurs importants du Web ont choisi de se désolidariser totalement du fake porn.

L’immense plateforme Pornhub a banni ce type de vidéos et encourage les utilisateurs et utilisatrices à signaler les contenus étant (ou semblant être) du fake porn.

Twitter, dans la foulée, a également interdit le fake porn qui va à l’encontre du règlement concernant la vie privée : il est interdit de partager des vidéos, photos intimes d’une personne sans son consentement.

Et à présent, Reddit a banni /r/deepfakes, le centre névralgique des créations de fake porn, des tutoriels et des échanges d’informations à ce sujet.

Je suis plutôt soulagée que l’appât du gain (enfin du clic) n’ait pas eu raison du respect. Même si ça n’empêchera pas le fake porn d’exister, ça peut limiter sa visibilité et son impact !

CHANSON DE NOEL - MBN & la rédac (clip)

Mymy

Mymy, entre deux bouquins qu'elle chronique parfois en vidéos, est la rédac-chef adjointe/correctrice/community manager de madmoiZelle. Elle aime rester chez elle, les chatons mignons, la raclette du dimanche et les séries télé avec des retournements de situation dedans.

Tous ses articles

Commentaires
  • Zazouyeah
    Zazouyeah, Le 19 février 2018 à 22h23

    @Nefertii : pour répondre à ta question sur les motivations des scientifiques (ou informaticiens, CGI-artists ou que sais-je) qui réalisent ces innovations: souvent, une découverte mène à une autre, et on arrive à certains résultats qui n'étaient pas le but de la recherche/des essais à la base. Par exemple, ça fait des années qu'on développe la reconnaissance faciale pour des raisons de sécurité, on a donc à portée un outil qui permet d'identifier automatiquement dans une image/une vidéo les limites et caractéristiques de tous les visages qui y sont présents. D'un autre côté, l'industrie du film crée des personnages modélisés en 3D qu'ils peuvent coller sur les performances des vrais acteurs (gollum, smaug, maz kanata). A partir de là, il suffit de créer un modèle 3D du visage d'un acteur (ou de lui en plus jeune) pour l'intégrer de manière similaire. La nouveauté de ce programme, c'est qu'il se base sur une bibliothèque de photos de la personne pour créer ce modèle 3D, on n'a donc plus besoin de compétences CGI énormes pour obtenir ce résultat. En bref les scientifiques (informaticiens etc) développent des outils, et ne sont pas vraiment responsables si ces outils sont utilisés à des fins malveillantes (comme l'explique la vidéo qu'a postée @skippy01) .
    Aussi il faut préciser qu'on ne peut pas d'ores et déjà faire faire n'importe quoi à n'importe qui : on peut coller le visage de quelqu'un pour qui on dispose de suffisamment de photos sous tous les angles et dans de nombreuses expressions sur une vidéo qui fait intervenir ces angles et ces expressions (de là à en faire du revenge porn, on n'y est pas tout à fait).

    Pour la vidéo d'Obama, on va un cran plus loin en ajoutant la voix de la personnalité qui correspond à l'image (pas super bien, à mon humble avis :rolleyes: ). Cette fois ça a nécessité en plus une bibliothèque de discours en images et il ne s'agit plus d'un programme en accès libre. Le but recherché est décrit en fin d'article (transmettre des conversations vidéos moins lourdes), mais c'est vrai que vu le choix de sujet, les dérives possibles viennent directement en tête...

Cet article t'a plu ? Tu aimes madmoiZelle.com ?
Désactive ton bloqueur de pub ou soutiens-nous financièrement!