Live now
Live now
Masquer
Source : Ståle Grut / NRKbeta
Société

Victime de deepfake pornographique, Alexandria Ocasio-Cortez estime que « ça s’apparente à un viol »

La démocrate Alexandria Ocasio-Cortez a été victime d’un montage pornographique devenu viral sur X. Dans une interview pour Rolling Stone, elle se livre sur cette expérience traumatisante.

Une scène d’horreur. Alors qu’elle effectuait un trajet en voiture avec son conseil, la démocrate Alexandria Ocasio-Cortez, plus jeune représentante jamais élue au Congrès des États-Unis, a eu la traumatisante expérience de découvrir qu’elle était victime de Deepfake Porn, une technique de synthèse multimédia qui utilise l’intelligence artificielle pour superposer le visage d’une personne à des images pornographiques déjà existantes. Dans une interview accordée au magazine Rolling Stone, elle s’est livrée sur cette cyberviolence d’une cruauté inouïe.

Les deepfakes n’ont rien « d’imaginaires »

La parlementaire a expliqué qu’être confrontée à une représentation d’elle-même en train d’accomplir un acte sexuel lui a fait réaliser que voir son image détournée à des fins pornographiques n’est pas du tout aussi abstrait ou « imaginaire que ce que les gens veulent bien nous faire croire ». Citant des études sur le sujet, AOC a rappelé que le cerveau humain a beaucoup de difficultés à différencier le vrai du faux, même lorsqu’il sait que ce qu’il analyse est faux. Elle a ajouté s’être repassé les images en boucle dans sa tête le reste de la journée.

« C’est choquant de voir des images de soi que quelqu’un d’autre pourrait penser être réelles », a abondé Alexandria Ocasio-Cortez à Rolling Stone. « En tant que survivante d’une agression sexuelle physique, cela ajoute un niveau de dysrégulation. Cela fait resurgir un traumatisme, alors que je suis… au milieu d’une putain de réunion ». Selon elle, « digitaliser cette humiliation violente » s’apparente à commettre un viol physique, et fort est à parier que « certaines personnes iront jusqu’au suicide après en avoir été victime ».

Un arsenal législatif insuffisant

Au début de l’année, un vague de deepfakes pornographiques avait pris pour cible la chanteuse américaine Taylor Swift, remettant sur le devant de la scène l’urgente nécessité de réguler cette pratique dangereuse, qui passe aujourd’hui totalement entre les mailles du filet juridique. Comme le rappelle le Guardian, Ocasio-Cortez soutient d’ailleurs une loi du Congrès – connue sous le nom de Disrupt Explicit Forged Images and Non-Consensual Edits Act of 2024 – visant à permettre « aux victimes de pornographie IA non consensuelle de poursuivre plus facilement les éditeurs, les distributeurs et les consommateurs de contrefaçons numériques classées X ».

En France, de nombreuses personnalités féminines publiques, telles que Salomé Saqué ou Léna Situations, ont également été victimes de ce mode de cyberviolence, qui ne vise pas tant à tromper les utilisateurs (amenés à penser qu’il s’agit d’images réelles), mais bien à exercer un contrôle sur le corps des femmes, comme l’explique la journaliste Lucie Ronfaut dans un article publié sur le site de Numerama.

En France aussi, pourtant, la loi reste faillible face à ce fléau. Comme il est aujourd’hui extrêmement difficile d’identifier les auteurs de ces deepfakes, il reste quasi impossible de les punir avec l’arsenal juridique actuel.


Ajoutez Madmoizelle à vos favoris sur Google News pour ne rater aucun de nos articles !

Les Commentaires

5
Avatar de Mary-Sue
13 avril 2024 à 18h04
Mary-Sue
Aujourd’hui le monde de l’intelligence artificielle est le Far West
Ce passage en particulier m'a vraiment beaucoup rappelé ce qu'il se disait avant sur le téléchargement illégal, bien avant Hadopi & co. Et on a aussi tous vu l'échec cuisant d'hadopi qui était vraiment un pavé dans la mare. C'est même encore plus facile aujourd'hui, malgré les tentatives de fermetures de certains de ces sites, notamment avec la popularisation des VPN qui là aussi, ça n'a jamais été aussi facile ni aussi mis en avant.
C'est juste vraiment avant qu'il aurait fallu se réveiller, maintenant et effectivement, les IA se retrouvent déjà partout et on est plus proche de "hydre" que de far west. Tu coupes une tête, tu en retrouves deux, parce que ça s'est popularisé à une vitesse assez folle en peu de temps. Que la sphère politique ne réalise que maintenant qu'il est peut-être temps de réguler tout ça, ben c'est déjà trop tard et je suis même plutôt abasourdie par le temps qu'ils leur a fallu pour se réveiller sur le sujet. Vraiment. A ce stade, j'espère plutôt qu'ils vont essayer de miser sur des lois punissant sévérement l'usage d'IA comme les deepfake lorsque c'est pour causer du tort à une personne, ou d'interdire la reproduction voix/visage sans accord signé, plutôt que juste des lois pour restreindre l'usage des IA parce que ça, c'est clairement pas suffisant.
3
Voir les 5 commentaires

Plus de contenus Société

Source : Canva
Société

Voici les 3 objets les plus sales de votre cuisine

Source : Brooke Lark / Unsplash
Travail

Faire face aux harceleurs de ma boite : mon histoire

14
femme-course
Société

Comment atteindre une égalité femmes-hommes dans le sport ?

1
Source : unsplash
Psycho

On a testé cette appli anti-addiction qui promet de se libérer des réseaux sociaux

1
Source : Madmoizelle
Société

« Être gros, ce n’est pas facile dans l’espace public », dans le quotidien de Virginie Grossat, influenceuse grande taille

boire-plus-deau
Santé

La boisson qui hydrate le plus n’est pas l’eau

5
Source : Canva
Société

Violences conjugales et JO : « Si on veut isoler les agresseurs, il faut que toute la population se mobilise »

1
Crèmes solaires pour peaux noires SPF50
Santé

J’ai testé et approuvé sur peau noire 8 crèmes solaires SPF50 parfaites pour toutes les carnations

16
Canva
Société

Arnaques sur l’étiquette : 4 produits de l’été à éviter

1
laver-visage-douche
Lifestyle

Voici l’heure exacte à laquelle vous devriez vous doucher pour vous sentir moins stressé

1

La société s'écrit au féminin