Bonjour les amis,
L'emploi malveillant des intelligences artificielles fait depuis quelques temps de nombreuses victimes (pour l'essentiel des femmes).
Je vous invite à lire sur le lien ci-dessous ce qui s'est produit la semaine dernière en Espagne où des jeunes adolescentes ont vu des photos d'elles manipulées et les représentant dans le plus simple appareil circuler sur les réseaux sociaux ou être carrément publiées sur des plateformes pornographiques comme onlyfans.
Intelligence artificielle: Faux nus d'adolescentes en Espagne
Selon la police espagnole, des individus ont "manipulé des photos de jeunes filles mineures" pour placer leurs visages sur des corps nus. Onze victimes ont porté plainte.
Sur Instagram, la mère de l’une des victimes, Miriam Al Adib, a dénoncé une «ignominie». «Quand je suis arrivée à la maison, l’une de mes filles m’a dit, avec un dégoût énorme, «Regarde ce qu’ils ont fait!» Ils ont pris une photo d’elle et l’ont montée comme si elle était nue, à l’aide d’intelligence artificielle.» Elle a affirmé que la police lui avait indiqué que ces photos avaient pu être mises en ligne sur la plateforme OnlyFans ou sur «des sites pornographiques».
Une autre mère a déclaré, sur la télévision publique espagnole TVE, que ces images avaient été utilisées comme moyen de chantage pour obtenir de l’argent de la part de sa fille.
En fait, aujourd'hui, on parle d'une trentaine de victimes, des jeunes filles entre 11 et 17 ans ce qui situe ces délits dans la catégorie agravante de "pédopornographie".
La police a déjà identifié plus de 10 suspects appartenant tous à l'environnement de ces jeunes filles. La plupart sont des adolescents et n'ont même pas 14 ans, ce qui veut dire que pénalement ils ne sont pas responsables et qu'ils vont dépendre de la loi sur les mineurs.
L'un des suspects est sorti du groupe de jeunes qui traficotaient les photos quand il s'est rendu compte que circulait aussi sur Whatsapp une photo dénudée de sa propre soeur. On imagine maintenant la situation familiale et comment doivent se sentir aujourd'hui à la fois le jeune coupable, et les parents...et la pauvre frangine!
La loi de protection des personnes est devenue plus sévère en Espagne sauf que face à ce nouveau type de délit il n'est pas simple de quantifier la gravité du préjudice pour les victimes. Une chose est sûre: le préjudice est bien réel, bien grave, surtout pour des jeunes filles mineures.
La justice espagnole prend très au sérieux cette affaire, et il est probable qu'elle tentera d'en faire un exemple pour mettre un coup d'arrêt à de telles pratiques.
Il est clair que l'emploi malveillant des intelligences artificielles a permis de génerer un nouveau type de violence machiste, un nouveau type qui vient s'ajouter à la longue liste des autres violences faites aux femmes. C'est le pompon ! Il ne manquait plus que ça !
Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l'IA, 96 % des fausses vidéos en ligne sont de la pornographie non consensuelle et la plupart d'entre elles représentent des femmes.
Je me permettrai un dernier commentaire. Il y a une vive émotion (que je partage) en Espagne mais si on réfléchit un peu, on se dit que ça fait déjà longtemps que de très nombreuses stars internationales (actrices connues, chanteuses, etc...) se retrouvent sur des vidéos de porno hardcore, des DEEPFAKES, sans que ça n'émeuve beaucoup la société civile. On peut même parler de "montée en puissance" de ce type de violence comme le montre l'article ci-dessous.
In age of AI, women battle rise of deepfake porn
Artificial intelligence-enabled deepfakes are typically associated with fake viral images of well-known personalities such as Pope Francis in a puffer coat or Donald Trump under arrest, but experts
Traduction d'un extrait de l'article ci-dessus
"En Grande-Bretagne, le gouvernement a proposé un nouveau projet de loi sur la sécurité en ligne qui vise à criminaliser le partage de deepfakes pornographiques.
Quatre États américains, dont la Californie et la Virginie, ont interdit la distribution de deepfake porn, mais les victimes ont souvent peu de recours juridique ..."
Les victimes ont souvent peu de recours juridique ! C'est à la fois bien triste et incroyable !
Il serait peut-être grand temps que tous les pays agissent de manière énergique !
commenter cet article …