Un label de K-pop intente un procès pour avoir falsifié des images pornographiques de ses artistes

Un label de K-pop intente un procès pour avoir falsifié des images pornographiques de ses artistes
Un
      label
      de
      K-pop
      intente
      un
      procès
      pour
      avoir
      falsifié
      des
      images
      pornographiques
      de
      ses
      artistes

JYP Entertainment lance une action en justice pour condamner les « deepfakes », des contenus pornographiques générés grâce à l’intelligence artificielle, qui affectent massivement le pays.

Une importante maison de disques sud-coréenne s’est engagée vendredi à prendre des mesures juridiques énergiques contre les vidéos. «faux profonds » représentant ses artistes K-pop, après la révélation de l’existence de chaînes Telegram partageant des contenus pornographiques générés par l’intelligence artificielle, qui a choqué le pays. Des manifestations ont eu lieu à Séoul.

« Nous sommes très préoccupés par la récente diffusion de vidéos truquées impliquant nos artistes »a déclaré JYP Entertainment, le label de plusieurs groupes de K-pop, dont le groupe de filles Twice. « Nous rassemblons toutes les preuves pertinentes afin de prendre les mesures juridiques les plus fortes possibles (…) sans aucune clémence »JYP Entertainment a été ajouté.

Plus tôt cette semaine, le président Yoon Suk Yeol a appelé à une enquête sur la pornographie deepfake («pornographie deepfake»). De nombreux médias du pays ont rapporté ces dernières semaines l’explosion de ces deep fakes qui insèrent des visages dans des contenus à caractère sexuel grâce à des logiciels d’intelligence artificielle.

Les auteurs de ces deep fakes utilisent parfois des plateformes de réseaux sociaux comme Instagram pour enregistrer ou capturer des photos de leurs victimes. Les principales victimes sont des filles et des jeunes femmes, la police affirmant qu’environ 60 % de ces victimes sont mineures.

D’Instagram au suicide

L’annonce de JYP Entertainment intervient environ deux mois après qu’un autre label de K-pop, ADOR, a déclaré que la police enquêtait sur les créateurs et les distributeurs qui ont profité d’un faux profonds représentant les chanteuses d’un de leurs groupes, NewsJeans.

La Corée du Sud est le pays le plus touché par ces faux contenus pornographiques deepfake, selon un rapport de 2023 de la startup de cybersécurité Security Hero, les chanteuses et actrices du pays représentant 53 % des personnes présentées dans les contenus examinés.

En 2019, la star de K-pop Goo Hara s’est suicidée à l’âge de 28 ans après avoir subi un autre type de violence sexuelle en ligne, « porno de vengeance » (contenu sexuel privé partagé sans consentement sur Internet) et les menaces d’un ex-petit ami mécontent.

 
For Latest Updates Follow us on Google News
 

PREV La réforme d’Oasis insuffle une nouvelle vie aux groupes hommage
NEXT Pourquoi n’y a-t-il pas plus de fruits et légumes moches dans les rayons ?