Utilisation malveillante de l’IA dans les écoles
En octobre dernier, Francesca Mani, 14 ans, était dans son cours d’histoire au lycée lorsqu’elle a entendu une rumeur selon laquelle certains garçons avaient des photos nues de camarades de classe. Elle a vite appris que son image en faisait partie, même si les photos avaient été retouchées par un site ou une application de « nudification », capable de transformer des photos de personnes habillées en images nues réalistes. Au cours des 20 derniers mois, près de 30 incidents similaires ont été enregistrés dans des écoles aux États-Unis, sans compter d’autres dans le monde. Nous tenons à vous prévenir : certains de ce que vous entendrez, voire verrez, sont inquiétants, mais il est crucial de mettre en lumière ces sites de « nudification ». Ils ne sont pas cachés sur le dark web, mais sont en fait largement accessibles et faciles à utiliser, et peu de mesures semblent avoir été prises pour les contrer.
Francesca Mani n’avait aucune idée de l’existence de ces sites lorsqu’elle a découvert qu’elle et plusieurs autres filles du lycée Westfield, dans le New Jersey, avaient été ciblées. Selon une plainte déposée par l’un des parents d’une autre fille, un garçon de l’école aurait téléchargé des photos d’Instagram sur un site appelé Clothoff. Nous nommons ce site pour sensibiliser à ses dangers potentiels.
Il existe plus d’une centaine de ces sites de « nudification », et il suffit d’effectuer une recherche rapide pour les trouver. Clothoff est l’un des plus populaires, avec plus de 3 millions de visites le mois dernier, selon Graphika, une société d’analyse des médias sociaux. Ce site propose désormais également de « nudifier » les hommes, même si les nus féminins sont de loin les plus demandés. “Avez-vous quelqu’un à déshabiller?” » demande le site Clothoff. Vous pouvez télécharger une photo ou demander une démo gratuite montrant l’image d’une femme habillée, puis quelques secondes plus tard, ses vêtements disparaissent. Nous avons flouté cette image, mais les résultats semblent très réalistes.
Francesca n’a jamais vu ce qui avait été fait à sa photo, mais selon la plainte, au moins un « nu » généré par l’IA a été partagé sur Snapchat et vu par plusieurs élèves de l’école. Le pire, selon Francesca, c’est qu’elle et les autres filles ont appris qu’elles étaient des victimes lorsque leurs noms ont été annoncés au micro de l’école.
Francesca Mani : « Je pense qu’il s’agissait d’une violation majeure de notre vie privée lorsque les mauvais acteurs ont été chassés furtivement de leur classe. Quand j’ai quitté le bureau du directeur, je marchais dans un couloir et j’ai vu des groupes de garçons rire de groupes de filles en larmes. C’est à ce moment-là que j’ai réalisé que je devais arrêter de pleurer et de me mettre en colère parce que c’était inacceptable.
Cet après-midi-là, le directeur de Westfield a envoyé un e-mail à tous les parents de l’école, annonçant que « certains de nos élèves avaient utilisé l’intelligence artificielle pour créer des images pornographiques à partir de photos originales ». Le directeur a également précisé que l’école enquêtait et qu’à ce stade, ils pensaient que toutes les images créées avaient été supprimées et n’étaient pas publiées.
Dorota, la mère de Francesca, qui est également enseignante, n’a pas été convaincue par la réaction de l’école.
Dorota Mani : « Je ne sais pas s’ils ont pris les mesures appropriées. »
Bon à savoir
- Les sites de nudification utilisent des algorithmes d’IA avancés pour modifier les images.
- La législation concernant les images inappropriées de mineurs reste floue, exposant les victimes à un préjudice psychologique important.
- Des initiatives législatives sont en cours, comme le « Take It Down Act », visant à lutter contre ce phénomène.
- Image(s) Source(s) : www.cbsnews.com
- Source : https://www.cbsnews.com/news/schools-face-new-threat-nudify-sites-use-ai-create-realistic-revealing-images-60-minutes-transcript/
Nos rédacteurs utilisent l’IA pour les aider à livrer articles frais provenant de sources fiables à nos utilisateurs. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le supprimerons rapidement. / Nos rédacteurs utilisent l’IA pour les aider à proposer à nos lecteurs articles frais provenant de sources fiables. Si vous trouvez une image ou un contenu inapproprié, veuillez nous contacter via le formulaire DMCA et nous le supprimerons rapidement.
Related News :