DALL-E d’OpenAI et Midjourney ont généré des images et des marques protégées, sans y être invité par les utilisateurs

Dans sa bataille contre OpenAI et Microsoft, le New York Times a cité plusieurs exemples où ChatGPT récite presque entièrement textuellement des extraits d’articles de ses journalistes. Les internautes ont remarqué que le plagiat va bien au-delà des textes et touche également les images. Ils ont utilisé des images générées par DALL-E, l’outil d’OpenAI spécialisé dans la génération d’images à l’aide de simples invites textuelles.

L’avènement de modèles de synthèse largement disponibles, tels que Midjourney et Stable Diffusion, a déclenché une intense bataille en ligne entre les artistes qui considèrent les œuvres assistées par l’IA comme une forme de vol et ceux qui accueillent avec enthousiasme ces nouveaux outils créatifs. Les communautés d’artistes établies sont à la croisée des chemins car elles craignent que les œuvres non IA soient noyées par une offre illimitée d’œuvres générées par l’IA, alors que ces outils sont devenus très populaires parmi certains de leurs membres.

En interdisant l’art CG sur son portail d’art, Newgrounds a écrit : Nous voulons garder le focus sur l’art réalisé par des personnes et ne pas inonder le portail d’art d’art généré par ordinateur. Fur Affinity a évoqué des préoccupations concernant l’éthique de la façon dont les modèles CG apprennent des œuvres d’art existantes et de l’écriture : Notre objectif est de soutenir les artistes et leur contenu. Nous ne pensons pas qu’il soit dans le meilleur intérêt de notre communauté d’autoriser le contenu généré par l’IA sur le site. Ce ne sont là que les dernières avancées dans un débat en évolution rapide sur la manière dont les communautés artistiques (et les professionnels de l’art) peuvent s’adapter à des logiciels capables de produire un nombre illimité d’œuvres d’art magnifiques à un rythme qu’aucun être humain travaillant sans outils ne pourrait supporter.

Parmi ces outils, on peut citer DALL-E 3, le système d’IA d’OpenAI qui permet de générer des images à partir de quelques mots ou d’éditer et affiner des images existantes par les mêmes moyens. Par exemple, l’invite du renard dans un arbre afficherait une photo d’un renard assis dans un arbre, ou l’astronaute avec un bagel à la main montrerait, eh bien, vous voyez où cela va. Le logiciel crée non seulement une image dans un style unique, mais vous pouvez ajouter différentes techniques artistiques à votre guise, en entrant des styles de dessin, de la peinture à l’huile, de la pâte à modeler, du tricot de laine, du dessin sur un mur de grotte ou même comme une affiche de film des années 1960.

Quand l’IA reproduit des œuvres protégées par le droit d’auteur

Cependant :

OpenAI DALL-E

Certains ont commencé à remarquer que DALL-E reproduisait des œuvres protégées par le droit d’auteur. Par exemple, cet internaute déclare : Il devrait être clair désormais que même des invites très vagues conduisent systématiquement à des violations de droits d’auteur et/ou de marques. Comment la responsabilité peut-elle être imputée à l’utilisateur lorsque le modèle genAI s’efforce de commettre des violations sans y être invité* ?

Ou même Justine Moore de A16Z qui déclare : Nous gagnons définitivement la bataille du droit d’auteur, les gars. Ces frères italiens ne ressemblent en rien à Mario et Luigi.

À mi-parcours

Mais DALL-E n’est pas le seul système à proposer ce genre de rendu. Reid Southern, concepteur de films et illustrateur, a déclaré avoir trouvé des preuves convaincantes de la violation flagrante du droit d’auteur de « Midjourney ».

Au cas où vous seriez curieux, j’ai beaucoup plus de violations du droit d’auteur de Midjourney à partager. Cela inclut plus d’exemples comme cet exemple de Dune de répétition de la même image encore et encore. Ce n’est pas un cas isolé, je crois qu’il est en fait assez courant, et je compte le démontrer.

Pour un expert en IA, rien de tout cela ne peut être facilement résolu…

Gary Marcus porte plusieurs casquettes et se présente comme un expert de premier plan en matière d’IA, s’exprimant devant le sous-comité de surveillance de l’IA du Sénat américain, fondateur/PDG de Geographic Intelligence (acquise par Uber), conférencier TED.

Face à la situation, il a déclaré :

Je suppose que rien de tout cela ne peut être facilement résolu.

Des systèmes comme DALL-E et ChatGPT sont essentiellement des boîtes noires. Les systèmes GenAI ne donnent pas d’attribution aux documents sources car, du moins dans leur forme actuelle, ils ne le peuvent pas. (Certaines entreprises recherchent comment faire ce genre de chose, mais je ne connais jusqu’à présent aucune solution convaincante.)

À moins que quelqu’un puisse inventer une nouvelle architecture capable de suivre de manière fiable la provenance du texte génératif et/ou des images génératives, la violation, souvent non demandée par l’utilisateur, continuera.

Un bon système doit fournir à l’utilisateur un manifeste Source* ; les systèmes actuels ne le font pas.

Selon toute vraisemblance, le procès du New York Times n’est que le premier d’une longue série. Aujourd’hui, dans un sondage X à choix multiples, j’ai demandé aux gens s’ils pensaient que l’affaire serait réglée (la plupart l’ont fait) et quelle pourrait être la valeur probable d’un tel règlement. La plupart des réponses concernaient 100 millions de dollars ou plus, et 20 % s’attendaient à un règlement de 1 milliard de dollars. Lorsqu’on multiplie ces chiffres par le nombre de studios de cinéma, de sociétés de jeux vidéo, d’autres journaux, etc., on se retrouve très vite avec des sommes astronomiques.

Et OpenAI est confronté à d’autres risques.

Il a également déclaré que Microsoft était également responsable.

… mais un ingénieur dit que l’exemple du New York Times ne constitue même pas une violation du droit d’auteur

Aucun de ces éléments ne constitue une contrefaçon. Un modèle produisant même la chose exacte, jeton pour jeton ou pixel pour pixel, ne constitue pas une contrefaçon. Les pages de texte rouge de la combinaison ne sont pas non plus convaincantes. Premièrement, il est possible que le texte textuel soit en réalité du RAG dans l’application de chat, n’ayant rien à voir avec le modèle lui-même. Ce serait drôle… Le New York Times n’appréciera pas cette surprise. Même si ce n’est pas le cas et que le modèle récite le texte/les pixels textuellement, encore une fois… et alors ? le New York Times n’a pas d’argument valable à ce sujet.

Il s’agit d’une mauvaise compréhension de l’usage équitable et de la technologie. Les documents constitués et protégés par le droit d’auteur ne sont pas applicables. Il n’est pas non plus illégal de récupérer du contenu et de le revendre, il suffit de demander à HiQ, que le 9ème Circuit protégeait contre Linkedin – HiQ récupérait et revendait littéralement des données non sécurisées provenant (principalement) du site Web commercial de LinkedIn.

Dans l’affaire Authors Guild c. Google, même la numérisation textuelle des livres par Google pour créer une base de données consultable a été considérée comme un usage équitable, considérée comme transformatrice. L’utilisation par OpenAI du contenu du NYT est similaire, le transformant pour l’apprentissage de l’IA où il est divisé en jetons puis converti en intégrations – encore une fois, c’est un malentendu des gens* ; ils pensent que les mots servent à former le modèle. Ce n’est pas le cas. Les nombres entrent en jeu. Pour obtenir des nombres, vous devez transformer les mots en jetons puis en chiffres.

Fox News Network, LLC contre TVEyes, Inc., un service enregistrant tout le contenu diffusé par des organisations à des fins d’indexation et de découpage, a été considéré comme un usage équitable en raison de son objectif transformateur.

..Sony Corp. contre Universal City Studios a soutenu l’innovation technologique dans l’affaire Betamax, en soutenant de nouvelles utilisations technologiques telles que la réalisation de copies complètes d’émissions de télévision.

Le New York Times a également une énorme colline à gravir pour prouver que ses prétendues pertes sont dues à l’IA et non à son propre modèle économique défaillant (un défi, c’est le moins qu’on puisse dire).

Sources : Gary Marcus, Justine Moore

Et toi ?

Êtes-vous surpris de voir l’IA générative s’appuyer sur des œuvres protégées même lorsqu’elles ne sont pas mentionnées dans l’entrée ?

Pensez-vous que cela constitue une violation du droit d’auteur ? Dans quelle mesure ?

Que pensez-vous du raisonnement de Gary Marcus selon lequel le problème existera toujours tant qu’il n’y aura pas de modification de l’architecture pour permettre d’identifier les sources ?

Que pensez-vous de l’argument de Zack selon lequel le cas soulevé par le New York Times ne relève pas de la loi sur le droit d’auteur ?

 
For Latest Updates Follow us on Google News
 

PREV Pourquoi la propagation de la grippe aviaire chez les vaches pourrait menacer les humains
NEXT Une géologue pense avoir percé le mystère de l’arrière-plan de « La Joconde »