Après le spam, les « slops » générés par l’IA sont déjà partout sur le Web

Après le spam, les « slops » générés par l’IA sont déjà partout sur le Web
Après le spam, les « slops » générés par l’IA sont déjà partout sur le Web

Depuis l’avènement de l’intelligence artificielle, les contenus générés de toutes pièces prolifèrent sur le web. Ces sites, articles ou fausses vidéos sont partout, et surtout là où personne ne les attend. Selon New York Timesquand “Google vous suggère d’ajouter de la colle non toxique pour que le fromage colle à une pizza“, ou que tu croises messages qui semblent sortir de nulle part provenant de votre fil d’actualité, il s’agit probablement d’un contenu généré de toutes pièces par l’intelligence artificielle.

Qu’est-ce que la pente ?

Apparaissant sur les forums en ligne, le slop désigne «contenus de mauvaise qualité, fausses nouvelles ou fausses vidéos et images générées par l’intelligence artificielle (IA), que l’on retrouve sur les réseaux sociaux, dans l’art ou la littérature et, de plus en plus, dans les résultats de recherche», résume le magazine NSS. Théorisé notamment par le programmeur britannique Simon Willison, le phénomène est de plus en plus inquiétant.

Contrairement à un robot conversationnel comme ChatGPT, ce contenu créé par l’IA donne l’apparence d’un contenu créé par l’homme et joue sur le terrain. « appât à clics » (pousser un utilisateur à cliquer sur un contenu médiocre, mais avec un titre accrocheuret souvent trompeur) pour générer des revenus publicitaires et tromper l’algorithme du moteur de recherche.

Le successeur du spam est là

Comme le spam avant eux, les slops promettent de devenir omniprésents dans nos habitudes de navigation. En réalité, le phénomène est déjà bien constaté, mais Les internautes peinent encore à l’identifier comme tel. Le problème est que depuis mai 2024 et le déploiement de Gemini, le bot conversationnel de Google qui s’appuie sur les ressources du web pour construire ses réponses, s’inspire largement des contenus slop, en affirmant par exemple que les astronautes avaient trouvé des chats sur la Lune. Et c’est là tout le danger du phénomène : entre un article sourcé et un contenu généré artificiellement, sans aucune supervision ni vérification humaine, il est impossible pour le bot de faire la différence.

Le 30 mai, Google a annoncé son intention de réduire certaines fonctionnalités de Gemini, afin d’améliorer certaines erreurs et inexactitudes, et de mettre en avant les lacunes de son chatbot en matière de vérification des données.

Pour ne manquer aucune actualité du Journal du Geek, abonnez-vous sur Google News. Et si vous nous aimez, nous avons une newsletter tous les matins.

 
For Latest Updates Follow us on Google News
 

PREV la révolution qui transforme le jeu
NEXT il est désormais possible de remonter au temps des dinosaures grâce à la réalité virtuelle