Meta vient de lever le voile sur une nouvelle intelligence artificielle : MusicGen. Comme ChatGPT, Google Bard ou Claude d’Anthropic, cette IA est basée sur un modèle linguistique. Les méta-chercheurs misent sur un modèle de type Transformer. C’est un modèle d’apprentissage en profondeur, l’une des principales bases de l’IA, taillé pour avaler une grande quantité d’informations. Sur la base des données collectées, le modèle peut alors produire son propre contenu de manière autonome.
Tout sur MusicGen, la nouvelle IA de Meta
Grâce à ce modèle, l’IA est capable de générer une courte piste musicale en quelques secondes. Pour créer une piste à partir de zéro, l’utilisateur n’a qu’à décrire ce qu’il veut avec une petite phrase. Il convient notamment de décrire le type de musique recherché, d’inclure les instruments à placer et de préciser les émotions que le morceau doit provoquer chez l’auditeur. Vous pouvez guider l’IA en lui fournissant un exemple de piste audio ou en lui demandant de s’inspirer d’une mélodie connue.
Pour former l’IA, les chercheurs de Meta ont utilisé une base de données composée de 20 000 heures de musique autorisé. Le modèle a en effet été alimenté avec des contenus issus d’un corpus interne, Shutterstock ou encore d’un site comme Pond5, explique Meta sur Github.
Les méta-ingénieurs ont ensuite testé plusieurs versions du modèle. Ils ont développé quatre versions de tailles différentes, afin que le modèle puisse s’exécuter sur des ordinateurs peu performants. La première version, limitée à 300 millions de paramètres, privilégie la rapidité et la portabilité au détriment de la précision.
La deuxième itération grimpe à 1,5 milliard de paramètres. Cette version a obtenu les meilleurs retours des testeurs. La troisième version en comprend 3,3 milliards, ce qui reste loin des autres modèles d’IA déjà sur le marché, notamment Palm (540 milliards), LaMDA (137 milliards) ou GPT-3 (175 milliards). C’est ce modèle plus grand qui s’est avéré le plus précis. Les pistes audio étaient toujours très proches de la description écrite. Enfin, un quatrième modèle, appelé Melody, a été développé. Celui-ci prend en charge 1,5 milliard de paramètres et permet de donner un fichier audio à l’IA pour l’aider à produire la musique.
Lire aussi : ChatGPT, Bard et les autres IA ont un gros problème
Comment générer de la musique avec MusicGen ?
Si vous souhaitez tester MusicGen, il vous suffit de vous rendre sur la démo gratuite mise en ligne par Meta. Avant d’y accéder, vous devrez créer un compte sur la plateforme Hugging Faces, qui est entièrement consacrée à l’IA. Le processus ne prend que quelques secondes.
Vous devrez ensuite décrire la musique que vous souhaitez concevoir. Notez que l’algorithme fonctionne avec l’anglais et le français. Une fois votre description saisie, l’IA générera une piste de douze secondes qui correspond à votre demande. Comme toujours, la pertinence de la requête initiale détermine la qualité du contenu produit. Plus vous prendrez de temps pour calibrer votre demande, en écrivant des instructions claires, plus la musique sera proche de ce que vous avez en tête. Vous pouvez ensuite télécharger la piste sur votre ordinateur.
Lors de nos tests, nous avons obtenu des résultats probants, même si certaines pistes étaient plutôt brouillonnes. En général, le modèle comprend et obéit correctement aux instructions. Les articles demandés, tels que les instruments, sont inclus. Par contre, l’ensemble manque parfois cruellement d’harmonie. Gardez à l’esprit qu’il ne s’agit encore que d’une démonstration.
Fidèle à lui-même, Meta a rendu tout le code de MusicGen disponible gratuitement. Cette approche open Source devrait permettre de stimuler la recherche sur l’intelligence artificielle. Le groupe de Mark Zuckerberg l’avait déjà fait avec Lama, pour Large Language Model Meta AI, son modèle de langage principal. Rapidement adopté par les développeurs, le modèle a été utilisé pour concevoir une pléthore de chatbots différents, y compris des alternatives non censurées.
La vague de musique générée par l’IA
Ce n’est pas la première IA qui promet de transformer n’importe quel internaute en compositeur. En janvier, Google a dévoilé MusicLM. Miroir de MusicGen, ce modèle, disponible à titre expérimental via Google Labs, peut convertir du texte en audio.
L’essor des modèles dédiés à la création musicale représente un enjeu majeur pour l’industrie. Face à l’abondance de musique générée par l’IA, des plateformes comme Spotify ou Apple Music sont passées à l’action. Spotify a notamment supprimé des dizaines de milliers de pistes créées par l’IA dans le cadre d’un nettoyage en profondeur le mois dernier. Quelques semaines plus tôt, Apple Music avait également commencé à interdire les contenus produits par des algorithmes, à commencer par un faux duo entre les artistes Drake et The Weeknd. Ces campagnes de suppression ont été réclamées par plusieurs maisons de disques, dont Universal, qui estiment que les créations d’IA représentent une violation du droit d’auteur. La multiplication des générateurs de musique open Source devrait contribuer à aggraver la situation…
Source :
GithubGenericName