News Day FR

Amazon entre dans l’arène avec Olympus, son premier LLM multimodal

Nom de code : Olympe. Projet : un modèle multimodal capable de traiter simultanément des images, des vidéos et du texte. Objectif : gagner en indépendance. Voici en quelques mots les grandes lignes du plan d’Amazon en matière d’intelligence artificielle.

Le géant du cloud et du commerce électronique souhaite en fait avoir son propre LLM, comme indiqué Les informations. Si pour l’instant, on sait peu de choses sur ce modèle, il y a fort à parier que la firme fera la lumière sur le sujet la semaine prochaine lors de son événement annuel AWS re:Invent à Las Vegas.

Un modèle à 2000 milliards de paramètres

Le modèle comprendrait, entre autres choses, les scènes des images et des vidéos et aiderait les clients à rechercher des scènes spécifiques, comme un tir de basket-ball gagnant, à l’aide de simples commandes textuelles. Comprenant 2 000 milliards de paramètres, il dépasserait donc GPT-4, le modèle OpenAI qui compte 1 000 milliards de paramètres et deviendrait de fait le « plus grand » modèle existant. Il serait également disponible sur Bedrock, le service dédié à l’IA générative d’AWS.

L’année dernière, lors de la dernière édition de sa conférence annuelle, AWS a présenté en avant-première le modèle Amazon Titan Image Generator pour Bedrock. Le dernier « peut être utilisé pour générer et itérer rapidement des images à faible coût, peut comprendre des messages complexes et générer des images pertinentes avec une composition d’objets précise et des distorsions limitées », spécifie le fournisseur de cloud. L’entreprise disposait déjà de plusieurs modèles d’IA générative dans son portefeuille, notamment Titan Text Lite et Titan Text Express.

Se débarrasser progressivement des LLM développés par des tiers

En proposant son propre modèle multimodal, Amazon cherche à réduire sa dépendance à la famille de modèles Claude développée par la start-up Anthropic. Les deux sociétés se connaissent désormais bien, comme en témoigne le deuxième coup de pouce financier reçu par la start-up. Ce financement apporté par Amazon à hauteur de quatre milliards de dollars devrait aider la jeune entreprise à avancer dans le développement de ses produits et modèles d’IA.

En échange, le rival d’OpenAI fait une concession majeure et adopte les puces AWS pour la formation et l’inférence de ses modèles. Autre considération : Anthropic propose aux clients AWS d’accéder à ses modèles – dont la famille de modèles Claude 3 –, notamment via Amazon Bedrock.

En parallèle, Amazon prévoit de s’appuyer sur Claude pour la prochaine version de son assistant Alexa afin de rendre ce dernier capable de répondre à des requêtes complexes. Bien évidemment, le géant compte monétiser cette offre. Cependant, il n’est pas clair si Amazon devra payer un supplément à Anthropic pour l’utilisation de Claude dans Alexa. Et il est encore possible que tout change avec l’arrivée d’Olympus. À suivre.

 
For Latest Updates Follow us on Google News
 

Related News :