Mistral AI renforce Le Chat pour gagner du terrain face à ChatGPT

Mistral AI renforce Le Chat pour gagner du terrain face à ChatGPT
Mistral AI renforce Le Chat pour gagner du terrain face à ChatGPT

Hier, Mistral AI a annoncé la disponibilité de Pixtral Large, accessible depuis son interface utilisateur grand public, Le Chat, via sa Plateforme.

Pixtral Large : Mistral AI intensifie son processus VLM

Après Pixtral 12B, Pixtral Large est un VLM, un Visual Language Model (ou modèle de langage visuel). Un VLM est plus communément appelé IA multimodale. Multimodal est un terme désignant un grand modèle de langage capable de traiter du texte (le code est une forme de texte), des images, sûrement, et potentiellement des vidéos ou des fichiers audio.

Un VLM traite le texte et les images en entrée et répond uniquement avec du texte en sortie.

Formé sur la base du Mistral Large 2, Pixtral Large utilise la formule du Pixtral 12B, mais il affiche dix fois plus de paramètres : 124 milliards au total. Le décodeur de texte possède 123 milliards de paramètres et l’encodeur visuel possède 1 milliard de paramètres. Sa fenêtre contextuelle de 128 000 jetons pourrait ingérer au minimum « 30 images haute résolution ».

Le modèle peut ainsi comprendre et expliquer des documents, schémas, images d’un niveau équivalent ou supérieur à GPT4-o, Claude 3.5 Sonnet, LLama 3.2 90B et Gemini 1.5 Pro, selon les benchmarks réalisés par la startup. Pixtral Large surpasse ses adversaires de quelques points aux tests MathVista, DocVQA, VQAv2 et MM MT-Bench. Bref, il comprend les documents autant sinon mieux que ses concurrents et obtient de meilleures notes dans l’interprétation des images relatives aux mathématiques.

Mistral Large bénéficie également d’une mise à jour (24.11) pour mieux gérer les documents longs et les instructions longues, d’une nouvelle « invite système » ainsi que d’un meilleur support des appels de fonctions.

Les deux LLM sont disponibles sous une licence commerciale (Mistral Commercial License) et une autre un peu plus permissive ciblant les chercheurs (Mistral Research License).

En plus de leur future disponibilité sur les plateformes d’IA des fournisseurs de cloud, Mistral Large 24.11 et Pixtral Large-latest sont accessibles depuis l’interface Le Chat.

Le Chat mue pour concurrencer ChatGPT

Pour rappel, Le Chat est l’application concurrente de ChatGPT davantage utilisée pour tester les différents modèles de Mistral AI. En version bêta, il dispose d’une intégration avec un moteur de recherche permettant de citer les sources de contenus générés par le LLM choisi, d’un outil de type canevas (similaire à la fonction Artifacts de Claude.ai et Canvas de ChatGPT) et de capacités de génération d’images propulsées par le modèle de livraison « poids ouvert » de Black Forest Labs Flux Pro ainsi que des réponses plus rapides.

Ces améliorations sont gratuites… pour l’instant. “Chez Mistral AI, notre approche de l’IA est différente – nous ne poursuivons pas à tout prix l’intelligence artificielle générale”, écrivent les représentants de la startup. « Notre mission est plutôt de mettre entre vos mains une IA de pointe, afin que vous puissiez décider ce que vous voulez faire avec les capacités avancées de l’IA », poursuivent-ils. « Cette approche nous a permis de gérer notre capital avec parcimonie, tout en offrant des capacités avancées à des prix abordables. Avec Le Chat, nous proposons un forfait gratuit généreux avec ces fonctionnalités bêta et nous travaillons sur des niveaux premium avec des garanties de service plus élevées.

Clairement, le fournisseur LLM travaille sur un équivalent de ChatGPT Plus et ChatGPT Enterprise. Reste à savoir s’il l’appellera Le Chat Plus et Le Chat Entreprise. En tout cas, Mistral AI compare aussi sa solution à Claude et Perplexity.

Agents et modération de contenu

D’ailleurs, les organisations ont déjà pu tester ces assistants, principalement via leur abonnement Microsoft 365. Sans connexion aux données métiers, ils s’avèrent de peu d’utilité. Les éditeurs estiment que l’IA agentique est la réponse à ce problème. En août dernier, Mistral AI présentait la version alpha d’Agents, un moyen de créer des flux automatisés pour certaines tâches répétitives. La Plateforme propose Agent Builder, une interface WISIWYG aidant à configurer ces agents. L’API associée doit permettre une utilisation programmatique, plus adaptée aux besoins des développeurs. Pour le moment, il est uniquement possible de déployer les agents développés via l’interface.

Au-delà du Chat, Mistral AI a récemment annoncé de nouveaux outils pour contrôler la sortie de ses LLM. Il existe d’abord une API Batch, censée réduire les coûts d’inférence lors du traitement de gros lots de documents.

« L’API Batch offre un moyen plus efficace de traiter les requêtes de gros volumes adressées aux modèles Mistral, pour un coût 50 % inférieur à celui d’un appel API synchrone », assure la startup. « Si vous créez des applications d’IA dans lesquelles le volume de données est prioritaire sur les réponses synchrones, l’API par lots peut être une solution idéale. »

Enfin, la startup française est sans doute l’une des dernières à proposer une API dédiée à la modération des contenus. Pour rappel, Meta a formé en 2023 LLama Guard, un modèle dédié au filtrage des contenus nuisibles. Google a proposé Gemma Guard cette année, tandis qu’OpenAI a lancé une interface de programmation similaire aux Nemo Guardrails de Nvidia en 2022.

 
For Latest Updates Follow us on Google News
 

PREV Instagram permettra de réinitialiser son algorithme de recommandation de contenu
NEXT Promo 929 € Asus ZenBook 14 UM3406HA-DRQD032W, PC portable 14″ OLED DCI-P3 Aluminium Noir Haute Fidélité multimédia nomade créateur 9h Ryzen 7 8840HS SSD 1 To