Avec LLama 3, Meta redéfinit les standards de l’IA open source

Avec LLama 3, Meta redéfinit les standards de l’IA open source
Descriptive text here

Les grands modèles LLM propriétaires d’OpenAI, Google et Anthropic voient émerger un sérieux concurrent open Source. Meta lance LLama 3 en open Source et bouscule le monde des LLM. Mais son IA conversationnelle « Meta AI » reste inaccessible aux Européens.

FLAIR, le laboratoire R&D de Meta, est l’un des grands pionniers et explorateurs de l’IA générative. Si certaines innovations sont destinées exclusivement à des fins expérimentales ou aux services du groupe (Facebook, Instagram, , Threads…), d’autres sont à l’inverse publiées en open Source. Parmi eux, deux sont devenus des composants incontournables de l’écosystème IA : le framework PyTorch et le LLM LLama 2.

PyTorch est le framework ML le plus universellement utilisé sur lequel s’appuient des acteurs comme NVidia, Intel, AMD, OpenAI, Tesla, Midjourney, Uber, etc.

Quant au LLama 2, le LLM s’est imposé depuis 10 mois comme le LLM de référence qui sert de comparatif sur tous les benchmarks du marché. Disponible en open Source et implémenté par tous les acteurs du cloud (Google VectrexAI, AWS BedRock, Azure ML, Hugging Face, IBM Watsonx, etc.), Llama 2 doit son succès non seulement à ses excellentes performances mais aussi à la multitude d’outils disponibles pour optimisez-le, personnalisez-le et peaufinez-le.

Meta a annoncé son successeur en fin de semaine dernière : LLama 3. Promettant un avenir aussi glorieux que son prédécesseur, LLama 3 promet une qualité de résultats similaire à Claude 3 et Google Gemini Pro 1.5, des capacités multimodales et des hallucinations moins fréquentes. .

Pour l’instant, deux variantes du modèle ont été dévoilées : LLama 3 8B (8 milliards de paramètres) et LLama 3 70B. ” Avec une évolutivité et des performances accrues, Llama 3 peut gérer sans effort des tâches en plusieurs étapes. De plus, des processus post-formation raffinés réduisent considérablement les taux de faux rejets, améliorent l’alignement des réponses et augmentent la diversité des réponses des modèles. De plus, LLama 3 améliore considérablement les capacités telles que le raisonnement, la génération de code et le suivi des instructions. » explique Meta.

Pour l’éditeur, Meta définit de nouveaux standards d’efficacité et de qualité dans le monde des LLM, qu’ils soient open Source ou non. Ainsi, Lama 3 8B fait mieux que les modèles Mistral AI ou Gemma dans le domaine des LLM compacts. Quant au LLama 3 70B, il surpasse Gemini Pro 1.5, Mixtral 8x22B et Claude 3 Sonnet sur de nombreux Benchmarks tout en se révélant bien plus compact que ce dernier.

Et ce n’est pas fini. Meta travaille sur d’autres versions de LLama 3 dont une version « 400B » qui devrait communiquer dans plus de 30 langues et présenter des fonctionnalités multimodales avancées, qui disposera bientôt d’un modèle open Source capable de rivaliser avec GPT-4 Turbo Vision et Gemini Ultra.

LLama 3 équipe déjà l’assistant « Meta AI », une IA conversationnelle comme Google Gemini, ChatGPT, Microsoft Copilot ou Mistral Le Chat. Malheureusement, cet assistant, pour l’instant limité aux interactions en anglais, n’est pas accessible depuis les pays de l’Union européenne. Une restriction qui devient de plus en plus classique puisque Gemini Advanced et Claude AI sont également interdites aux internautes européens, ces IA n’étant pas pour l’instant compatibles avec les réglementations européennes RGPD et DMA.

Les entreprises qui souhaitent expérimenter LLama 3 peuvent le faire dès aujourd’hui sur leurs infrastructures en récupérant les codes sources et modèles d’inférence depuis le site Meta ou depuis le GitHub Meta Llama 3.

Pour ceux qui ne veulent pas s’embêter à implémenter un tel modèle sur leurs serveurs, LLama 3 sera disponible dans les prochains jours sur les cloud de Google (Vertex AI), AWS (Bedrock API), Azure (ML Studio), mais aussi sur les plateformes de Hugging Face, IBM (WatsonX), NVidia (NIM), Databricks et Snowflake.

A lire aussi :

Meta déploie deux clusters de 24 000 GPU et vise 350 000 GPU d’ici fin 2024

Meta avance un peu plus vers AMI avec son modèle V-JEPA

Next’24 : Gemini Pro 1.5 devient accessible aux développeurs

Le Cigref démystifie les métavers et les pistes concrètes pour les apprivoiser

Félicitations, vous êtes abonné à notre newsletter !

 
For Latest Updates Follow us on Google News
 

PREV La carte graphique GeForce RTX 4080 Super en promotion au prix le plus bas sur Amazon, l’offre French Days du jour ! – .
NEXT Cet iPhone 13 est proposé à un prix complètement fou pour les French Days