News Day FR

La dernière version de Red Hat OpenShift AI accélère l’évolutivité et la flexibilité de l’IA – Communiqués de presse

Le texte suivant est issu d’un communiqué de presse et ne reflète en aucun cas l’avis de la rédaction.

Red Hat, leader mondial des solutions open Source, annonce la sortie de Red Hat OpenShift AI 2.15. Cette plateforme IA/ML, basée sur Red Hat OpenShift, offre aux entreprises une solution puissante et évolutive pour développer et déployer des applications d’intelligence artificielle dans un environnement cloud hybride. Avec cette nouvelle version, les entreprises bénéficient d’une flexibilité accrue, d’outils avancés de personnalisation et de surveillance, ainsi que d’une sécurité et d’une cohérence améliorées dans les cloud publics, les centres de données et les environnements périphériques.

Selon IDC, plus de 40 % des dépenses informatiques des entreprises du Forbes Global 2000 seront consacrées à des initiatives liées à l’IA. IDC prédit également que l’utilisation de l’IA générative et des technologies d’automatisation pourrait permettre des gains de productivité de 1 000 milliards de dollars d’ici 2026. Red Hat prévoit que ces investissements nécessiteront une plate-forme robuste capable de gérer le cycle de vie des modèles d’IA/ML et de déployer des applications d’IA générative parallèlement aux charges de travail existantes. dans le cloud hybride.

Principales fonctionnalités d’OpenShift AI 2.15

Sauvegarde des modèles : gestion centralisée du partage, du suivi et du versionnage des modèles d’IA génératifs, avec support multi-registres. Red Hat a confié ce projet à la communauté Kubeflow.
Détection de dérive des données : Surveillance continue des données d’entrée pour identifier les écarts entre les données de formation et les données de production, améliorant ainsi la fiabilité et la précision du modèle.
Détection de biais : outils pour contrôler l’équité et la transparence des modèles, essentiels pour instaurer la confiance dans l’IA, de la communauté TrustyAI.
Optimisation avec LoRA : utilisation d’adaptateurs de bas rang (LoRA) pour un ajustement efficace des modèles de langage (LLM), réduisant ainsi les coûts et les besoins en ressources.
Prise en charge NVIDIA NIM : Accélère le déploiement d’applications d’IA générative via des microservices accessibles et intégrés à la plateforme NVIDIA AI Enterprise.
Prise en charge des GPU AMD : Nouvelles options de développement, de formation et de réglage des modèles avec les GPU AMD, idéales pour optimiser les performances pour les charges de calcul intensives.

Déploiement de modèle amélioré

Red Hat OpenShift AI 2.15 améliore le déploiement de modèles d’IA génératifs avec de nouvelles fonctionnalités telles que le runtime vLLM pour KServe et la prise en charge de KServe ModelCars. Ces ajouts permettent d’utiliser des référentiels compatibles Open Container Initiative (OCI) pour stocker et gérer facilement des modèles conteneurisés. De plus, les options de routage privé et public pour les points de terminaison KServe améliorent la sécurité en permettant le ciblage des points de terminaison internes.

Formation et expérimentation renforcées en IA

Cette mise à jour d’OpenShift AI améliore les pipelines de science des données et le suivi des expériences grâce à des avancées intelligentes. Le réglage des hyperparamètres via Ray Tune augmente la précision tout en accélérant la formation de modèles prédictifs et génératifs. L’ajout d’images conteneurisées de base aux clusters Ray facilite la répartition des tâches de formation et d’optimisation sur plusieurs charges de travail au sein du cluster. Cela réduit non seulement le temps de traitement, mais maximise également l’utilisation des nœuds disponibles.

Disponibilité

Red Hat OpenShift AI 2.15 est disponible depuis mi-novembre 2024.

 
For Latest Updates Follow us on Google News
 

Related News :