Le texte suivant est issu d’un communiqué de presse et ne reflète en aucun cas l’avis de la rédaction.
Selon IDC, plus de 40 % des dépenses informatiques des entreprises du Forbes Global 2000 seront consacrées à des initiatives liées à l’IA. IDC prédit également que l’utilisation de l’IA générative et des technologies d’automatisation pourrait permettre des gains de productivité de 1 000 milliards de dollars d’ici 2026. Red Hat prévoit que ces investissements nécessiteront une plate-forme robuste capable de gérer le cycle de vie des modèles d’IA/ML et de déployer des applications d’IA générative parallèlement aux charges de travail existantes. dans le cloud hybride.
Principales fonctionnalités d’OpenShift AI 2.15
–Sauvegarde des modèles : gestion centralisée du partage, du suivi et du versionnage des modèles d’IA génératifs, avec support multi-registres. Red Hat a confié ce projet à la communauté Kubeflow.
–Détection de dérive des données : Surveillance continue des données d’entrée pour identifier les écarts entre les données de formation et les données de production, améliorant ainsi la fiabilité et la précision du modèle.
–Détection de biais : outils pour contrôler l’équité et la transparence des modèles, essentiels pour instaurer la confiance dans l’IA, de la communauté TrustyAI.
–Optimisation avec LoRA : utilisation d’adaptateurs de bas rang (LoRA) pour un ajustement efficace des modèles de langage (LLM), réduisant ainsi les coûts et les besoins en ressources.
–Prise en charge NVIDIA NIM : Accélère le déploiement d’applications d’IA générative via des microservices accessibles et intégrés à la plateforme NVIDIA AI Enterprise.
–Prise en charge des GPU AMD : Nouvelles options de développement, de formation et de réglage des modèles avec les GPU AMD, idéales pour optimiser les performances pour les charges de calcul intensives.
Déploiement de modèle amélioré
Red Hat OpenShift AI 2.15 améliore le déploiement de modèles d’IA génératifs avec de nouvelles fonctionnalités telles que le runtime vLLM pour KServe et la prise en charge de KServe ModelCars. Ces ajouts permettent d’utiliser des référentiels compatibles Open Container Initiative (OCI) pour stocker et gérer facilement des modèles conteneurisés. De plus, les options de routage privé et public pour les points de terminaison KServe améliorent la sécurité en permettant le ciblage des points de terminaison internes.
Formation et expérimentation renforcées en IA
Cette mise à jour d’OpenShift AI améliore les pipelines de science des données et le suivi des expériences grâce à des avancées intelligentes. Le réglage des hyperparamètres via Ray Tune augmente la précision tout en accélérant la formation de modèles prédictifs et génératifs. L’ajout d’images conteneurisées de base aux clusters Ray facilite la répartition des tâches de formation et d’optimisation sur plusieurs charges de travail au sein du cluster. Cela réduit non seulement le temps de traitement, mais maximise également l’utilisation des nœuds disponibles.
Disponibilité
Red Hat OpenShift AI 2.15 est disponible depuis mi-novembre 2024.