Les missions de la NASA sont retardées par des superordinateurs surchargés et obsolètes

Les missions de la NASA sont retardées par des superordinateurs surchargés et obsolètes
Descriptive text here

James Webb, Perseverance, Ingenuity, Osiris-Rex… L’extraordinaire succès de ces missions spatiales cache une réalité assez déconcertante. Les capacités de la NASA en matière de calcul intensif, un outil clé pour la recherche et la planification de missions, sont « surmené et surchargé « .

C’est le constat clair dressé par l’agence spatiale américaine à la suite d’un audit interne consacré au fonctionnement de son infrastructure de supercalculateurs.

Dans son rapport, la NASA révèle que ses supercalculateurs ne sont pas administrés de manière centralisée. Ils sont gérés par le Programme de Recherche en Sciences de la Terre au sein de la Direction de la Mission Scientifique. On découvre avec surprise que le Bureau du directeur de l’information (OCIO) n’est pas directement impliqué dans les activités ou la gouvernance des supercalculateurs de l’agence spatiale.

Les supercalculateurs jouent un rôle clé dans certains programmes sensibles

Cette organisation et cette gestion aléatoires des ressources de calcul intensif exacerbent plusieurs problèmes, notamment la surveillance, le suivi et le processus d’accréditation pour l’accès des ressortissants étrangers. », souligne le rapport. Toutefois, les supercalculateurs jouent un rôle central dans certains programmes clés. Par exemple, explique la NASA, ils servent à modéliser l’atterrissage d’un équipage humain sur Mars, ainsi qu’à « traiter et analyser les données physiques et environnementales essentielles à un atterrissage réussi. »

Cette situation entraîne des retards dans les plannings et incite les chefs de mission à utiliser une partie de leurs budgets pour acquérir des ressources informatiques intensives afin de respecter les délais. Le rapport cite en exemple l’équipe Space Launch System (le lanceur lourd utilisé pour le programme Artemis) qui consacre 250 000 $ par an à ce poste au lieu d’attendre d’avoir accès aux supercalculateurs existants.

Une sécurité qui laisse à désirer

La NASA ne dispose pas non plus d’une stratégie globale pour déterminer quand utiliser les ressources informatiques haut de gamme (HEC) sur site et quand utiliser les options de cloud computing, ni une compréhension générale des implications financières de chaque choix. », peut-on lire dans l’audit. C’est plutôt déroutant pour une institution aussi prestigieuse que la NASA.

crédit photo : © NASA

Plus inquiétant, cette absence de programme de gestion affecte la sécurité de ces systèmes qui ne font pas l’objet d’une surveillance constante et centralisée. Une situation d’autant plus préoccupante que certains de ces supercalculateurs sont accessibles aux ressortissants étrangers avec lesquels la NASA collabore. ” Les contrôles de sécurité sont souvent contournés ou non mis en œuvre, ce qui augmente le risque de cyberattaques. », précise le rapport.

Une infrastructure à moderniser sans tarder

Pour ne rien arranger, il s’avère que cette infrastructure informatique est loin d’être à la pointe de la technologie. En effet, la NASA explique que ses supercalculateurs utilisent presque exclusivement des processeurs classiques (CPU) alors que les systèmes modernes utilisent des processeurs graphiques (GPU).

Par exemple, la division Advanced Supercomputing (NAS) de la NASA située au centre de recherche Ames ne dispose que de 48 GPU pour prendre en charge ses 18 000 processeurs. Signe encourageant, le mois dernier, la division NAS a mis en service un nouveau supercalculateur nommé Cabeus (cratère au pôle Sud de la Lune) qui intègre 512 GPU Nvidia A100. Cette configuration ajoute cinq pétaflops de performances à la capacité de calcul.

L’audit identifie dix recommandations, à commencer par une réforme urgente de l’administration et de la mise en œuvre des supercalculateurs de la NASA. Le document appelle à la formation d’un « équipe tueuse » mener d’autres actions : modernisation de l’infrastructure avec des GPU, renouvellement du code, améliorer la priorisation et l’allocation des ressources de calcul intensives, favoriser une utilisation appropriée des ressources sur site par rapport aux ressources dans le cloud, évaluer les cyber-risques et y remédier, organiser la gestion du cycle de vie du matériel et des logiciels.

Un projet colossal mais essentiel si la NASA veut éviter que cela ne nuise à ses programmes de recherche et à ses futures missions. La bonne nouvelle, c’est que la direction de l’agence spatiale a accepté de mettre en place une équipe dédiée et approuvé le principe d’une réforme de l’ensemble du système de gestion de son supercalculateur.

 
For Latest Updates Follow us on Google News
 

PREV ce que l’on sait du véhicule utilitaire électrique révolutionnaire (et gratuit) lancé en 2026
NEXT 32M€, on veut les voir ensemble à l’AS Monaco !