Sous l’impulsion de Didier Carré, président de l’institut G9+, et animée par Sopra Stéria, une conférence s’est tenue fin novembre sur la situation actuelle et future de l’informatique quantique en France et en Europe avec des résultats encourageants pour le secteur français.
Amandine Reix (à l’extrême gauche sur la photo), directrice adjointe du secteur Espace, Electronique et Logiciels à la Direction générale des entreprises, a rappelé l’engagement pris en 2021 par le Président de la République pour que l’État investisse 1 milliard d’euros d’argent public dans le domaine de l’informatique quantique à travers la mission France 2030.
“C’est une question de souveraineté”, rappelle Mme Reix. «Le quantique représente d’énormes défis, notamment dans les domaines militaire, pharmaceutique, énergétique et météorologique.»
Madame Reix souligne sans détour la dimension économique de la discipline : « On peut gagner de l’argent avec et c’est ce qu’on veut faire. » Elle invite également les entreprises privées à contribuer elles aussi de manière significative au développement de l’ordinateur quantique et précise que les entreprises françaises du domaine ont déjà levé 350 millions d’euros.
Fanny Bouton, d’OVH Cloud (deuxième à gauche), cite le PDG de l’entreprise Octave Klaba qui estime que toute entreprise réalisant 1 milliard d’euros de chiffre d’affaires devrait investir au moins 1 million € dans l’informatique quantique pour préparer l’avenir.
Cinq startups sélectionnées
Dans ses investissements, l’Etat a choisi cinq start-up qui ont chacune des paris technologiques différents afin de couvrir une grande partie des réalisations matérielles envisagées pour le futur et tout en restant agnostique. Les cinq sociétés sont Quellela, Pasqal, Alice & Bob, C12 et Quobly. « Ce n’est pas une technologie complètement mature pour le moment, mais notre pays est bien positionné et nous avons toutes les raisons d’espérer. »
Un bémol cependant : pour se financer, les start-up peuvent être tentées de se tourner vers des fonds non européens et l’Etat précise qu’il y sera très attentif, toujours pour ses exigences de souveraineté. C’est pourquoi les pouvoirs publics s’appuient avant tout sur la recherche fondamentale afin d’éviter, d’une part, les transferts de technologies vers des pays tiers, voire hostiles, et, d’autre part, permettre la création d’un écosystème soutenant ces travaux. Mme Reix souligne également la nécessité de sécuriser les matériaux comme le silicium 28, la cryogénie auprès de grands groupes industriels comme Air Liquide et d’opérer les marchés publics via Proqcima.
Le Saint Graal de la FTQC
Toutes les opérations réalisées par les différents acteurs, indépendamment de leurs choix technologiques, ont un objectif commun : parvenir au FTQC (Fault Tolerant Quantum Computer), c’est-à-dire des ordinateurs quantiques dits « parfaits ». « .
Un premier rapport sur les travaux de l’académie technologique dirigée par Thierry Bonhomme (au milieu sur la photo) vient d’être achevé et sera dévoilé dans les prochaines semaines.
« De manière générale, le rapport met l’accent sur le passage à l’échelle vers le FTQC et l’algorithme qui doit y être associé », souligne M. Bonhomme. « Le rapport met également en avant les ressources nécessaires autour des différentes applications : chimie de l’azote, chimie des médicaments, matériaux résistants à la corrosion, algorithme de Shor.
À cet égard, M. Bonhomme a également démenti une rumeur apparue il y a quelques semaines selon laquelle des scientifiques chinois auraient réussi à déchiffrer les clés de cryptage RSA de 2048 bits en mettant en œuvre l’algorithme susmentionné. Ce qui aurait été une explosion mondiale pour la sécurité des transactions n’est en réalité que ce que les Anglo-Saxons appellent Fud pour Fear, Incertitude and Doubt.
En effet, il faudrait mobiliser l’équivalent de 10 puissance 12 opérations, ce qui est strictement impossible actuellement en plus de 7000 qbits logiques. Autrement dit, ce n’est pas demain que l’algorithme de Shor pourra être mis en œuvre. M. Bonhomme estime que les prévisions les plus optimistes montrant un horizon de 5 ans ne sont pas réalistes selon lui.
Des feuilles de route réalistes
L’un des points les plus encourageants est que toutes les feuilles de route passées ont été maintenues, ce qui peut suggérer que les futures le seront également, même s’il existe une incertitude quant à la technologie qui prévaudra. Toutefois, M. Bonhomme ne nie pas l’ampleur des défis avant d’arriver à la FTQC. “J’en vois quatre : La qualité et la quantité des Qbits, les codes correcteurs d’erreurs, l’interconnexion entre les QPU (Qantum Processing Unit) et enfin l’architecture technique et pas seulement le processeur et ce dernier n’est pas assez développé en France”.
Chloé Poisbeau (deuxième à droite), COO d’Alice & Bob, revient sur les progrès de l’entreprise en 2024. « Dès le départ, nous avons choisi d’avoir une feuille de route centrée sur la FTQC. De ce fait, une partie importante de notre travail se concentre sur la qualité des Qbits. Nous nous concentrons sur la performance et la qualité en correction d’erreurs avant de les accumuler. Récemment, la société a mis sur le marché Google une puce de 1 Qbit qui se caractérise par un taux de correction d’erreurs très élevé.
La société propose également un émulateur quantique disponible via l’opérateur Equinix. Le choix technologique d’Alice & Bob s’appuie sur une technologie appelée Qbits de chats, qui simplifie considérablement l’étape primordiale de correction. Comme les autres joueurs, l’horizon 2028-2030 est évoqué comme minimum pour arriver à la FTQC. Mme Poisbeau indique que c’est à partir de 100 Qbits logiques que l’on commence à voir la preuve que l’informatique quantique surpasse l’informatique traditionnelle. Pour ce faire, il faut créer et stabiliser un certain nombre de Qbits physiques. L’objectif est donc d’obtenir cette puissance avant la fin de la décennie avec une feuille de route précise qui sera détaillée à la fin de cette année.
Google a récemment publié une étude montrant que l’augmentation significative des Qbits avait un impact sur la correction d’erreurs, étape essentielle pour atteindre le FTQC. « C’est une publication majeure qui a eu beaucoup d’impact dans l’industrie, rappelle Chloé Poisbeau. « Google affirme que pour exécuter l’algorithme de Shor, il leur faudrait 20 millions de qbits physiques. Nous (Alice et Bob) avons fait la même étude et nous arrivons à 200 000 qbits physiques, car nous utilisons une autre technique de correction d’erreurs.
Pasqal et Quandela proposent des solutions
Quant à Pasqal, nous nous concentrons sur 3 domaines. Le premier est, sans surprise, l’ordinateur et la société a très récemment livré une machine de 100 Qbit en Allemagne. Une autre machine sera livrée en Arabie Saoudite l’année prochaine. “Très récemment, nous avons réussi à piéger 1 000 atomes, ce qui signifie que dans notre technologie, un atome piégé équivaut à 1 Qbit”, explique Lina Alzate, responsable commerciale de Pasqal.
Le deuxième axe est le logiciel Open Source qui est mis à disposition des utilisateurs pour démarrer les tests, l’accès au cloud Microsoft Azure et Google ainsi qu’un partenariat avec IBM pour la biologie et la science des matériaux. Enfin, le 3èmee L’objectif principal est de développer des cas d’utilisateurs afin que les clients puissent travailler concrètement.
Pour Quandela, l’année 2024 a marqué le démarrage de leur usine construite l’année précédente et les premières livraisons d’ordinateurs quantiques, notamment pour OVH en France et au Canada.
« Les premiers ordinateurs quantiques que nous proposons permettent aux utilisateurs de se former, de tester et de comparer à ce qui existe dans l’informatique traditionnelle. Nous avons à cœur de construire un écosystème autour de cette discipline », révèle Valerian Giesz (à l’extrême droite sur la photo), co-fondateur et COO de Quellela. « Nous comptons aujourd’hui plus de 1 000 utilisateurs sur notre cloud et nous travaillons avec des partenaires comme OVH Cloud et Scaleway afin de créer de plus en plus de cas d’usage. »
La société affirme avoir développé avec succès des Qbits à correction photonique et il s’agit désormais de les assembler et de les faire évoluer. M. Giesz explique que la photonique fonctionnant avec des fibres optiques fait que ce sont des modèles à faible consommation d’énergie et que le photon étant un qbit relativement solide, il n’est pas nécessaire de le refroidir à de très basses températures. Les premiers ordinateurs quantiques corrigés sont prévus pour 2027.
Pasqal travaille sur sa prochaine machine baptisée « Orion Beta » qui devrait voir le jour avant la fin de l’année. Il comportera 1 000 qubits et prendra en charge environ 5 millions d’opérations de portes quantiques. Les machines « Orion Beta » pourront être commandées pour des installations « on-premises » fin 2024/début 2025. Parallèlement, Pasqal devrait achever en 2025 le successeur baptisé « Orion Gamma » qui proposera « de l’ultra haute fidélité ». » portes et prendra en charge jusqu’à 10 millions d’opérations. Enfin, Pasqal vise 10 000 qubits d’ici 2028 avec une nouvelle architecture évolutive à qubits logiques grâce à un nouveau processeur quantique baptisé Vela. Avec cette machine, Pasqal espère améliorer de 3 les taux de répétition et prendre en charge jusqu’à 40 millions d’opérations de porte.
Mais la feuille de route de Pasqal ne s’arrête pas là. Les chercheurs de la Deeptech imaginent déjà un processeur Pegasus pour 2027, toujours équipé de 10 000 qubits, mais offrant une profondeur algorithmique bien plus importante, pouvant aller jusqu’à 200 millions d’opérations.
Au-delà, Pasqal prévoit un nouveau processeur quantique appelé Centaurus, leur premier QPU à tolérance de pannes intégrée (donc génération FTQC, Fault Tolerant Quantum Computing) proposant cette fois 128 qubits logiques (fruits de la combinaison de milliers de qubits physiques) et 200 millions de qubits physiques. opérations de porte.
Logiciel basé sur les réseaux tensoriels
L’approche informatique Multiverse est logicielle. Contrairement aux fabricants de matériel informatique, Multiverse s’appuie sur le formalisme mathématique des réseaux de tenseurs utilisé depuis plusieurs années par les physiciens travaillant sur la matière condensée. Les réseaux tenseurs permettent de capturer la plupart des informations d’un système quantique en termes de superposition ou d’intrication sur les ordinateurs traditionnels. Ils sont très à la mode aujourd’hui, car ils permettent de repousser les limites de l’informatique traditionnelle. L’entreprise fête aujourd’hui son 5ème anniversaire avec 150 projets et 50 clients.
Certains sont des projets pilotes et d’autres sont en production. L’entreprise a également développé 2 librairies accessibles à tous pour travailler sur le Machine learning et l’optimisation en HPC. L’un des nouveaux produits de l’entreprise s’appelle Singularity. Il s’agit d’une technologie qui compresse considérablement les LLM via des réseaux tensoriels.
Michel Kurek, PDG France de cette société d’origine espagnole, précise : « nous avons établi un partenariat avec Pasqal et IBM et en utilisant la technologie supraconductrice d’IBM, nous donnons accès à plus de 120 qbit ». Singularity permet d’aborder les questions autour du Deep learning, du Machine learning et de l’optimisation des modèles d’IA.
On le voit : l’année qui s’achève a été plutôt fructueuse et tous les acteurs ont de grands espoirs pour les années à venir. Espérons qu’ils n’ont pas tort.
Related News :