Clairement, je ne le pense pas. Progressivement, surtout pour le grand public, très probablement. Je pense qu’au fil des années, les usages du x86 vont se cantonner de plus en plus à des niches professionnelles qui ont des besoins en puissance importants. Le grand public a déjà démontré qu’il n’a clairement pas besoin de beaucoup de puissance de calcul (usage prédominant des smartphones, tablettes, ordinateurs portables).
J’ai un MacBook M3 Pro et franchement, il est génial, mais ce n’est vraiment pas comparable en termes de puissance de calcul avec ma station Threadripper 7970X (donc x86). Ni en termes de possibilités d’extension : je peux connecter 7 cartes PCIe 5.0 x16, et j’ai 3 cartes pour augmenter la capacité de la machine à 14 ports PCIe (NVMe), tous utilisés. Ceci est possible grâce au grand nombre de voies PCIe dans cette architecture.
Même ma machine basée sur 7950X/4090 fait littéralement éclater un M3 Max (heureusement). La réalité est que très peu de gens ont besoin d’une telle puissance (particulièrement utile pour les créateurs, la 3D, les VFX, la post-production cinéma, les scientifiques), mais pour nous qui en avons l’utilité, les puces ARM ont encore un très long chemin à parcourir avant d’égaler le x86.
Les puces ARM ont un avantage indéniable : une consommation moindre et donc une plus grande autonomie sur les machines portables et une échauffement bien moindre. Mais les ordinateurs portables ne sont pas une option lorsqu’il faut une machine la plus puissante possible (et les écrans sont bien trop petits et insuffisamment qualitatifs pour certains usages). Gagner 5 secondes de temps de rendu par image, sur une scène de 200 images, est énorme dans un flux de travail professionnel.