Meta et Google annoncent de nouvelles puces d’IA internes, créant une « question à un billion de dollars » pour Nvidia

Le matériel apparaît comme un domaine clé de croissance de l’IA. Pour les grandes entreprises technologiques disposant de l’argent et du talent pour le faire, le développement de puces internes contribue à réduire la dépendance à l’égard de concepteurs externes tels que Nvidia et Intel, tout en permettant aux entreprises d’adapter leur matériel spécifiquement à leurs propres modèles d’IA, améliorant ainsi les performances et économisant de l’énergie. frais.

Ces puces d’IA internes que Google et Meta viennent d’annoncer posent l’un des premiers véritables défis à la position dominante de Nvidia sur le marché du matériel d’IA. Nvidia contrôle plus de 90 % du marché des puces IA et la demande pour ses semi-conducteurs leaders du secteur ne fait qu’augmenter. Mais si les plus gros clients de Nvidia commençaient à fabriquer leurs propres puces, la flambée du cours de son action, en hausse de 87 % depuis le début de l’année, pourrait en souffrir.

“Du point de vue de Meta… cela leur donne un outil de négociation avec Nvidia”, a déclaré à F Edward Wilford, analyste du cabinet de conseil en technologie Omdia.fortune. “Cela permet à Nvidia de savoir qu’ils ne sont pas exclusifs, [and] qu’ils ont d’autres options. C’est du matériel optimisé pour l’IA qu’ils développent.

Pourquoi l’IA a-t-elle besoin de nouvelles puces ?

Les modèles d’IA nécessitent d’énormes quantités de puissance de calcul en raison de l’énorme quantité de données nécessaires pour entraîner les grands modèles de langage qui les sous-tendent. Les puces informatiques conventionnelles ne sont tout simplement pas capables de traiter les milliards de points de données sur lesquels les modèles d’IA sont construits, ce qui a donné naissance à un marché pour les puces informatiques spécifiques à l’IA, souvent appelées puces « de pointe » car ce sont les appareils les plus puissants sur le marché. le marché.

Le géant des semi-conducteurs Nvidia a dominé ce marché naissant : la liste d’attente pour la puce IA phare de Nvidia, d’une valeur de 30 000 $, dure des mois et la demande a fait grimper le cours de l’action de l’entreprise de près de 90 % au cours des six derniers mois.

Et le fabricant de puces rival Intel se bat pour rester compétitif. Il vient de sortir sa puce Gaudi 3 AI pour concurrencer directement Nvidia. Les développeurs d’IA – de Google et Microsoft jusqu’aux petites startups – sont tous en compétition pour les rares puces d’IA, limitées par la capacité de fabrication.

Pourquoi les entreprises technologiques commencent-elles à fabriquer leurs propres puces ?

Nvidia et Intel ne peuvent produire qu’un nombre limité de puces car eux-mêmes et le reste de l’industrie comptent sur le fabricant taïwanais TSMC pour assembler leurs conceptions de puces. Avec un seul fabricant fermement impliqué, le délai de fabrication de ces puces de pointe est de plusieurs mois. C’est un facteur clé qui a conduit les principaux acteurs du domaine de l’IA, tels que Google et Meta, à recourir à la conception de leurs propres puces. Alvin Nguyen, analyste principal du cabinet de conseil Forrester, a déclaré Fortune que les puces conçues par Google, Meta et Amazon ne seront pas aussi puissantes que les offres haut de gamme de Nvidia, mais cela pourrait profiter aux entreprises en termes de vitesse. Ils pourront les produire sur des chaînes d’assemblage moins spécialisées avec des délais d’attente plus courts, a-t-il déclaré.

“Si vous avez quelque chose de 10 % moins puissant mais que vous pouvez l’obtenir maintenant, je l’achète tous les jours”, a déclaré Nguyen.

Même si les puces d’IA natives développées par Meta et Google sont moins puissantes que les puces d’IA de pointe de Nvidia, elles pourraient être mieux adaptées aux plates-formes d’IA spécifiques de l’entreprise. Nguyen a déclaré que les puces internes conçues pour la propre plate-forme d’IA d’une entreprise pourraient être plus efficaces et réduire les coûts en éliminant les fonctions inutiles.

« C’est comme acheter une voiture. D’accord, vous avez besoin d’une transmission automatique. Mais avez-vous besoin de sièges en cuir ou de sièges chauffants massants ? » » dit Nguyên.

“L’avantage pour nous est que nous pouvons construire une puce capable de gérer plus efficacement nos charges de travail spécifiques”, a écrit Melanie Roe, porte-parole de Meta, dans un e-mail à Fortune.

Les puces haut de gamme de Nvidia se vendent environ 25 000 dollars pièce. Ce sont des outils extrêmement puissants, et ils sont conçus pour être efficaces dans un large éventail d’applications, de la formation de chatbots IA à la génération d’images en passant par le développement d’algorithmes de recommandation tels que ceux de TikTok et Instagram. Cela signifie qu’une puce légèrement moins puissante, mais plus adaptée, pourrait mieux convenir à une entreprise comme Meta, par exemple, qui a investi dans l’IA principalement pour ses algorithmes de recommandation, et non dans les chatbots destinés aux consommateurs.

« Les GPU Nvidia sont excellents dans les centres de données IA, mais ils sont à usage général », a déclaré Brian Colello, responsable de la recherche sur les actions chez Morningstar. Fortune. “Il existe probablement certaines charges de travail et certains modèles pour lesquels une puce personnalisée pourrait être encore meilleure.”

La question à mille milliards de dollars

Nguyen a déclaré que des puces internes plus spécialisées pourraient présenter des avantages supplémentaires en raison de leur capacité à s’intégrer dans les centres de données existants. Les puces Nvidia consomment beaucoup d’énergie et dégagent beaucoup de chaleur et de bruit, à tel point que les entreprises technologiques pourraient être obligées de repenser ou de déplacer leurs centres de données pour intégrer l’insonorisation et le refroidissement liquide. Des puces natives moins puissantes, consommant moins d’énergie et dégageant moins de chaleur, pourraient résoudre ce problème.

Les puces IA développées par Meta et Google sont des paris à long terme. Nguyen estime que le développement de ces puces a pris environ un an et demi et qu’il faudra probablement des mois avant qu’elles soient mises en œuvre à grande échelle. Dans un avenir prévisible, l’ensemble du monde de l’IA continuera de dépendre fortement de Nvidia (et, dans une moindre mesure, d’Intel) pour ses besoins en matériel informatique. En effet, Mark Zuckerberg a récemment annoncé que Meta était en passe de posséder 350 000 puces Nvidia d’ici la fin de cette année (la société devrait alors dépenser environ 18 milliards de dollars en puces). Mais l’abandon de l’externalisation de la puissance de calcul au profit de la conception de puces natives pourrait desserrer l’emprise de Nvidia sur le marché.

“La question à mille milliards de dollars pour la valorisation de Nvidia est la menace de ces puces internes”, a déclaré Colello. « Si ces puces internes réduisent considérablement la dépendance à l’égard de Nvidia, il y aura probablement un inconvénient pour les actions de Nvidia à partir de là. Cette évolution n’est pas surprenante, mais sa mise en œuvre au cours des prochaines années constitue à nos yeux la question clé en matière de valorisation.

Abonnez-vous à la newsletter Eye on AI pour rester informé de la manière dont l’IA façonne l’avenir des entreprises. Inscription gratuite.

 
For Latest Updates Follow us on Google News
 

PREV La Floride interdit désormais toute interruption volontaire de grossesse après six semaines
NEXT l’essence et le diesel plus chers aujourd’hui