Le PDG d'OpenAI, Sam Altman, s'est lancé dans une campagne mondiale visant à créer un réseau d'usines de puces d'intelligence artificielle capables de prendre en charge la domination technologique de Nvidia.

Les plus grands laboratoires d'IA comme OpenAI dépensent des milliards en GPU Nvidia pour former la prochaine génération de grands modèles de langage. Ils dépensent alors encore plus pour faire fonctionner ces modèles pour les consommateurs.

Pour résoudre ce problème, certaines des plus grandes entreprises cherchent des moyens de réduire la taille des modèles, d’améliorer l’efficacité et même de créer de nouvelles puces personnalisées et moins chères – mais la fabrication de semi-conducteurs avancés est à la fois coûteuse et compliquée.

Pour son nouveau projet de puce, Altman s'est entretenu avec plusieurs investisseurs car le coût devrait atteindre plusieurs milliards. Les bailleurs de fonds potentiels incluent G42, basé à Abu Dhabi, et le groupe japonais SoftBank, et il serait en pourparlers avec le fabricant taïwanais TSMC pour fabriquer les unités.

Pourquoi Sam Altman veut-il fabriquer des puces IA ?

Nvidia est devenue une entreprise valant des milliards de dollars pour la première fois l'année dernière grâce à son quasi-monopole sur les GPU haut de gamme capables de former les modèles d'IA les plus avancés.

Plus tôt ce mois-ci, Meta a annoncé l'achat de 350 000 GPU Nvidia H100 pour former une future superintelligence et la rendre open source. Surnommé la première puce conçue pour l'IA générative, le GPU H100 coûte environ 30 000 $ par puce et est très demandé.

Google a formé son modèle Gemini de nouvelle génération sur ses puces connues sous le nom de Tensor Processing Units (TPU), qu'il développe depuis plus d'une décennie.

Cela aurait considérablement réduit le coût global de formation d'un modèle aussi volumineux et aurait donné au développeur de Google un plus grand contrôle sur la manière dont il était formé et optimisé.

Qu’implique la fabrication de chips ?

Logo ChatGPT sur le téléphone devant un robot pensant

Fabriquer des semi-conducteurs coûte cher. Il faut beaucoup de ressources naturelles, de financement et de recherche pour atteindre un point où toute nouvelle puce peut fonctionner au plus haut niveau.

Il existe un nombre limité d'installations de fabrication dans le monde capables de construire le type de puce haut de gamme nécessaire à OpenAI, ce qui entraîne un goulot d'étranglement potentiel dans la formation de la prochaine génération de modèles.

Altman souhaite renforcer cette capacité mondiale avec un nouveau réseau d'installations de fabrication dédiées exclusivement aux puces IA.

OpenAI devrait s'associer à une société comme Intel, TSMC ou Samsung pour ses propres puces d'IA, ou pourrait s'associer à l'investisseur existant Microsoft. La société a annoncé l’année dernière qu’elle fabriquait ses propres puces d’IA qui fonctionneraient au sein de sa plate-forme cloud Azure pour exécuter des services d’IA.

Quelle est la situation dans son ensemble

Amazon possède sa propre puce Trainium qui s'exécute dans son service cloud AWS pour les modèles d'IA et Google Cloud utilise des TPU. Cependant, bien qu'elles disposent de leurs propres puces, toutes les grandes sociétés de cloud computing utilisent largement les processeurs H1000 de Nvidia.

Altman va également se heurter aux améliorations continues de Nvidia, ce qui pourrait détourner les investisseurs des propres projets de puces d'OpenAI.

Les puces GH200 Grace Hopper ont été confirmées l'année dernière et Intel dispose de nouvelles puces d'IA fonctionnant dans ses processeurs Meteor Lake, ce qui pourrait permettre à davantage de modèles d'IA de s'exécuter localement plutôt qu'à grande échelle.