Le nouveau supercalculateur danois Nvidia AI sera mis en ligne cette année

Deux des plus grands gagnants de l’année dernière – le fabricant de puces Nvidia et le fabricant de médicaments Novo Nordisk – unissent leurs forces pour mettre en place au Danemark l’un des supercalculateurs d’IA les plus avancés au monde.
Nommé Gefion, d’après la déesse nordique du labour et de l’abondance, et construit par Eviden, filiale du groupe Atos, il sera basé sur l’architecture Nvidia DGX SuperPod. Gefion comportera plus de 1 500 GPU H100 Tensor Core de Nvidia et livrer six exaflops de FP8 IA performance. De plus, il se connectera à la plate-forme logicielle open source Nvidia Cuda Quantum, qui permet des simulations sur des ordinateurs hybrides quantiques-classiques.
Le supercalculateur appartiendra au « Centre danois pour l’innovation en IA » et sera hébergé par un centre de données Digital Realty, qui utilise 100 % d’énergie renouvelable. Novo Nordisk, le fabricant du médicament contre le diabète Ozempic/Wegovy, devenu médicament amaigrissant, investit environ 80 millions d’euros dans le projet par l’intermédiaire de la Fondation Novo Nordisk. Le Fonds d’exportation et d’investissement du Danemark contribue également à hauteur d’environ 8 millions d’euros.
« Les découvertes scientifiques révolutionnaires sont basées sur des données, et l’IA nous offre désormais une opportunité sans précédent d’accélérer la recherche, par exemple dans le domaine de la santé humaine et planétaire », a déclaré Mads Krogsgaard Thomsen, PDG de la Fondation Novo Nordisk dans un communiqué.
Clarifiant l’accord de partenariat lors d’un point de presse, Kimberly Powell, vice-présidente des soins de santé chez Nvidia, a déclaré : «Dans notre accord de collaboration, nous prendrons toute cette IA générative et la transférerons vers leur infrastructure d’IA souveraine afin que [Denmark] peut vraiment faire progresser la médecine, l’informatique quantique et les sciences sociales.
La géopolitique de l’IA
Pendant ce temps, l’IA et les supercalculateurs qui alimentent sa formation ne sont plus l’apanage de quelques chercheurs sélectionnés. À mesure que la technologie devient de plus en plus omniprésente, le calcul nécessaire pour former des modèles d’IA de plus en plus grands ou exécuter des simulations sophistiquées augmente.
Son importance va des gains de productivité et d’efficacité aux applications militaires et de cybersécurité – quelque chose qui ne passe pas inaperçu auprès des décideurs politiques en matière de sécurité nationale, comme l’illustrent les restrictions américaines à l’exportation du matériel utilisé pour former l’IA vers la Chine.
« Dans le climat géopolitique actuel, il est important que nous renforcions nos positions stratégiques », a déclaré Morten Bødskov, ministre danois de l’Industrie, du Commerce et des Affaires financières (tout en évitant l’expression du jour, « souveraineté numérique »).
Mais rester au top du calcul haute performance (HPC) et de la formation en IA est une tâche difficile. Le fait que Gefion, un supercalculateur annoncé aujourd’hui et destiné à être pleinement opérationnel en 2025, comportera le GPU Nvidia H100 témoigne de la rapidité avec laquelle les choses évoluent dans le domaine du HPC et de l’intelligence artificielle.
Hier encore Nvidia, maintenant le troisième entreprise la plus valorisée au monde, a lancé sa dernière puce AI, la Blackwell, qui, selon elle, est 4 fois plus rapide que la H100. Il sera également combiné en une superpuce avec deux GPU Blackwell et un CPU Grace, pour une « IA générative de paramètres à l’échelle de milliards de milliards ».
La course européenne à l’exascale
Le nouveau supercalculateur danois sera en bonne compagnie européenne. Le Royaume-Uni construit un supercalculateur exascale à Édimbourg, ainsi qu’un supercalculateur IA à Bristol. L’entreprise commune EuroHPC soutient non pas un mais deux supercalculateurs exascale dans l’UE. Le projet installe cette année Jupiter au Centre de calcul scientifique de Jülich, en Allemagne, et un deuxième système appelé Jules Verne sera mis en service en France en 2025.
Un supercalculateur exascale est capable de dépasser le seuil d’un milliard de milliards de calculs, ou d’un exaflop, par seconde. Pour mettre cela en contexte, le travail d’une seconde sur un ordinateur exascale équivaut à un calcul chaque seconde pendant 31 688 765 000 ans.
Jusqu’à ce que Jupiter soit mis en ligne, il n’existe qu’un seul supercalculateur exascale dans le monde : Frontier, hébergé au Oak Ridge Leadership Computing Facility dans le Tennessee, aux États-Unis. (Bien que la Chine ait désormais cessé de divulguer ses capacités en matière de supercalculateurs, nous ne pouvons pas être sûrs à 100%d’après les experts.)
Alors, comment Gefion peut-il alors avoir des performances d’IA de six exaflops, vous vous demandez peut-être. Eh bien, « performance de l’IA » signifie qu’elle a cette capacité spécifiquement dans les tâches liées à l’IA. (Le supercalculateur Eos de Nvidia, fonctionnant dans un emplacement non divulgué, a 18,4 exaflops de performances d’IA.) Cependant, pour être considéré comme un véritable ordinateur exascale, un système de supercalculateur doit être capable d’exécuter en exascale un large éventail de tâches de calcul, sans s’y limiter. à l’IA.
Dans les deux cas, ce n’est pas la dernière pression en faveur de davantage de capacités nationales en matière de HPC et d’IA. Alors qu’Intel et AMD se rapprochent des offres de Nvidia, cette dernière semble bien partie pour régner encore un peu.
Source link