Nvidia accélère l'IA et la modélisation climatique

Cela fait des années que les développeurs ont découvert que le produit principal de Nvidia, le GPU, était utile non seulement pour le rendu des jeux vidéo, mais aussi pour le calcul haute performance du type utilisé dans la modélisation 3D, les prévisions météorologiques ou la formation de modèles d'IA – et c'est sur des applications d'entreprise telles que celles sur lesquelles le PDG Jensen Huang concentrera son attention lors de la conférence GTC 2022 de l'entreprise cette semaine.
Nvidia espère faciliter la construction des DSIjumeaux numériqueset des modèles d'apprentissage automatique pour sécuriser l'informatique d'entreprise, et même pour accélérer l'adoption de l'informatique quantique avec une gamme de nouveaux matériels et logiciels.
Voir double
Les jumeaux numériques, des modèles numériques qui reflètent les changements d'objets du monde réel utiles dans la conception, la fabrication et la création de services, varient dans leur niveau de détail. Pour certaines applications, une simple base de données peut suffire à enregistrer l'historique d'entretien d'un produit (quand il a été fabriqué, à qui il a été expédié, quelles modifications ont été appliquées), tandis que d'autres nécessitent un modèle 3D complet incorporant des données de capteur en temps réel qui peuvent être utilisé, par exemple, pour avertir à l'avance de la défaillance d'un composant ou de la pluie. C'est dans le haut de gamme que joue Nvidia.
Lors du GTC 2022, la société a annoncé de nouveaux outils pour créer des jumeaux numériques pour des applications scientifiques et d'ingénierie. Deux groupes de chercheurs utilisent déjà le framework Modulus AI de Nvidia pour développer des modèles physiques d'apprentissage automatique et sa plateforme de simulation de monde virtuel Omniverse 3D pour prévoir la météo avec plus de confiance et de rapidité, et pour optimiser la conception des parcs éoliens.
Les ingénieurs de Siemens Gamesa Renewable Energy utilisent la combinaison Modulus-Omniverse pour modéliser le placement des éoliennes les unes par rapport aux autres afin de maximiser la production d'électricité et de réduire les effets de la turbulence générée par une éolienne sur ses voisines.
Alors que le modèle Siemens-Gamesa s'intéresse aux effets du vent sur une zone de quelques kilomètres de diamètre, les ambitions des chercheurs travaillant sur FourCastNet sont bien plus grandes.
FourCastNet (du nom des opérateurs neuronaux de Fourier utilisés dans ses calculs) est un outil de prévision météo formé sur 10 téraoctets de données. Il émule et prédit des événements météorologiques extrêmes tels que des ouragans ou des rivières atmosphériques comme celles qui ont provoqué des inondations dans le nord-ouest du Pacifique et à Sydney, en Australie, début mars. Nvidia affirme pouvoir le faire jusqu'à 45 000 fois plus rapidement que les modèles de prédiction numérique traditionnels.
Le système est une première étape vers la livraison d'un projet encore plus ambitieux que Nvidia appelle Earth-2. Il a annoncé en novembre 2021 qu'il prévoyait de construire un supercalculateur utilisant ses propres puces et de l'utiliser pour créer un jumeau numérique de la Terre à une résolution de 1 mètre dans son logiciel Omniverse pour modéliser les effets du changement climatique.
Pour aider d'autres entreprises à créer et à maintenir leurs propres jumeaux numériques, Nvidia proposera plus tard cette année des systèmes informatiques OVX exécutant son logiciel Omniverse sur des racks chargés de ses GPU, de son stockage et de sa matrice de commutation à grande vitesse.
Nvidia présente également Omniverse Cloud pour permettre aux créateurs, concepteurs et développeurs de collaborer sur des conceptions 3D sans avoir besoin d'accéder à leur propre puissance de calcul haute performance dédiée, un moyen pour les DSI d'étendre temporairement leur utilisation de la technologie sans investissement majeur en capital.
Et il s'associe à des fabricants de robotique et à des fournisseurs de données pour augmenter le nombre de connecteurs Omniverse que les développeurs peuvent utiliser pour aider leurs jumeaux numériques à mieux refléter et interagir avec le monde réel.
Il travaille déjà avec les détaillants Kroger et Lowes, qui utilisent Omniverse pour simuler leurs magasins et les chaînes logistiques qui les approvisionnent.
Apprentissage accéléré
Les modèles d'apprentissage automatique peuvent être gourmands en calculs à exécuter, mais ils le sont encore plus à former, car le processus nécessite un système capable d'effectuer des calculs complexes sur de gros volumes de données. Au GTC2022, Nvidia présente une nouvelle architecture GPU, Hopper, conçue pour accélérer ces tâches, et présente la première puce basée sur celle-ci, la H100.
Nvidia a déclaré que la puce permettra d'exécuter de grands modèles de langage et des systèmes de recommandation, de plus en plus courants dans les applications d'entreprise, en temps réel, et comprend de nouvelles instructions qui peuvent accélérer l'optimisation des itinéraires et les applications génomiques. La possibilité de segmenter le GPU en plusieurs instances, un peu comme les machines virtuelles dans un processeur, le rendra également utile pour exécuter plusieurs applications plus petites, sur site ou dans le cloud.
Par rapport à la modélisation scientifique, la formation de modèles d'IA nécessite moins de précision mathématique, mais un plus grand débit de données, et la conception du H100 permet aux applications de faire des compromis les unes contre les autres. Le résultat, selon Nvidia, est que les systèmes construits avec le H100 pourront former des modèles neuf fois plus rapidement que ceux utilisant son prédécesseur, le A100.
Informatique sécurisée
Nvidia a déclaré que ses nouvelles puces H100 lui permettront également d'étendre les capacités de calcul confidentielles au GPU, une fonctionnalité jusqu'à présent uniquement disponible sur les processeurs. L'informatique confidentielle permet aux entreprises de traiter en toute sécurité les données de santé ou financières dans l'enclave sécurisée d'un processeur spécialement conçu, en les déchiffrant à l'arrivée et en chiffrant les résultats avant qu'ils ne soient envoyés au stockage.
L'option de traiter en toute sécurité ces données sur un GPU, même dans un cloud public ou une installation de colocation, pourrait permettre aux entreprises d'accélérer le développement et l'utilisation de modèles d'apprentissage automatique sans augmenter les dépenses en capital.
Quantique à venir
L'informatique quantique promet – ou menace peut-être – de balayer de larges pans du marché actuel de l'informatique haute performance avec des processeurs quantiques qui exploitent des phénomènes subatomiques pour résoudre des problèmes d'optimisation jusqu'ici insolubles. Ce jour-là, les ventes de Nvidia sur le marché du supercalcul pourraient en pâtir, mais en attendant, ses puces et ses logiciels jouent un rôle dans la simulation de systèmes informatiques quantiques.
Des chercheurs à l'intersection de l'informatique quantique et classique ont créé un langage machine de bas niveau appelé la représentation intermédiaire quantique. Nvidia a développé un compilateur pour ce langage, nvq++, qui sera d'abord utilisé par les chercheurs du Oak Ridge National Laboratory, et un SDK pour accélérer les workflows quantiques, cuQuantum, qui est disponible sous forme de conteneur optimisé pour fonctionner sur son GPU A100.
Ces outils pourraient être utiles aux DSI qui ne savent pas quels avantages l'informatique quantique offrira à leur entreprise, ou à ceux qui sont déjà sûrs et qui souhaitent aider leurs développeurs à développer un ensemble de compétences quantiques à une époque où les vrais ordinateurs quantiques sont encore des curiosités de laboratoire.
Source link