« Ne soyez pas surpris si je suis une IA », déclare le PDG de Nvidia
Nvidia n’était qu’un fournisseur de puces graphiques, mais le PDG Jensen Huang veut que vous sachiez que la société est désormais un fournisseur de services informatiques complets et qu’il peut s’agir d’une construction artificielle.
Avec de telles ambitions, Nvidia se tourne vers le cloud, fournissant à la fois du matériel et des logiciels en tant que service. Lors de la conférence GTC Fall de la société la semaine dernière, Huang a présenté quelques nouveaux jouets pour les joueurs, mais il a passé la majeure partie de son discours d’ouverture à décrire les outils que Nvidia offre aux DSI pour accélérer l’informatique dans l’entreprise.
Il y avait du matériel pour les concepteurs industriels dans le nouveau GPU Ada Lovelace RTX ; une puce pour piloter des véhicules autonomes tout en divertissant les passagers ; et la plate-forme informatique de pointe IGX pour les systèmes autonomes.
Mais ce n’était pas que du matériel. Des logiciels (pour la découverte de médicaments, la recherche en biologie, le traitement du langage et la création de métaverses pour l’industrie) et des services tels que le conseil, la cybersécurité et les logiciels et infrastructures en tant que service dans le cloud étaient également présents.
Huang a ponctué son discours d’ouverture avec des démos d’un seul processeur effectuant un rendu photoréaliste en temps réel de scènes avec des effets d’éclairage naturels, une IA qui peut remplir de manière transparente les images manquantes pour lisser et accélérer l’animation, et un moyen de former de grands modèles de langage pour l’IA qui leur permettent de répondre aux invites de manière contextuelle. La qualité de ces démos l’a rendue au moins quelque peu plausible lorsque, lors d’une vidéoconférence avec des journalistes après le discours d’ouverture, Huang à l’écran a plaisanté : « Ne soyez pas surpris si je suis une IA. »
Blague à part, les DSI voudront accorder une attention particulière au nouveau jeu de services cloud de Nvidia, car cela pourrait leur permettre de fournir de nouvelles fonctionnalités à travers leurs organisations sans augmenter les budgets d’équipement. À une époque où les coûts du matériel sont susceptibles de grimper et où la capacité de l’industrie à intégrer davantage de transistors dans une zone de silicium donnée est au point mort, des défis subsistent pour beaucoup.
« La loi de Moore est morte », a déclaré Huang, faisant référence à la déclaration de Gordon Moore de 1965 selon laquelle le nombre de transistors sur les puces doublerait environ tous les deux ans. « Et l’idée qu’une puce va baisser avec le temps, malheureusement, est une histoire du passé. »
De nombreux facteurs contribuent aux problèmes des fabricants de puces comme Nvidia, notamment la difficulté à obtenir outillage vital et le coût croissant des matières premières telles que le gaz néon (dont l’approvisionnement a été affecté par la guerre en Ukraine) et les plaquettes de silicium à partir desquelles sont fabriquées les puces.
« Une plaquette de 12 pouces est beaucoup plus chère aujourd’hui qu’elle ne l’était hier », a déclaré Huang. « Et ce n’est pas un peu plus cher, c’est une tonne plus cher. »
La réponse de Nvidia à ces coûts croissants est de développer des logiciels optimisés pour que les clients tirent le meilleur parti de ses processeurs, aidant ainsi à rétablir un équilibre prix-performances. « L’avenir concerne l’accélération de la pile complète », a-t-il déclaré. « L’informatique n’est pas un problème de puce. L’informatique est un problème de logiciel et de puce, un défi de pile complète.
Réglage fin de NeMo
Pour souligner ce point, Nvidia a annoncé qu’elle était déjà en train d’optimiser son logiciel de formation de grands modèles de langage NeMo pour sa nouvelle puce H100, qui vient d’entrer en pleine production. Le H100 est la première puce basée sur le Architecture de la trémie que Nvidia a dévoilé lors de sa conférence Spring GTC en mars. Parmi les autres frameworks d’apprentissage en profondeur optimisés pour le H100, citons Microsoft DeepSpeed, Google JAX, PyTorch, TensorFlowet XLA, a déclaré Nvidia.
Nvidia Hopper
NeMo a également la particularité d’être l’un des deux premiers produits Nvidia à être vendu en tant que service basé sur le cloud, l’autre étant Omniverse.
Le service NeMo Large Language Model Service permet aux développeurs de former ou d’adapter les réponses de grands modèles de langage construits par Nvidia pour le traitement ou la prédiction des réponses dans les langages humains et le code informatique. Le service associé BioNeMo LLM fait quelque chose de similaire pour les structures protéiques, en prédisant leurs propriétés biomoléculaires.
La dernière innovation de Nvidia dans ce domaine est de permettre aux entreprises de prendre un modèle construit à partir de milliards de paramètres et de l’affiner à l’aide de quelques centaines de points de données, afin qu’un chatbot puisse fournir des réponses plus appropriées à un contexte particulier. Par exemple, si un chatbot demande « Quelles sont les options de location ? » il pourrait répondre : « Vous pouvez louer un modem pour 5 $ par mois », s’il était réglé pour un FAI ; « Nous pouvons proposer des voitures économiques, compactes et pleine grandeur », pour une société de location de voitures ; ou, « Nous avons des unités allant du studio au trois chambres », pour une agence de gestion immobilière.
Un tel réglage, a déclaré Nvidia, peut être effectué en quelques heures, alors que la formation d’un modèle à partir de zéro peut prendre des mois. Les modèles réglés, une fois créés, peuvent également être appelés à l’aide d’un « jeton d’invite » combiné avec le modèle d’origine. Les entreprises peuvent exécuter les modèles sur site ou dans le cloud ou, à partir d’octobre, y accéder dans le cloud de Nvidia via une API.
Nuage omnivers
La plate-forme Omniverse de Nvidia est la base de l’autre suite de services cloud proposée par la société.
Huang a décrit la plate-forme comme ayant trois caractéristiques clés. L’un est la capacité d’ingérer et de stocker des informations tridimensionnelles sur les mondes : « C’est une base de données moderne dans le cloud », a déclaré Huang. Un autre est sa capacité à connecter des appareils, des personnes ou des agents logiciels à ces informations et entre eux. « Et le troisième vous donne une fenêtre sur ce nouveau monde, une autre façon de dire que c’est un moteur de simulation », a déclaré Huang.
Ces simulations peuvent être du monde réel, dans le cas d’entreprises créant des jumeaux numériques d’installations ou de produits de fabrication, ou de mondes fictifs utilisés pour former des réseaux de capteurs (avec Omniverse Replicator), des robots (avec Isaac Sim) et des véhicules autonomes. (avec Drive Sim) en leur fournissant des données de capteur simulées.
Il existe également Omniverse Nucleus Cloud, qui fournit un magasin de description de scène universel partagé pour les scènes et les données 3D pouvant être utilisées pour la collaboration en ligne, et Omniverse Farm, un outil évolutif pour le rendu des scènes et la génération de données synthétiques à l’aide d’Omniverse.
Géant industriel Siemens utilise déjà la plateforme Omniverse pour développer des jumeaux numériques pour la fabrication, et Nvidia a déclaré que la société travaillait actuellement à fournir ces services à ses clients en utilisant Omniverse Cloud.
Omniverse Farm, Replicator et Isaac Sim sont déjà disponibles dans des conteneurs que les entreprises peuvent déployer sur les instances cloud de calcul d’Amazon Web Services équipées de GPU Nvidia, mais les entreprises devront attendre la disponibilité générale des autres applications Omniverse Cloud en tant que services gérés par Nvidia. La société accepte désormais les candidatures pour un accès anticipé.
Nvidia ouvre également de nouveaux canaux pour aider les entreprises à consommer ses nouveaux produits et services. Le fournisseur de conseil en gestion Booz Allen Hamilton propose aux entreprises un nouveau service de cybersécurité qu’il appelle Cyber Precog, basé sur Nvidia Morpheus, un cadre de traitement de la cybersécurité de l’IA, tandis que Deloitte proposera des services aux entreprises autour de la suite logicielle Omniverse de Nvidia, ont annoncé les entreprises au GTC.
Alors que Nvidia travaille avec des consultants et des intégrateurs de systèmes pour déployer ses offres SaaS et de location de matériel, cela ne signifie pas qu’il va cesser de vendre du matériel. Huang a noté que certaines organisations, généralement des start-ups ou celles qui n’utilisent leur infrastructure que sporadiquement, préfèrent louer, tandis que les grandes entreprises établies préfèrent posséder leur infrastructure.
Il a comparé le processus de formation des modèles d’IA à l’exploitation d’une usine. « Nvidia est maintenant dans le secteur de l’usine, l’usine la plus importante du futur », dit-il. Là où les usines d’aujourd’hui reçoivent des matières premières et fabriquent des produits, il a déclaré : « À l’avenir, les usines recevront des données, et ce qui en sortira sera de l’intelligence ou des modèles.
Mais Nvidia doit regrouper ses usines matérielles et logicielles pour les DSI de différentes manières, a déclaré Huang : « Tout comme les usines aujourd’hui, certaines personnes préfèrent externaliser leur usine, et d’autres préfèrent la posséder. Cela dépend simplement du modèle d’entreprise dans lequel vous vous trouvez.
Source link