Votre nouveau cloud pour l’IA se trouve peut-être dans une colo

Les entreprises qui font évoluer leurs projets d’intelligence artificielle vers un développement à grande échelle découvrent une augmentation des coûts en fonction des choix d’infrastructure initiaux. De nombreuses entreprises dont l’infrastructure de formation de modèles d’IA n’est pas à proximité de leur lac de données encourent des coûts plus élevés à mesure que les ensembles de données s’agrandissent et que les modèles d’IA deviennent plus complexes.
La réalité est que le cloud n’est pas un marteau qui devrait être utilisé pour frapper tous les clous de l’IA. Le cloud est idéal pour l’expérimentation lorsque les ensembles de données sont plus petits et la complexité du modèle est légère. Mais au fil du temps, les ensembles de données et les modèles d’IA deviennent plus complexes à mesure que les entreprises recherchent une plus grande précision des modèles. La gravité des données se glisse dans les données générées est conservée sur site et les modèles de formation IA restent dans le cloud » ; cela entraîne une augmentation des coûts sous forme de calcul et de stockage, et une latence accrue dans le flux de travail des développeurs.
Dans l’enquête IDC 2020 Cloud Pulse Survey, 84% des entreprises ont déclaré qu’ils rapatriaient les charges de travail du cloud public vers l’infrastructure sur site en raison de la gravité des données, des préoccupations concernant la sécurité et la souveraineté, ou de la nécessité d’une fréquence plus élevée de formation des modèles.
Les maux de tête potentiels de l’infrastructure de bricolage sur site
Cependant, ce rapatriement peut signifier plus de maux de tête pour les équipes de science des données et informatiques pour concevoir, déployer et gérer une infrastructure optimisée pour l’IA à mesure que les charges de travail reviennent sur site. Souvent, le fardeau du développement de la plate-forme peut incomber aux équipes de science des données et de développeurs qui savent ce dont ils ont besoin pour leurs projets, mais dont les compétences sont mieux servies en se concentrant sur l’expérimentation d’algorithmes plutôt que sur le développement de systèmes.
« Lorsque les data scientists et les développeurs passent des cycles à faire de l’intégration de systèmes, de l’ingénierie de la pile logicielle et du support informatique, ils dépensent de précieux OpEx pour des choses que vous préféreriez qu’ils ne fassent pas », déclare Tony Paikeday, directeur principal des systèmes d’IA chez NVIDIA.
Le temps et le budget consacrés à des choses autres que la science des données incluent des tâches telles que :
- Génie logiciel
- Conception de plateforme
- Intégration matérielle et logicielle
- Dépannage
- Optimisation logicielle
- Concevoir et construire à grande échelle
- Ré-optimisation continue du logiciel
- Concevoir à grande échelle
« L’adoption d’une approche artisanale de la plate-forme et des outils finit par être éclipsée par les fonds propres dépensés pour des choses qui n’ont rien à voir avec la science des données, ce qui retarde finalement le retour sur investissement de l’IA », déclare Paikeday.
Approche alternative : services de colocation pour l’infrastructure d’IA
Les entreprises à la recherche d’une alternative aux environnements sur site ou uniquement dans le cloud devraient envisager des services gérés basés sur la colocation pour une infrastructure d’IA hautes performances. Ces services offrent une facilité d’accès, ainsi que des experts en infrastructure qui peuvent garantir une disponibilité 24h/24, 7j/7 et 365j/an avec une fourniture sécurisée de ressources à la demande dans un modèle pratique basé sur OpEx.
Des entreprises telles que Cyxtera, Digital Realty et Equinix, entre autres, proposent des services d’hébergement, de gestion et d’exploitation pour l’infrastructure d’IA. Paikeday dit que c’est comme remettre les clés d’une voiture à un chauffeur : vous bénéficiez des avantages du trajet sans avoir à vous soucier de la conduite, de l’entretien et de la gestion.
Le Fonderie NVIDIA DGX proposée par Equinix, offre aux scientifiques des données une expérience de développement d’IA de qualité supérieure sans difficulté. La solution comprend Commande de base NVIDIA un logiciel pour gérer le flux de travail des développeurs et l’orchestration des ressources, et l’accès à une infrastructure NVIDIA entièrement gérée basée sur l’architecture DGX SuperPOD, disponible à la location.
« Les organisations qui peuvent avoir peur de la rotation technologique et du rythme de l’innovation dans l’infrastructure informatique devraient envisager des services tels que DGX Foundry fournis dans une installation de colocation », déclare Paikeday. « Grâce à cette approche basée sur OpEx, vous pouvez vous procurer une infrastructure haute performance à grande échelle qui est dédiée et taillée pour vous, livrée avec la simplicité et la facilité d’accès du cloud, et sans aucune charge pour votre équipe informatique. »
Cliquez ici pour découvrir comment les services de colocation peuvent vous offrir les avantages d’une infrastructure d’IA sans tout le travail lourd, avec les systèmes NVIDIA DGX, alimentés par les GPU DGXA100 Tensor core et les processeurs AMD EPYC.
À propos de Keith Shaw :
Keith est un journaliste numérique indépendant qui écrit sur des sujets technologiques depuis plus de 20 ans.
Source link