L’âge d’or du HPC au sein du gouvernement répond aux demandes croissantes

Lorsque Seymour Cray a construit ce qui est généralement considéré comme le premier supercalculateur en 1964, il tournait 1 mégaflop (un million d’opérations en virgule flottante par seconde). Aujourd’hui le Superordinateur frontière au laboratoire national d’Oak Ridge dans le Tennessee effectue un quintillion (un milliard de milliards) d’opérations par seconde. Mais le New York Times a récemment rapporté que des chercheurs chinois avaient franchi la barrière de l’informatique exascale, effectuant un calcul qui aurait pris 10 000 ans aux anciennes machines du Laboratoire national d’Oak Ridge en seulement 304 secondes.
Le calcul haute performance (HPC) devient non seulement plus rapide et capable de calculs plus massifs et complexes, mais il est également devenu beaucoup plus accessible et abordable pour les entreprises de toutes tailles et de tous types. Cependant, les gouvernements fédéraux du monde entier sont les utilisateurs les plus agressifs du HPC. Ils y voient un outil vital pour faire progresser la R&D et la compétitivité d’un pays sur la scène mondiale.
Le HPC arrive à maturité
Le Global Marché HPC est chaud – générant 42 milliards de dollars en 2021 et devrait atteindre 71,7 milliards de dollars d’ici 2030. Au sein du gouvernement fédéral américain, le HPC est utilisé pour accélérer la science fondamentale, développer des thérapies et d’autres traitements pour COVID-19, effectuer des applications militaires telles que des simulations, gérer modélisation climatique et météorologique, et une myriade d’autres tâches dans diverses agences.
Autrefois, les solutions HPC étaient construites, achetées ou louées, puis livrées et gérées par le client dans les centres de données de l’entreprise. La capacité et la demande étaient difficiles à prévoir, de sorte que ces systèmes pouvaient parfois rester inactifs et à d’autres moments être dépassés. Désormais, l’utilisation de ressources cloud en conjonction avec une infrastructure HPC sur site permet aux organisations d’exécuter des charges de travail HPC selon leurs besoins, sur une base de paiement à l’utilisation, avec des économies de coûts démontrables.
Un autre facteur qui suscite plus d’intérêt et d’investissement dans le HPC est la disponibilité de machines plus petites et abordables. En plus des supercalculateurs de classe leader coûtant plus de 500 000 $, il existe des machines divisionnaires dont le prix se situe entre 250 000 $ et 500 000 $ et des machines départementales coûtant aussi peu que 100 000 $. Des serveurs et des processeurs spécialisés sont disponibles pour s’adapter à différents usages et budgets.
Une récente Étude de recherche ont calculé que chaque dollar investi dans le HPC dans un environnement commercial entraînait 507 $ de chiffre d’affaires et 47 $ d’économies. En plus des mesures quantitatives du retour sur investissement, il a également été démontré que la recherche HPC sauve des vies, conduit à d’importants partenariats public/privé et stimule les innovations.
Croissance du HPC dans le gouvernement américain
Pendant des années, des agences du gouvernement fédéral américain telles que le ministère de la Défense (DOD), le ministère de l’Énergie (DOE) et la National Science Foundation ont mené des activités de R&D sur du matériel et des logiciels pour le HPC et formé des personnes à l’utilisation des machines et à la génération de nouvelles applications. Alors que le DOD a gardé les détails de son utilisation de supercalculateurs classifiés pour protéger la sécurité nationale, le DOE est devenu un leader mondial dans le développement de solutions HPC pour la génomique, l’énergie avancée et durable, l’instrumentation scientifique à grande échelle et la science de l’information quantique. La NSF fournit un support pour l’infrastructure HPC dans des installations de recherche universitaires à travers les États-Unis, avec des centres de superordinateurs en Californie, en Pennsylvanie, en Illinois, au Tennessee et au Texas.
D’autres agences ont été créées ces dernières années qui recoupent HPC. Ils comprennent l’Intelligence Advanced Research Projects Activity (IARPA) et le National Institute of Standards and Technology (NIST) qui gèrent la recherche scientifique et technique utilisant l’intelligence artificielle, l’informatique quantique et la biologie synthétique. Le Department of Homeland Security (DHS), le Federal Bureau of Investigation (FBI), la National Aeronautics and Space Administration (NASA), les National Institutes of Health (NIH) et la National Oceanic and Space Administration (NOAA) utilisent tous le HPC et sont actifs dans définir de nouvelles exigences pour les solutions HPC pour un large éventail d’applications.
Nouvelles applications, nouvelles architectures
L’analyse de données volumineuses en temps réel, l’apprentissage en profondeur, la modélisation et la simulation sont de nouvelles utilisations du HPC que les gouvernements adoptent pour une variété d’applications. L’analyse des mégadonnées est utilisée pour découvrir des crimes. L’apprentissage en profondeur, associé à l’apprentissage automatique, est capable de détecter les cybermenaces plus rapidement et plus efficacement.
La modélisation et la simulation à l’aide de supercalculateurs et de vastes quantités de données génèrent des simulations haute fidélité qui permettent aux scientifiques d’analyser des théories et de valider des expériences. Des événements dans le système solaire aux mécanismes au sein d’un proton en passant par la circulation sanguine dans tout le corps, les simulations scientifiques sont variées, offrent d’énormes promesses, incluent de nombreux points de données et nécessitent une grande puissance de traitement. Aux États-Unis, HPC permet au DOE de modéliser et de simuler les impacts d’un réchauffement climatique sur les calottes glaciaires de l’Antarctique et du Groenland et de modéliser le mouvement et l’impact de l’eau, des gaz et des tempêtes sur le niveau de la mer et la température des océans. Les résultats de cette recherche influenceront d’importantes décisions en matière de planification communautaire et de sécurité publique.
Que les agences gouvernementales s’appuient sur des environnements HPC sur site, dans le cloud ou les deux, il est essentiel qu’elles développent un écosystème de partenaires de solutions et de services pour les aider à relever les défis à venir. Avec l’évolution rapide de l’état de l’art du matériel, des logiciels, de l’IA et d’autres innovations HPC, un manque de préparation et d’action pourrait avoir un impact sur la viabilité future d’un pays sur le marché mondial, sur une planète qui se réchauffe ou sur le champ de bataille.
Pour en savoir plus sur le CHP au gouvernement, lisez « Sur-calculer, c’est sur-concurrencer : menaces et opportunités concurrentielles relatives au leadership du gouvernement américain en matière de HPC. »
***
Les technologies Intel® font avancer l’analytique
L’analyse des données est la clé pour débloquer le maximum de valeur que vous pouvez extraire des données de votre organisation. Pour créer une stratégie d’analyse productive et rentable qui donne des résultats, vous avez besoin d’un matériel hautes performances optimisé pour fonctionner avec le logiciel que vous utilisez.
L’analyse de données moderne couvre une gamme de technologies, des plates-formes et bases de données d’analyse dédiées à l’apprentissage en profondeur et à l’intelligence artificielle (IA). Vous débutez avec l’analytique ? Prêt à faire évoluer votre stratégie d’analyse ou à améliorer la qualité de vos données ? Il y a toujours de la place pour évoluer et Intel est prêt à vous aider. Avec un vaste écosystème de technologies d’analyse et de partenaires, Intel accélère les efforts des data scientists, des analystes et des développeurs dans tous les secteurs. En savoir plus sur Analyses avancées d’Intel.
Source link