Comment créer une infrastructure d'IA pour prendre en charge la PNL

Lorsque les entreprises ont commencé à déployer des solutions d'infrastructure d'IA il y a près de six ans, elles innovaient dans l'exploration de l'IA, la recherche de pointe et les défis de la « grande science ».
Depuis lors, de nombreuses entreprises ont concentré leurs ambitions d'IA sur des cas d'utilisation plus pragmatiques, notamment en révolutionnant le service client, en améliorant l'efficacité de l'usine, en fournissant de meilleurs résultats cliniques et en minimisant les risques.
Aujourd'hui, nous assistons à l'explosion du plus grand défi informatique d'entreprise de notre époque avec l'essor du traitement du langage naturel (NLP), qui est devenu une capacité essentielle pour les entreprises du monde entier.
Les géants du commerce électronique utilisent des services de traduction pour les chatbots afin de prendre en charge des milliards d'utilisateurs dans le monde. De grands fabricants comme Lockheed Martin utilisent la PNL pour permettre la maintenance prédictive en traitant les données saisies par les techniciens, exposant les indices dans un texte non structuré qui sont des précurseurs des temps d'arrêt des équipements.
De tels efforts se produisent dans le monde entier. Au Vietnam, par exemple, VinBrainAI construit des modèles de langage clinique qui permettent aux radiologues de rationaliser leur flux de travail et d'obtenir des diagnostics jusqu'à 23 % plus précis grâce à une meilleure synthèse et analyse des rencontres avec les patients.
Ce que ces organisations ont en commun est leur désir de mettre en œuvre une infrastructure d'IA à grande échelle capable de former des modèles pour fournir une compréhension linguistique incroyable avec un vocabulaire spécifique à un domaine. La réalité est que les grands modèles de langage, les systèmes de recommandation d'apprentissage en profondeur et les graphes informatiques sont des exemples de problèmes de la taille d'un centre de données qui nécessitent une infrastructure à une toute nouvelle échelle.
Pour profiter de cette opportunité, de plus en plus d'entreprises mettent en œuvreCentres d'excellence en IA (CoE)basées sur une infrastructure informatique partagée, qui consolident l'expertise, les meilleures pratiques et les capacités de la plate-forme pour accélérer la résolution des problèmes.
La bonne approche architecturale d'un AI CoE peut servir deux modes d'utilisation critiques :
- Infrastructure partagée qui dessert les grandes équipes et tous les projets discrets que les développeurs peuvent avoir besoin d'exécuter dessus
- Une plate-forme sur laquelle des charges de travail gigantesques et monolithiques, telles que de grands modèles de langage, peuvent être développées et réitérées en continu au fil du temps
L'infrastructure prenant en charge un AI CoE nécessite une empreinte de calcul massive, mais plus important encore, elle doit être architecturée avec la bonne structure de réseau et gérée par uncouche logiciellequi comprend sa topologie, le profil des ressources disponibles et les exigences des charges de travail qui lui sont présentées.
La couche logicielle est tout aussi importante que le matériel de calcul intensif. Il fournit l'intelligence sous-jacente et la capacité d'orchestration qui peuvent permettre un flux de travail de développement rationalisé, attribuer rapidement des charges de travail aux ressources et mettre en parallèle les problèmes les plus importants sur l'ensemble de la plate-forme pour obtenir le cycle de formation le plus rapide possible.
Alors que l'AI CoE prend son envol dans les entreprises de tous les secteurs, de nombreuses organisations cherchent encore à doter leur entreprise de l'IA et de l'infrastructure nécessaire pour y parvenir. Pour le dernier,nouvelles approches de consommationgagnent du terrain qui associent l'infrastructure de supercalcul aux entreprises qui en ont besoin, livrées dans un modèle hébergé, proposé via des centres de données en colocation.
Les responsables informatiques peuvent en savoir plus sur ces tendances et sur la manière de développer une stratégie d'IA en assistant àNVIDIA GTCun événement virtuel qui se déroule du 21 au 24 mars et propose plus de 900 sessions sur l'IA, les centres de données accélérés et le calcul haute performance.
Charlie Boyle de NVIDIA, vice-président et directeur général de DGX Systems, présentera une session intitulée "Comment l'infrastructure d'IA de classe leader façonnera 2023 et au-delà : ce que les responsables informatiques doivent savoir – S41821 ».Inscription gratuiteaujourd'hui.
Source link