Fermer

juillet 2, 2024

Gérez les LLM exigeants et l’inférence d’IA à grande échelle avec des serveurs spécialement conçus

Gérez les LLM exigeants et l’inférence d’IA à grande échelle avec des serveurs spécialement conçus



L’IA générative (genAI) a suscité beaucoup de battage médiatique et d’enthousiasme auprès des entreprises avec ses promesses de nouvelles possibilités, de l’automatisation des processus et de la création de contenu à l’amélioration du service client et à l’amélioration de la productivité. Presque tous les secteurs peuvent bénéficier de la genAI, mais de nombreuses organisations ont du mal à l’adopter. En effet, leur infrastructure informatique existante ne peut pas répondre aux exigences informatiques exigées par genAI ni rester durable dans le processus.

Que peuvent faire les entreprises pour ne pas manquer la promesse de genAI ? La première étape d’une configuration et d’une mise en œuvre réussies de genAI consiste à comprendre ce qui est nécessaire pour que les grands modèles de langage (LLM) et les environnements d’inférence d’IA à grande échelle (fondements de genAI) fonctionnent de manière fluide et efficace.

Construire une base solide pour la mise en œuvre de genAI

Chaque organisation sait que le succès ne peut être atteint que dans le bon environnement ; il en va de même pour la technologie. À mesure que des innovations émergent, leurs exigences évoluent souvent. Surtout à l’ère de l’IA où une grande puissance de calcul et des capacités de stockage sont nécessairesil devient nécessaire de revoir leur infrastructure existante.

La bonne nouvelle est que, parallèlement aux innovations émergentes, des solutions aident les organisations à combler le fossé. Un exemple serait le Usine d’IA Dell. Les organisations peuvent obtenir une infrastructure, des solutions et des services adaptés à leurs besoins pour un déploiement fluide et transparent de l’IA et de la genAI. Étant donné que chaque entreprise a des besoins différents, la construction d’une infrastructure adaptée leur fournira également les bases dont elles ont besoin pour évoluer rapidement. Cela signifie qu’ils peuvent commencer modestement et développer de nouvelles capacités d’IA tout en continuant à innover et à trouver de nouveaux cas d’utilisation. Et étant donné la puissance de calcul nécessaire aux charges de travail genAI, Dell Technologies a étroitement collaboré avec NVIDIA pour offrir aux clients les performances nécessaires pour démarrer.

Améliorer les serveurs pour la révolution genAI

Depuis les premiers microprocesseurs et serveurs montés en rack jusqu’aux serveurs modernes d’aujourd’hui offrant une informatique haute densité, une intégration dans le cloud et une évolutivité, nous avons assisté à des progrès technologiques au fil des ans. Cependant, l’avènement de genAI a créé un nouvel essor pour Croissance des serveurs GPU, conduisant le marché des serveurs IA à atteindre 49,1 milliards de dollars dans le monde d’ici 2027.

Même si, techniquement, les unités centrales de traitement (CPU) traditionnelles peuvent également exécuter des LLM, il existe de nombreux limites– la vitesse en fait partie. Les GPU peuvent effectuer des calculs techniques beaucoup plus rapidement et avec une plus grande efficacité énergétique que les CPU, c’est pourquoi les LLM s’appuient fortement sur les premiers.

Le Dell PowerEdge XE9680 est une instance dans laquelle un serveur est conçu pour prendre en charge les charges de travail genAI. Conçu pour gérer les formations LLM exigeantes et les environnements d’inférence à grande échelle, le Dell PowerEdge XE9680 est doté d’une architecture à l’échelle rack intégrée en usine, dans laquelle les composants partenaires sont intégrés de manière transparente pour un déploiement efficace et fiable. Il s’agit d’une solution clé en main accompagnée de services de support et de déploiement pour une mise en œuvre la plus rapide et la plus transparente.

Son successeur, le Dell PowerEdge XE9680L, dispose désormais d’une fonction de refroidissement intelligente pour les processeurs et les GPU afin de permettre une densité GPU plus élevée par rack tout en maximisant la puissance de calcul sans surchauffe. Il est optimisé pour NVIDIA HGX B200 pour accélérer davantage le calcul et la genAI.

Gardez une longueur d’avance sur l’innovation avec des serveurs accélérés par GPU

Pour accélérer la mise en œuvre et l’innovation de genAI, les organisations devraient envisager de mettre en œuvre des serveurs accélérés par GPU spécialement conçus pour les applications d’IA. Avec des solutions de serveur rack telles que PowerEdge, les entreprises peuvent se concentrer sur la création de leurs charges de travail genAI en toute certitude de disposer de l’infrastructure appropriée.

Le remplacement des serveurs traditionnels par ceux conçus pour l’IA garantira que les organisations resteront compétitives dans le paysage actuel axé sur l’IA. Plus important encore, disposer des capacités nécessaires signifie que de nouvelles idées peuvent rapidement devenir réalité, prouvant que la genAI peut effectivement être à la hauteur de son battage médiatique.

Pour en savoir plus sur les solutions d’architecture genAI de Dell Technologies et sur ce qu’elles peuvent apporter à votre organisation, lisez : Innovez plus rapidement grâce à l’IA accélérée par GPU.





Source link