Fermer

mars 18, 2024

ASUS dévoile des serveurs IA puissants et économiques basés sur une conception modulaire

ASUS dévoile des serveurs IA puissants et économiques basés sur une conception modulaire



Pour réussir les déploiements d’IA, les responsables informatiques ont non seulement besoin du dernier silicium GPU/CPU, mais ils ont également besoin de serveurs d’intelligence artificielle (IA) qui établissent une base. Cela signifie un matériel conçu dès le départ pour des performances maximales, une intégration du centre de données, une prise en charge du développement de l’IA, un refroidissement optimal et une mise à l’échelle verticale et horizontale facile.

La collaboration d’ASUS avec le leader des puces IA NVIDIA rend tout cela possible. Les responsables informatiques participant à la conférence des développeurs IA GTC 2024 de NVIDIA (du 18 au 21 mars 2024 à San Jose, Californie) peuvent explorer ces capacités avec ASUS, l’un des leaders mondiaux des serveurs IA hautes performances basés sur l’architecture de référence de serveur MGX de NVIDIA. Cette architecture permet aux serveurs ASUS d’exploiter les dernières avancées de NVIDIA en matière de GPU, de processeurs, de stockage NVME et d’interfaces PCIe Gen5.

ASUS a adopté l’architecture de référence du serveur MGX de NVIDIA pour développer une nouvelle gamme de serveurs ASUS AI et de calcul haute performance conçus pour l’informatique accélérée. MGX est une architecture modulaire qui peut être appliquée dans une gamme de configurations de serveur, avec une combinaison d’options GPU, DPU et CPU, pour répondre à des charges de travail spécifiques. Cela permet à ASUS d’exploiter pleinement les technologies NVIDIA les plus avancées, notamment le Grace Hopper Superchip et le Grace CPU Superchip, ainsi que le NVLink-C2C de NVIDIA, une interconnexion maillée directe GPU à GPU qui adapte les entrées/sorties (IO) multi-GPU dans le serveur.

Les serveurs ASUS MGX s’intègrent facilement aux centres de données d’entreprise et cloud.

L’architecture MGX, avec les puces NVIDIA, n’est qu’un point de départ. ASUS optimise ces serveurs avec trois fonctionnalités clés.

1. Technologie d’amélioration des performances

ASUS a développé trois fonctionnalités pour améliorer encore les performances du processeur.

Le Optimiseur de base maximise la fréquence du processeur dans les opérations multicœurs, minimisant la gigue de fréquence dans tous les cœurs. Le résultat : une latence réduite.

Boost du moteur est une conception de tension créée par ASUS qui permet une accélération automatique de la puissance. Le résultat : les performances globales du serveur s’améliorent jusqu’à 24,5 % TFLOPS (selon l’évaluation de MP LINPACK sur un serveur ASUS ESC8000 G4). Cette fonctionnalité permet également à un processeur de rester à sa fréquence maximale même lorsqu’il dépasse sa puissance thermique de conception – la quantité maximale de chaleur que le système de refroidissement peut dissiper.

Préréglages de charge de travail sont des profils de serveur BIOS créés par ASUS. Ceux-ci incluent des paramètres préconfigurés pour différentes charges de travail et benchmarks. Les préréglages de charge de travail font correspondre les profils avec des applications spécifiques pour améliorer les performances.

2. Options de refroidissement avancées

Le refroidissement liquide est devenu la solution économe en énergie et évolutive pour répondre à la production de chaleur élevée des systèmes d’IA. L’efficacité thermique beaucoup plus élevée du refroidissement liquide améliore le rapport d’efficacité énergétique (PUE) du centre de données en réduisant la demande de climatisation conventionnelle.

ASUS a conçu trois options de refroidissement : des systèmes à air efficaces, un refroidissement liquide directement sur la puce et un refroidissement par immersion totale. En permettant une plus grande densité de calcul pour les serveurs, ces options réduisent les coûts opérationnels tout en maintenant des performances maximales du système d’IA.

3. Logiciel optimisé

Les serveurs ASUS incluent une plate-forme d’IA sans code avec une pile logicielle d’IA interne complète. Le logiciel permet à toute entreprise d’accélérer le développement de l’IA sur la pré-formation, le réglage fin et l’inférence de modèles de langage étendus (LLM) avec un risque moindre et un rattrapage plus rapide. Pour de nombreux clients, quelle que soit la taille de leur entreprise, la plateforme minimise, voire élimine, le besoin de repartir de zéro.

Pour en savoir plus, visitez https://servers.asus.com/




Source link