Fermer

octobre 23, 2023

Pourquoi les progrès de l’IA freinent-ils plus probablement que la domination mondiale

Pourquoi les progrès de l’IA freinent-ils plus probablement que la domination mondiale


Il y a une pénurie imminente de capacité informatique mondiale à laquelle nous ne pouvons pas répondre de manière durable avec la façon dont nous faisons les choses actuellement.

En termes simples, entre intelligence artificielle (IA) avec une croissance exponentielle et une transformation numérique mondiale en cours, les centres de données manquent d’espace. Leurs taux d’inoccupation atteignent des sommets des records et les prix augmentent en réponse à la demande, ce qui suscite beaucoup de malaise parmi les leaders technologiques.

Si cette tendance se poursuit, nous atteindrons à un moment donné un stade où nous ne pourrons plus accomplir tout ce que la technologie nous permet théoriquement de faire, car notre capacité à traiter données sera contraint.

La plus grande inquiétude est peut-être que le potentiel de transformation de l’IA, que nous commençons tout juste à exploiter, soit limité par des contraintes purement physiques. Cela entravera les nouvelles découvertes et le développement de modèles d’apprentissage automatique (ML) plus avancés, ce qui est une mauvaise nouvelle pour tous, sauf pour Alarmistes de l’apocalypse de l’IA.

Le <3 de la technologie européenne

Les dernières rumeurs sur la scène technologique européenne, une histoire de notre sage vieux fondateur Boris et un art de l’IA discutable. C’est gratuit, chaque semaine, dans votre boîte de réception. S’inscrire maintenant!

Existe-t-il un moyen d’éviter la crise des capacités informatiques ? Étant donné qu’une réduction massive de nos besoins informatiques n’est pas vraiment une option, la seule alternative est d’augmenter considérablement la capacité, ce qui se résume à deux lignes d’action disponibles : construire davantage de centres de données et développer une meilleure infrastructure numérique.

Mais c’est plus facile à dire qu’à faire – voici pourquoi.

Pourquoi davantage de centres de données ne constituent pas la réponse

Jusqu’à présent, la demande croissante de capacité de calcul a été en partie satisfaite par la construction de davantage de centres de données, des estimations prudentes estimant que l’immobilier occupé par les centres de données augmenterait à ~40% par an. C’est un chiffre qui devrait rester assez stable, car les problèmes d’approvisionnement, les problèmes d’alimentation électrique et les retards de construction limitent considérablement l’expansion de la capacité de mise à l’échelle.

En d’autres termes, aujourd’hui, la demande ne peut être simplement satisfaite en accélérant la construction de centres de données.

Cela ne devrait pas non plus être une chose à laquelle nous aspirons. Chacun de ces entrepôts de la taille d’un terrain de football engloutit des quantités gargantuesques d’énergie et d’eau, mettant ainsi à rude épreuve le système. environnement, tant au niveau local que mondial. Un seul centre de données peut consommer autant électricité et eau comme 50 000 foyers et l’empreinte carbone du cloud déjà dépasse celui de l’industrie aéronautique.

À crédit là où il faut : les centres de données ont parcouru un long chemin pour minimiser leur impact environnemental. Cela est dû en grande partie à une course acharnée au développement durable, qui a propulsé l’innovation, notamment en matière de refroidissement et d’efficacité énergétique. De nos jours, vous trouverez des centres de données dans mines souterrainesdans la meret en utilisant d’autres opportunités de refroidissement naturel telles que l’eau du fjord coulele tout pour réduire la consommation d’énergie et d’eau.

Le problème est que cela n’est pas évolutif à l’échelle mondiale et que faire bouillir nos mers n’est pas non plus une voie viable. La construction de nouveaux centres de données, quelle que soit leur efficacité, continuera de faire des ravages sur les écosystèmes locaux et d’entraver les efforts nationaux et internationaux de développement durable. Tout en ne parvenant toujours pas à répondre à la demande de ressources de calcul.

Pourtant, deux jetons valent mieux qu’un, à moins que…

Pensez à l’intérieur de la boîte

… à moins que cette puce unique ne fonctionne à deux fois plus vite. Pour éviter la pénurie de capacité, tous les espoirs reposent sur l’amélioration de l’infrastructure numérique, à savoir les puces, les commutateurs, les câbles et autres composants susceptibles d’améliorer les vitesses de données et la bande passante tout en consommant moins d’énergie.

Permettez-moi de le répéter : l’évolution de l’IA dépend de la recherche de moyens de transférer plus de données, sans utiliser plus d’énergie.

Essentiellement, cela signifie deux choses. Premièrement, le développement de puces plus puissantes et centrées sur l’IA. Deuxièmement, l’amélioration des vitesses de transfert de données.

1. Concevoir des puces personnalisées pour l’IA

L’infrastructure numérique existante n’est pas particulièrement adaptée au développement efficace de modèles ML. Les unités centrales de traitement (CPU) à usage général, qui restent les principaux composants informatiques des centres de données, ont du mal à exécuter les tâches spécifiques à l’IA en raison de leur manque de spécialisation et d’efficacité informatique.

En matière d’IA, les unités de traitement graphique (GPU) s’en sortent bien mieux grâce à une meilleure puissance de traitement, une efficacité énergétique plus élevée et un parallélisme. C’est pourquoi tout le monde s’en empare, ce qui a conduit à un pénurie de puces.

Pourtant, les GPU se heurtent inévitablement au même mur de briques. Ils ne sont pas intrinsèquement optimisés pour les tâches d’IA, ce qui entraîne un gaspillage d’énergie et des performances sous-optimales dans la gestion des demandes de plus en plus complexes et gourmandes en données des applications d’IA modernes.

C’est pourquoi des entreprises telles que IBM conçoivent des puces adaptées aux exigences informatiques de l’IA qui promettent d’optimiser les performances tout en minimisant la consommation d’énergie et l’espace.

2. Améliorer la capacité de transfert de données

Aucun modèle d’IA moderne ne fonctionne sur une seule puce. Au lieu de cela, pour tirer le meilleur parti des ressources disponibles, vous assemblez plusieurs puces en clusters. Ces clusters font souvent partie de réseaux plus vastes, chacun étant conçu pour des tâches spécifiques.

En conséquence, l’interconnexion, ou le système facilitant la communication entre les puces, les clusters et les réseaux, devient un composant essentiel. À moins qu’il ne puisse suivre la vitesse du reste du système, il risque de constituer un goulot d’étranglement qui entrave les performances.

Les défis des dispositifs de transfert de données reflètent ceux des puces : ils doivent fonctionner à des vitesses élevées, consommer un minimum d’énergie et occuper le moins d’espace physique possible. Alors que les interconnexions électriques traditionnelles atteignent rapidement leurs limites en termes de bande passante et d’efficacité énergétique, tous les regards sont tournés vers l’informatique optique – et la photonique sur silicium, en particulier.

Contrairement aux systèmes électriques, les systèmes optiques utilisent la lumière pour transmettre des informations, offrant ainsi des avantages clés dans les domaines importants : les signaux photoniques peuvent se déplacer à la vitesse de la lumière et transporter une densité de données plus élevée. De plus, les systèmes optiques consomment moins d’énergie et les composants photoniques peuvent être beaucoup plus petits que leurs homologues électriques, ce qui permet des conceptions de puces plus compactes.

Les mots clés ici sont « peut être ».

Les difficultés croissantes de la technologie de pointe

L’informatique optique, bien qu’extrêmement rapide et économe en énergie, est actuellement confrontée à des défis de miniaturisation, de compatibilité et de coût.

Les commutateurs optiques et autres composants peuvent être plus volumineux et plus complexes que leurs homologues électroniques, ce qui rend difficile l’obtention du même niveau de miniaturisation. À l’heure actuelle, nous n’avons pas encore trouvé de matériaux pouvant servir à la fois de support optique efficace et évolutifs pour les applications informatiques haute densité.

L’adoption serait également une bataille difficile. Les centres de données sont généralement optimisés pour le traitement électronique, et non photonique, et l’intégration de composants optiques aux architectures électroniques existantes constitue un défi majeur.

De plus, comme toute technologie de pointe, l’informatique optique n’a pas encore fait ses preuves sur le terrain. Il existe un manque critique de recherche sur la fiabilité à long terme des composants optiques, en particulier dans les conditions de charge et de contraintes élevées typiques des environnements des centres de données.

Et pour couronner le tout, les matériaux spécialisés requis dans les composants optiques sont coûteux, ce qui rend leur adoption à grande échelle potentiellement prohibitive, en particulier pour les centres de données de petite taille ou ceux soumis à des contraintes budgétaires serrées.

Alors, allons-nous assez vite pour éviter la crise ?

Probablement pas. Il ne faut certainement pas arrêter de construire des centres de données à court terme.

Si cela peut vous consoler, sachez que les scientifiques et les ingénieurs sont très conscients du problème et travaillent dur pour trouver des solutions qui ne détruiront pas la planète en repoussant constamment les limites et en réalisant des progrès significatifs dans l’optimisation des centres de données, la conception des puces et toutes les facettes de informatique optique.

Mon équipe à elle seule a battu trois records mondiaux de débit de symboles pour les interconnexions de centres de données en utilisant une approche de modulation d’intensité et de détection directe.

Mais il existe de sérieux défis, et il est essentiel de les relever de front pour que les technologies modernes puissent réaliser tout leur potentiel.

Le professeur Oskars Ozoliņš a obtenu son Dr.sc.ing. Diplôme en communications optiques de l’Université technique de Riga (Lettonie) en 2013 et a obtenu un diplôme d’habilitation en physique avec spécialisation en communication optique du KTH Royal Institute of Technology en 2021. Il est l’auteur d’environ 270 publications dans des revues internationales, contributions à des conférences, invités conférences/tutoriels/keynotes/conférences, brevets et chapitres de livres. Vous pouvez le suivre sur LinkedIn ici.




Source link

octobre 23, 2023