Intel et Argonne National Lab sur ‘exascale’ et leur nouveau superordinateur Aurora – TechCrunch

L’échelle des superordinateurs est devenue presque trop grande pour être comprise, des millions d’unités de calcul effectuant des calculs à des débits nécessitant, pour la première fois, la exa préfixe – désignant des quadrillions par seconde. Comment cela a-t-il été accompli? Avec une planification minutieuse… et beaucoup de fils, dites deux personnes proches du projet.

Après avoir appris que Intel et Argonne National Lab prévoyaient de retirer l’emballage d’un nouvel ordinateur exascale appelé Aurora (un des nombreux construits aux États-Unis) plus tôt cette année, j’ai récemment eu la chance de parler à Trish Damkroger, responsable de D'Intel Extreme Computing Organization et Rick Stevens, directeur adjoint du laboratoire Argonne pour l’informatique, l’environnement et les sciences de la vie.

Les deux ont discuté des détails techniques du système lors de la conférence Supercomputing à Denver, où, probablement, la plupart des gens qui peuvent vraiment dire qu'ils comprennent ce type de travail l'ont déjà été. Ainsi, alors que vous pouvez lire dans les journaux industriels et le communiqué de presse sur les rouages ​​du système, y compris la nouvelle architecture d’Intel et la puce de calcul polyvalente Ponte Vecchio, j’ai tenté d’obtenir un aperçu plus complet de la situation.

Cela ne devrait surprendre personne qu'il s'agisse d'un projet de longue haleine – mais vous ne pouvez pas deviner exactement combien de temps: plus d'une décennie. Une partie du défi consistait donc à mettre en place un matériel informatique dépassant de loin ce qui était possible à l’époque.

«Exascale a été lancé pour la première fois en 2007. À cette époque, nous n’avions pas encore atteint la cible de la pétascale. Nous avions donc prévu trois ou quatre magnitudes de départ», a déclaré Stevens. «À cette époque, si nous avions eu exascale, cela aurait demandé un gigawatt de puissance, ce qui n’est évidemment pas réaliste. Atteindre exascale a donc été en grande partie réduit par la consommation d’énergie. »

L’architecture Xe d’Intel axée sur les superordinateurs est basée sur un processus de 7 nanomètres, repoussant les limites de la physique newtonienne: des effets beaucoup plus petits et plus quantiques commencent à jouer. Mais plus les portes sont petites, moins elles consomment d'énergie, et les économies microscopiques s'additionnent rapidement lorsque vous en parlez des milliards et des milliards.

Mais cela ne fait que révéler un autre problème: si vous augmentez la puissance d'un processeur de 1 000 fois, vous rencontrez un goulot d'étranglement dans la mémoire. Le système peut penser vite, mais s’il ne peut pas accéder et stocker les données aussi rapidement, cela ne sert à rien.

«Grâce à l'informatique au niveau exascale, mais pas à la bande passante au niveau exabyte, vous vous retrouvez avec un système très asymétrique», a déclaré Stevens.

Et une fois ces deux obstacles éliminés, vous en rencontrez un troisième: ce que l’on appelle la concurrence. Le calcul haute performance consiste également à synchroniser une tâche entre un grand nombre d'unités de calcul et à rendre ces unités aussi puissantes que possible. La machine fonctionne dans son ensemble et, en tant que telle, chaque partie doit communiquer avec toutes les autres, ce qui devient un problème lorsque vous passez à l’échelle.

"Ces systèmes ont des milliers de nœuds, des centaines de cœurs et des milliers d’unités de calcul, ce qui donne une concurrence de plusieurs milliards", a expliqué Stevens. "Traiter avec cela est le cœur de l'architecture."

Comment ils l'ont fait, étant donné que je ne connaissais absolument pas les aléas de la conception d'une architecture informatique hautes performances, je n'aurais même pas tenté de l'expliquer. Mais ils semblent l'avoir fait, car ces systèmes exascale sont en ligne. Je me risquerai seulement à dire que la solution représente essentiellement une avancée majeure sur le plan de la mise en réseau. Le niveau de bande passante soutenue entre tous ces nœuds et unités est stupéfiant.

Rendre exascale accessible

Même en 2007, même si vous pouviez prédire que nous atteindrions éventuellement de tels processus à faible consommation d’énergie et une bande passante mémoire améliorée, d’autres tendances auraient été presque impossibles à prédire – par exemple, la demande explosive d’IA et d’apprentissage automatique. À l’époque, ce n’était même pas une considération et il serait maintenant insensé de créer un système informatique de haute performance qui ne soit pas au moins partiellement optimisé pour les problèmes d’apprentissage automatique.

«D'ici 2023, nous prévoyons que les charges de travail de l'IA représenteront un tiers du marché global des serveurs HPC», a déclaré Damkroger. «Cette convergence AI-HPC rassemble ces deux charges de travail pour résoudre les problèmes plus rapidement et fournir un meilleur aperçu.»

À cette fin, l’architecture du système Aurora est conçue pour être flexible tout en conservant la capacité d’accélérer certaines opérations courantes, par exemple le type de calculs matriciels constituant une grande partie de certaines tâches d’apprentissage automatique.

«Mais ce n’est pas seulement une question de performance, il faut aussi parler de programmabilité», a-t-elle poursuivi. «L'un des grands défis d'une machine exacale est de pouvoir écrire un logiciel pour utiliser cette machine. oneAPI sera un modèle de programmation unifié, basé sur un standard ouvert d’Open Parallel C ++, ce qui est essentiel pour promouvoir l’utilisation dans la communauté. ”

Summit, au moment de la rédaction de cet article, est le système informatique le plus puissant au monde, et diffère de la plupart des développeurs de systèmes sur lesquels on travaille. Si les créateurs d’un nouveau supercalculateur veulent un large attrait, ils doivent le rapprocher le plus possible d’un ordinateur «normal» pour fonctionner au maximum.

«C’est un défi d’apporter à Summit des packages basés sur x86», a déclaré Stevens. «Le gros avantage pour nous est que, comme nous avons des nœuds x86 et des processeurs graphiques Intel, ce logiciel exécutera tous les logiciels existants. Il utilisera des logiciels standard, des logiciels Linux et des millions d’applications. "

J’ai posé des questions sur les coûts en jeu, car c’est un mystère avec un système comme celui-ci: la répartition d’un budget d’un demi-milliard de dollars. Vraiment, j'ai juste pensé qu'il serait intéressant de savoir combien de temps cela allait, disons, à la RAM par rapport aux cœurs de traitement, ou combien de kilomètres de fil ils devaient courir. Bien que Stevens et Damkroger aient refusé de commenter, le premier a toutefois noté que «la bande passante backlink de cette machine est plusieurs fois supérieure au total de l'ensemble de l'internet, et cela coûte quelque chose». Faites-en ce que vous voulez.

Aurora, contrairement à son cousin El Capitan du laboratoire national Lawrence Livermore, ne sera pas utilisé pour le développement d'armes.

«L’Argonne est un laboratoire scientifique. C’est une science ouverte et non classée, a déclaré Stevens. «Notre machine est une ressource utilisateur nationale. Des gens l'utilisent de partout au pays. Un temps considérable est alloué via un processus qui est revu par les pairs et dont le prix est adapté aux projets les plus intéressants. C'est environ les deux tiers, l'autre tiers du département de l'Énergie, mais des problèmes non classés. »

Les travaux initiaux porteront sur les sciences du climat, la chimie et la science des données. Quinze équipes se sont inscrites à des projets majeurs sur Aurora – les détails seront bientôt connus.

Traduit de la source : https://techcrunch.com/2019/11/18/intel-and-argonne-national-lab-on-exascale-and-their-new-aurora-supercomputer/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.