En quelle année a été créé le premier supercalculateur ? Super ordinateur Concept d'un super ordinateur Objectifs d'un super ordinateur Caractéristiques de performance d'un super ordinateur Logiciel d'un super ordinateur Architecture des super ordinateurs modernes. À quoi ressemble l’écran d’un téléphone Honor ?

La plupart des gens associent le mot « ordinateur » principalement aux ordinateurs personnels, que l'on peut voir aujourd'hui non seulement dans n'importe quel bureau, mais aussi dans de nombreux appartements. Cependant, il ne faut pas oublier qu'un PC n'est qu'une partie du monde informatique, où il existe des systèmes informatiques beaucoup plus puissants et complexes, inaccessibles à l'utilisateur moyen.


Beaucoup de gens ont probablement entendu parler d'un ordinateur nommé Deep Blue, qui a battu Garry Kasparov lui-même en 1997. Il est intuitivement clair qu’une telle machine ne saurait être un simple ordinateur personnel. Un autre exemple est l'ordinateur domestique MVS-1000, d'une capacité de 200 milliards d'opérations par seconde, récemment installé au Centre interdépartemental des supercalculateurs de Moscou. En outre, la presse fait état de temps à autre de livraisons illégales de matériel informatique à la Russie, soumis à un embargo de la part du gouvernement américain.

Pour beaucoup, ces ordinateurs restent un secret scellé, entouré d'un halo d'associations avec quelque chose de très grand : des tailles énormes, des tâches extrêmement complexes, de grandes entreprises et entreprises, des vitesses incroyables, etc. En un mot, un super-ordinateur, quelque chose de lointain et d'inaccessible. Pendant ce temps, si vous avez déjà utilisé les services de moteurs de recherche sérieux sur Internet, vous avez, sans le savoir, affaire à l'une des applications des technologies des supercalculateurs.

Qu'est-ce qu'un supercalculateur ?
On pense que les superordinateurs sont des ordinateurs dotés de performances maximales. Cependant, le développement rapide de l’industrie informatique rend ce concept très, très relatif : ce qu’on pourrait appeler il y a dix ans un supercalculateur ne rentre plus aujourd’hui dans cette définition. Les performances des premiers supercalculateurs du début des années 70 étaient comparables à celles des PC modernes basés sur des processeurs Pentium traditionnels. Selon les normes actuelles, ni l’un ni l’autre n’appartiennent bien entendu aux supercalculateurs.

Dans n'importe quel ordinateur, tous les paramètres principaux sont interconnectés. Il est difficile d'imaginer un ordinateur universel doté de hautes performances et d'une RAM limitée, ou d'une RAM énorme et d'un petit espace disque. D'où la conclusion simple : un super-ordinateur est un ordinateur qui possède non seulement des performances maximales, mais également la quantité maximale de RAM et de mémoire disque en combinaison avec un logiciel spécialisé avec lequel ce monstre peut être utilisé efficacement.

Ils ont essayé à plusieurs reprises de donner des définitions universelles aux supercalculateurs - parfois cela s'est avéré sérieux, parfois ironique. Par exemple, il a été proposé un jour qu’une machine pesant plus d’une tonne soit considérée comme un supercalculateur. Il y a quelques années, l'option suivante a été proposée : un supercalculateur est un dispositif qui réduit le problème informatique à un problème d'entrée/sortie. En fait, les tâches qui prenaient auparavant beaucoup de temps à calculer sont exécutées instantanément sur un superordinateur, et presque tout le temps est désormais consacré à des procédures plus lentes d'entrée et de sortie de données, qui sont généralement exécutées à la même vitesse.

Alors, qu’est-ce qu’un supercalculateur moderne ? L'ordinateur le plus puissant aujourd'hui est le système Intel ASCI RED, conçu pour le ministère américain de l'Énergie. Pour imaginer les capacités de ce supercalculateur, il suffit de dire qu'il combine 9632 (!) processeurs Pentium Pro, dispose de plus de 600 Go de RAM et d'une performance totale de 3200 milliards d'opérations par seconde. Il faudrait 100 000 ans à une personne, même avec une calculatrice, pour effectuer toutes les opérations que cet ordinateur effectue en seulement 1 seconde !

Créer un tel système informatique, c'est comme construire une usine entière avec ses propres systèmes de refroidissement, une alimentation électrique sans interruption, etc. Il est clair que n'importe quel supercalculateur, même dans une configuration plus modérée, devrait coûter plus d'un million de dollars américains : juste pour le plaisir, estimez combien coûte, disons, seulement 600 Go de RAM ? La question naturelle est la suivante : quelles tâches sont si importantes qu’elles nécessitent des ordinateurs valant plusieurs millions de dollars ? Ou encore : quelles tâches sont si complexes qu'un bon Pentium III ne suffit pas à les résoudre ?

Avons-nous besoin de supercalculateurs ?
Il s'avère qu'il existe un certain nombre de problèmes vitaux qui ne peuvent tout simplement pas être résolus sans l'utilisation de technologies de superordinateurs.

Prenons par exemple les États-Unis, qui sont frappés deux fois par an par des tornades destructrices. Ils balayent les villes sur leur passage, soulèvent les voitures et les bus dans les airs et font déborder les rivières, inondant ainsi de gigantesques territoires. La lutte contre les tornades représente une part importante du budget américain. À lui seul, l’État de Floride, proche du lieu d’origine de ces tornades, a dépensé plus de 50 milliards de dollars en efforts d’urgence ces dernières années. Le gouvernement n'épargne aucune dépense pour introduire une technologie qui permettrait de prédire l'apparition d'une tornade et de déterminer sa destination.

Comment calculer une tornade ? Évidemment, pour cela, il est nécessaire de résoudre le problème des changements climatiques locaux, c'est-à-dire le problème du mouvement des masses d'air et de la répartition de la chaleur dans une certaine région. En principe, cela n’est pas difficile, mais en pratique deux problèmes se posent. Premier problème : pour constater l'apparition d'une tornade, il est nécessaire d'effectuer des calculs aux dimensions caractéristiques de sa formation, c'est-à-dire à des distances d'environ deux kilomètres. La deuxième difficulté est liée au bon réglage des conditions initiales et aux limites. Le fait est que la température aux frontières de la région qui vous intéresse dépend de ce qui se passe dans les régions voisines. En raisonnant plus loin, il est facile de voir que nous ne pouvons pas résoudre le problème des tornades sans disposer de données sur le climat de la Terre entière. Le climat de la planète peut être calculé, ce qui est fait quotidiennement dans tous les pays pour établir des prévisions météorologiques à moyen terme. Cependant, les ressources disponibles ne permettent des calculs qu'avec de très grands pas - des dizaines et des centaines de kilomètres. Il est clair qu’une telle prévision n’a rien à voir avec la prévision des tornades.

Il faut combiner deux tâches apparemment peu compatibles : le calcul global, où le pas est très grand, et local, où le pas est très petit. Cela est possible, mais seulement en rassemblant des ressources informatiques vraiment fantastiques. Une difficulté supplémentaire est que les calculs ne doivent pas durer plus de 4 heures, car au bout de 5 heures l'image météo est complètement floue, et tout ce que vous calculez n'a plus rien à voir avec la réalité. Il faut non seulement traiter une énorme quantité de données, mais aussi le faire assez rapidement. Seuls les supercalculateurs peuvent le faire.

La prévision météorologique est loin d’être le seul exemple d’utilisation de superordinateurs. Aujourd’hui, l’exploration sismique, l’industrie pétrolière et gazière, l’industrie automobile, la conception d’appareils électroniques, la pharmacologie, la synthèse de nouveaux matériaux et bien d’autres industries ne peuvent se faire sans eux.

Ainsi, selon Ford, pour réaliser des crash tests, dans lesquels de vraies voitures sont écrasées contre un mur de béton tout en mesurant simultanément les paramètres nécessaires, en filmant puis en traitant les résultats, il lui faudrait entre 10 et 150 prototypes pour chaque nouveau modèle. Dans ce cas, le coût total varierait entre 4 et 60 millions de dollars. L'utilisation de supercalculateurs a réduit d'un tiers le nombre de prototypes.

Les superordinateurs ont aidé la célèbre société DuPont à synthétiser un matériau qui remplace le chlorofluorocarbone. Il fallait trouver un matériau présentant les mêmes qualités positives : ininflammabilité, résistance à la corrosion et faible toxicité, mais sans effets nocifs sur la couche d'ozone terrestre. En une semaine, les calculs nécessaires ont été effectués sur un supercalculateur pour un coût total d'environ 5 000 dollars. Selon les experts de DuPont, l'utilisation de méthodes de recherche expérimentales traditionnelles nécessiterait 50 000 dollars et environ trois mois de travail - et cela ne prend pas en compte le temps nécessaire pour synthétiser et purifier la quantité requise de substance.

Pourquoi les supercalculateurs calculent-ils si vite ?
Nous constatons donc qu’aujourd’hui, nous ne pouvons vraiment pas nous passer des supercalculateurs. Reste une question à clarifier : pourquoi comptent-ils si vite ? Cela peut être dû, d'une part, au développement de la base d'éléments et, d'autre part, à l'utilisation de nouvelles solutions en architecture informatique.

Essayons de déterminer lequel de ces facteurs est décisif pour atteindre des performances record. Tournons-nous vers les faits historiques connus. Sur l'un des premiers ordinateurs au monde, l'EDSAC, apparu en 1949 à Cambridge et doté d'une horloge de 2 microsecondes (2·10-6 secondes), il était possible d'effectuer 2n opérations arithmétiques en 18n millisecondes, soit en moyenne 100 opérations arithmétiques par seconde. Comparons avec un nœud informatique d'un supercalculateur Hewlett-Packard V2600 moderne : le temps d'horloge est d'environ 1,8 nanosecondes (1,8 10-9 secondes) et les performances maximales sont d'environ 77 milliards d'opérations arithmétiques par seconde.

Ce qui se produit? En un demi-siècle, les performances des ordinateurs ont été multipliées par plus de sept cents millions. Dans le même temps, le gain de performances associé à la réduction du temps de cycle d'horloge de 2 microsecondes à 1,8 nanosecondes n'est que d'environ 1 000 fois. D'où vient le reste ? La réponse est évidente : grâce à l’utilisation de nouvelles solutions en matière d’architecture informatique. La place principale parmi eux est occupée par le principe du traitement parallèle des données, qui incarne l'idée d'exécution simultanée (parallèle) de plusieurs actions.

Il existe deux méthodes de traitement parallèle : le parallèle réel et le pipeline. Les deux méthodes sont totalement intuitives, nous ne ferons donc que de petites explications.

Traitement parallèle
Supposons pour simplifier qu'un certain appareil effectue une opération par cycle d'horloge. Dans ce cas, un tel appareil effectuera mille opérations en mille cycles d'horloge. S'il existe cinq appareils indépendants identiques capables de fonctionner simultanément, alors un système de cinq appareils peut effectuer les mêmes mille opérations non pas en mille, mais en deux cents cycles d'horloge. De même, un système de N appareils effectuera le même travail en 1 000/N cycles. Des exemples similaires peuvent être trouvés dans la vie : si un soldat creuse une tranchée en 10 heures, alors une compagnie de cinquante soldats ayant les mêmes capacités, travaillant simultanément, fera le même travail en 12 minutes - le principe du parallélisme en action !

À propos, le pionnier du traitement parallèle des flux de données était l'académicien A. A. Samarsky, qui a effectué les calculs nécessaires pour simuler des explosions nucléaires au début des années 50. Samarsky a résolu ce problème en utilisant la méthode de la grille, en faisant asseoir plusieurs dizaines de jeunes femmes avec des machines à calculer autour de tables (nœuds de grille). Les jeunes filles se transmettaient des données simplement par des mots et inscrivaient les nombres nécessaires sur des machines à calculer. Ainsi, en particulier, l'évolution de l'onde de souffle a été calculée. Il y avait beaucoup de travail, les jeunes filles étaient fatiguées et Alexandre Andreïevitch marchait parmi elles et les encourageait. Ainsi, pourrait-on dire, le premier système parallèle a été créé. Bien que les calculs pour la bombe à hydrogène aient été effectués avec compétence, leur précision s'est avérée très faible, car il y avait peu de nœuds dans la grille utilisée et le temps de calcul était trop long.

Traitement du convoyeur
Que faut-il pour additionner deux nombres réels représentés sous forme de virgule flottante ? Tout un tas de petites opérations, comme comparer les commandes, aligner les commandes, ajouter des mantisses, normaliser, etc. Les processeurs des premiers ordinateurs effectuaient toutes ces « micro-opérations » pour chaque paire de termes de manière séquentielle, l'une après l'autre, jusqu'à ce qu'ils atteignent le résultat final, puis passaient ensuite au traitement de la paire de termes suivante.

L'idée du traitement par pipeline est de diviser une opération en étapes distinctes ou, comme on l'appelle communément, en étapes de convoyage. Chaque étape, après avoir terminé son travail, transmet le résultat à l'étape suivante, tout en recevant simultanément une nouvelle partie des données d'entrée. Il y a un gain évident en termes de vitesse de traitement. En fait, supposons que dans l'opération d'addition il y ait cinq micro-opérations, chacune étant effectuée dans un cycle d'horloge de l'ordinateur. S'il existe un dispositif d'addition séquentielle indivisible, il traitera alors 100 paires d'arguments en 500 cycles d'horloge. Si maintenant chaque microopération est convertie en une étape distincte du dispositif de convoyage, alors au cinquième cycle d'horloge, les cinq premières paires d'arguments seront à différentes étapes de traitement, puis le dispositif de convoyeur produira le résultat de l'addition suivante à chaque horloge. faire du vélo. De toute évidence, l'ensemble des cent paires de termes sera traité en 104 unités de temps - une accélération de près de cinq fois par rapport à un périphérique série (en termes de nombre d'étages de pipeline).

L'idée du traitement parallèle est apparue il y a longtemps. Initialement, ils ont été implémentés dans les ordinateurs les plus avancés, et donc uniques, de leur époque. Puis, après un développement approprié de la technologie et une production moins coûteuse, ils sont passés aux ordinateurs de la classe moyenne, et finalement, aujourd'hui, tout cela est pleinement incarné dans les postes de travail et les ordinateurs personnels. Tous les microprocesseurs modernes, qu'il s'agisse de Pentium III ou PA-8600, E2K ou Power2 SuperChip, utilisent l'un ou l'autre type de traitement parallèle.

Pour être à nouveau convaincu que tout ce qui est nouveau est bien oublié, quelques exemples suffisent. Déjà en 1961, l'ordinateur IBM STRETCH a été créé, qui présente deux caractéristiques fondamentalement importantes : l'anticipation pour la récupération des commandes (dans lesquelles les commandes exécutées plus tard sont lues simultanément avec la commande actuelle) et la stratification de la mémoire en deux banques - la mise en œuvre du parallélisme lors du travail. avec mémoire. En 1963, l'ordinateur ATLAS a été développé à l'Université de Manchester, en utilisant le principe du pipeline pour l'exécution de commandes. L'exécution des instructions est divisée en quatre étapes : la récupération de l'instruction, le calcul de l'adresse de l'opérande, la récupération de l'opérande et l'exécution de l'opération. Cela a permis de réduire le temps d'exécution des commandes d'une moyenne de 6 à 1,6 microsecondes. En 1969, Control Data Corporation a lancé l'ordinateur CDC-7600 avec huit unités fonctionnelles de pipeline indépendantes.

Supercalculateurs modernes
Qu’est-ce qui est utilisé dans le monde actuellement ? Dans quelles directions va le développement de la technologie du calcul haute performance ? Il existe quatre de ces directions.

Ordinateurs de convoyeur vectoriel

Deux caractéristiques principales de telles machines : la présence de dispositifs fonctionnels de convoyeur et un ensemble de commandes vectorielles. Contrairement aux commandes conventionnelles, les commandes vectorielles fonctionnent sur des tableaux entiers de données indépendantes, c'est-à-dire qu'une commande comme A=B+C peut signifier l'ajout de deux tableaux, et non de deux nombres. Un représentant typique de cette direction est la famille d'ordinateurs à pipeline vectoriel CRAY, qui comprend, par exemple, CRAY EL, CRAY J90, CRAY T90 (en mars de cette année, la société américaine TERA a racheté la division CRAY à Silicon Graphics, Inc. .).

Ordinateurs massivement parallèles avec mémoire distribuée
L'idée de construire des ordinateurs de cette classe est triviale : les microprocesseurs série sont connectés à l'aide d'équipements réseau - c'est tout. Cette architecture présente de nombreux avantages : si des performances élevées sont nécessaires, des processeurs peuvent être ajoutés, et si les finances sont limitées ou si la puissance de calcul requise est connue à l'avance, il est alors facile de sélectionner la configuration optimale. Cette classe comprend également de simples réseaux d’ordinateurs, qui sont aujourd’hui de plus en plus considérés comme une alternative bon marché aux supercalculateurs extrêmement coûteux. (Certes, écrire un programme parallèle efficace pour de tels réseaux est assez difficile, et dans certains cas tout simplement impossible). Les ordinateurs massivement parallèles incluent Intel Paragon, ASCI RED, IBM SP1, Parsytec et, dans une certaine mesure, IBM SP2 et CRAY T3D/T3E.

Ordinateurs parallèles avec mémoire partagée

Toute la RAM de ces ordinateurs est partagée par plusieurs processeurs identiques accédant à la mémoire disque partagée. Il n'y a pratiquement aucun problème d'échange de données entre les processeurs et de synchronisation de leur travail. Cependant, le principal inconvénient de cette architecture est que, pour des raisons purement techniques, le nombre de processeurs ayant accès à la mémoire partagée ne peut pas être élevé. Cette gamme de supercalculateurs comprend de nombreux ordinateurs SMP (Symmetric Multi Processing) modernes, par exemple le serveur HP9000 N-class ou le Sun Ultra Enterprise 5000.

Ordinateurs en cluster
Cette classe de supercalculateurs, à proprement parler, ne peut pas être qualifiée d’indépendante ; il s’agit plutôt d’une combinaison des trois précédentes. Un nœud de calcul est formé de plusieurs processeurs, traditionnels ou vectoriels, et de leur mémoire commune. Si la puissance d'un nœud ne suffit pas, un cluster est créé de plusieurs nœuds reliés par des canaux à haut débit. CRAY SV1, HP Exemplar, Sun StarFire, NEC SX-5, les derniers modèles IBM SP2 et d'autres sont construits sur ce principe. Actuellement, cette direction est considérée comme la plus prometteuse.

Deux fois par an, une liste des cinq cents installations informatiques les plus puissantes au monde est établie (elle peut être consultée sur Internet à l'adresse http://parallel.ru/top500.html). Selon la dernière édition du top500, publiée en novembre de l'année dernière, la première place est occupée par l'ordinateur massivement parallèle Intel ASCI Red. En deuxième position se trouve l'ordinateur ASCI Blue-Pacific d'IBM, qui combine 5808 processeurs PowerPC 604e/332 MHz. Ces deux supercalculateurs ont été créés dans le cadre du programme national américain Advanced Strategic Computing Initiative, dont l'abréviation est présente dans le nom. Les performances de l’ordinateur classé dernier, 500e, sur la liste des plus puissants sont de 33,4 milliards d’opérations par seconde.

Si la puissance des ordinateurs existants est incroyable, que dire des projets. En décembre 1999, IBM a annoncé un nouveau projet de recherche d'une valeur d'environ 100 millions de dollars visant à construire un supercalculateur offrant des performances 500 fois supérieures à celles des ordinateurs les plus puissants d'aujourd'hui. L'ordinateur, nommé Blue Gene, aura une performance d'environ 1 PETAFLOPS (1015 opérations par seconde) et sera utilisé pour étudier les propriétés des molécules protéiques. On suppose que chaque processeur Blue Gene aura une performance d'environ 1 GFLOPS (109 opérations par seconde). 32 processeurs de ce type seront placés sur une seule puce. La carte compacte de 2 x 2 pieds contiendra 64 puces, ce qui est aussi puissant que les supercalculateurs ASCI mentionnés précédemment, qui occupent une superficie de 8 000 mètres carrés. De plus, 8 de ces cartes seront placées dans un rack de 6 pieds, et l'ensemble du système sera composé de 64 racks avec une performance totale de 1 PFLOPS. Fantastique!

Cluster informatique de l'Université d'État de Moscou. M.V. Lomonosov - coût minimum, performances du supercalculateur. Il s’agit actuellement du système informatique le plus puissant installé dans une université russe.

Supercalculateurs en Russie

L'idée de construire nos propres systèmes de supercalculateurs a toujours existé en Russie. En 1966, M.A. Kartsev a avancé l'idée de créer un complexe informatique multi-machines M-9 avec une productivité d'environ un milliard d'opérations par seconde. À cette époque, aucune machine au monde ne fonctionnait à une telle vitesse. Cependant, malgré l'évaluation positive du ministère, le complexe M-9 n'a pas bénéficié d'un développement industriel.

Les travaux sur la création de systèmes et de centres de supercalculateurs sont aujourd'hui en cours en Russie. La plus connue est la gamme de supercalculateurs nationaux MVS-1000, créée en coopération avec des instituts de recherche de l'Académie russe des sciences et de l'industrie. Le supercalculateur de la gamme MVS-1000 est un ensemble multiprocesseur combiné à une mémoire disque externe, des dispositifs d'entrée/sortie d'informations et un ordinateur de contrôle. Les ordinateurs MVS-1000 utilisent des microprocesseurs Alpha 21164 (développés par DEC-Compaq) avec des performances allant jusqu'à 1 à 2 milliards d'opérations par seconde et 0,1 à 2 Go de RAM.

L'éventail des problèmes scientifiques et pratiques résolus sur un tel ordinateur peut être très large : calcul d'écoulements instationnaires tridimensionnels de gaz visqueux-compressibles, calculs d'écoulements avec des inhomogénéités thermiques locales dans l'écoulement, modélisation de la formation de structures et de la dynamique des molécules et systèmes biomoléculaires, résolution de problèmes de jeux différentiels linéaires, calcul des déformations de corps solides prenant en compte les processus de destruction et bien d'autres. L'un des systèmes les plus puissants de la gamme MVS-1000, installé au Centre interdépartemental de supercalculateurs, contient 96 processeurs.

Récemment, en Russie et dans le monde entier, une approche groupée pour la construction de supercalculateurs a été activement utilisée. Les ordinateurs et postes de travail standard sont achetés et combinés dans un système informatique parallèle à l'aide d'outils réseau standard. Cette voie a été suivie, et je dois le dire, avec succès par le Centre de recherche informatique de l'Université d'État de Moscou. M.V. Lomonosov, qui a créé un cluster de 12 serveurs Excimer biprocesseurs basés sur Intel Pentium III/500 MHz (24 processeurs au total, plus de 3 Go de RAM, 66 Go de mémoire disque). Il s’agit aujourd’hui de la plus grande installation informatique d’une université russe, conçue pour soutenir la recherche scientifique fondamentale et l’enseignement. À un coût minimum, le cluster informatique du Centre informatique de recherche de l'Université d'État de Moscou affiche une performance de 5,7 milliards d'opérations par seconde lors de la résolution d'un système d'équations algébriques linéaires avec une matrice dense de 16 000 x 16 000 ! À l'avenir, il est prévu d'augmenter considérablement la capacité du cluster en ajoutant de nouveaux processeurs et en mettant à niveau les nœuds de calcul.

Au lieu d'une conclusion
Malheureusement, les miracles se produisent rarement dans nos vies. Les énormes performances des ordinateurs et supercalculateurs parallèles sont plus que compensées par la complexité de leur utilisation. À quoi ça sert, parfois même les questions qui se posent autour des supercalculateurs laissent perplexes. Pensez-vous que l'affirmation est vraie : plus l'ordinateur est puissant, plus il peut résoudre un problème donné rapidement ? Eh bien, bien sûr que non... Un exemple simple du quotidien. Si un creuseur creuse un trou en 1 heure, alors deux creuseurs accompliront la tâche en 30 minutes - vous pouvez toujours le croire. Combien de temps faudra-t-il à 60 creuseurs pour faire ce travail ? Vraiment en 1 minute ? Bien sûr que non! À partir d’un certain point, ils interféreront simplement les uns avec les autres, n’accélérant pas mais ralentissant le processus. C’est la même chose avec les ordinateurs : si la tâche est trop petite, alors nous passerons plus de temps à répartir le travail, à synchroniser les processus, à rassembler les résultats, etc., qu’à faire des activités directement utiles.

Mais tous les problèmes qui accompagnent un supercalculateur sont bien sûr résolus. Oui, utiliser des superordinateurs est plus difficile que d'utiliser un ordinateur personnel : des connaissances et des technologies supplémentaires, des spécialistes hautement qualifiés et une infrastructure d'information plus complexe sont nécessaires. Écrire un programme parallèle efficace est beaucoup plus difficile que d'en écrire un séquentiel, et en effet, la création de logiciels pour ordinateurs parallèles est le problème central du calcul intensif. Mais aujourd’hui, nous ne pouvons plus nous passer des supercalculateurs, et il est gratifiant de constater que notre pays comprend la nécessité de développer ces technologies. Ainsi, en novembre de l'année dernière, l'ouverture d'un centre interministériel de supercalculateurs a eu lieu au Présidium de l'Académie des sciences de Russie. Des centres de supercalculateurs sont en cours de création à Doubna, à Tchernogolovka et à l'Institut de mathématiques appliquées de l'Académie des sciences de Russie. M. V. Keldysh, Institut de modélisation mathématique de l'Académie des sciences de Russie, Université d'État de Moscou. M. V. Lomonossov. Une gamme de supercalculateurs nationaux MVS-1000 a été créée et est en cours de développement. Le Centre d'information et d'analyse pour le calcul parallèle sur Internet WWW.PARALLEL.RU développe activement ses activités, fournissant un soutien informationnel à de nombreux projets russes. Sinon c'est impossible. L’informatique parallèle et les ordinateurs parallèles sont une réalité, et ce pour toujours.
Docteur en sciences physiques et mathématiques V. Voevodin


Le premier supercalculateur Atlas est apparu au début des années 60 et a été installé à l’Université de Manchester. Il était plusieurs fois moins puissant que les ordinateurs domestiques modernes. Notre revue contient les « dix » supercalculateurs les plus puissants de l’histoire. Certes, en raison de l'évolution rapide des technologies dans ce domaine, ces machines puissantes deviennent obsolètes au bout de 5 ans en moyenne.

Les performances des supercalculateurs modernes sont mesurées en pétaflops, une unité de mesure qui indique le nombre d'opérations en virgule flottante qu'un ordinateur peut effectuer par seconde. Aujourd'hui, nous allons parler des dix supercalculateurs modernes les plus chers.

1. IBM Roadrunner (États-Unis)


130 millions de dollars
Roadrunner a été construit par IBM en 2008 pour le laboratoire national de Los Alamos (Nouveau-Mexique, USA). Il est devenu le premier ordinateur au monde dont les performances de fonctionnement moyennes dépassaient 1 pétaflops. Dans le même temps, il a été conçu pour une performance maximale de 1,7 pétaflops. Selon la liste Supermicro Green500, Roadrunner était le quatrième supercalculateur le plus économe en énergie au monde en 2008. Roadrunner a pris sa retraite le 31 mars 2013, après quoi il a été remplacé par un supercalculateur plus petit et plus économe en énergie appelé Cielo.

2. Vulcan BlueGene/Q (États-Unis)


100 millions de dollars
Vulcan est un supercalculateur composé de 24 unités de rack individuelles construites par IBM pour le ministère de l'Énergie et installées au Lawrence Livermore National Laboratory en Californie. Il a une performance maximale de 5 pétaflops et est actuellement le neuvième supercalculateur le plus rapide au monde. Vulcan est entré en service en 2013 et est désormais utilisé par le Livermore National Laboratory pour des recherches en biologie, physique des plasmas, changement climatique, systèmes moléculaires, etc.

3. SuperMUC (Allemagne)

111 millions de dollars
SuperMUC est actuellement le 14e supercalculateur le plus rapide au monde. En 2013, il était 10ème, mais le développement technologique ne s'arrête pas. Cependant, il s’agit actuellement du deuxième supercalculateur le plus rapide d’Allemagne. SuperMUC est géré par le Centre de calcul Leibniz de l'Académie bavaroise des sciences, près de Munich.

Le système a été créé par IBM, fonctionne sous Linux, contient plus de 19 000 processeurs Intel et Westmere-EX et a des performances maximales d'un peu plus de 3 pétaflops. SuperMUC est utilisé par des chercheurs européens dans les domaines de la médecine, de l'astrophysique, de la chromodynamique quantique, de la dynamique des fluides computationnelle, de la chimie computationnelle, de l'analyse du génome et de la modélisation des tremblements de terre.

4. Trinité (États-Unis)

174 millions de dollars
On pourrait s’attendre à ce qu’un supercalculateur comme celui-ci (compte tenu de la raison pour laquelle il est construit) soit incroyablement cher, mais les progrès technologiques ont permis de réduire le prix de Trinity. Le gouvernement américain a l'intention d'utiliser Trinity pour maintenir l'efficacité et la sécurité de l'arsenal nucléaire américain.

Trinity, actuellement en construction, sera un projet conjoint entre le Laboratoire national Sandia et le Laboratoire national de Los Alamos dans le cadre du programme de modélisation prédictive et de science des données informatiques de la National Nuclear Security Administration.

5. Sequoia BlueGene/Q (États-Unis)


250 millions de dollars
Le supercalculateur de classe Sequoia BlueGene/Q a été développé par IBM pour la National Nuclear Security Administration dans le cadre de son programme de modélisation prédictive et de traitement des données informatiques. Il est entré en service en juin 2012 au laboratoire national de Livermore et est devenu à l'époque le supercalculateur le plus rapide au monde. Il se classe désormais au troisième rang mondial en termes de vitesse (les performances théoriques maximales de Sequoia sont de 20 pétaflops ou 20 000 milliards de calculs par seconde).

L'ordinateur fonctionne de manière stable à 10 pétaflops. Utilisé par Sequoia pour soutenir diverses applications scientifiques, étudiant l'astronomie, l'énergie, le génome humain, le changement climatique et le développement d'armes nucléaires.

6. ASC Purple et BlueGene/L (États-Unis)


290 millions de dollars
Ces deux supercalculateurs travaillaient ensemble. Ils ont été construits par IBM et installés en 2005 au Livermore National Laboratory. Ils ont été mis hors service en 2010. Au moment de sa création, ASC Purple était classé 66e en termes de vitesse sur la liste des 500 meilleurs supercalculateurs, et BlueGene/L était la génération précédente du modèle BlueGene/Q.

ASCI Purple a été conçu pour la cinquième phase du programme de modélisation prédictive et de traitement des données informatiques du département américain de l'Énergie et de la National Nuclear Security Administration. Son objectif était de simuler et de remplacer de véritables tests d'armes de destruction massive. BlueGene/L a été utilisé pour prédire le changement climatique mondial.

7. Sierra et Summit (États-Unis)


325 millions de dollars
Nvidia et IBM aideront bientôt l’Amérique à retrouver sa position de leader dans les domaines de la technologie des supercalculateurs ultra-rapides, de la recherche scientifique et de la sécurité économique et nationale. Les deux ordinateurs seront terminés en 2017.

Actuellement, le supercalculateur le plus rapide au monde est le chinois Tianhe-2, capable d'atteindre 55 pétaflops, soit deux fois plus rapide que l'appareil classé deuxième sur la liste. Sierra produira plus de 100 pétaflops, tandis que Summit pourra atteindre 300 pétaflops.

Sierra, qui sera installé au Livermore National Laboratory, garantira la sécurité et l'efficacité du programme nucléaire du pays. Summit remplacera le supercalculateur Titan vieillissant du laboratoire national d'Oak Ridge et sera conçu pour tester et prendre en charge les applications scientifiques dans le monde entier.

8. Tianhe-2 (Chine)

390 millions de dollars
Le chinois Tianhe-2 (qui signifie « Voie lactée 2 ») est le supercalculateur le plus rapide au monde. L'ordinateur, développé par une équipe de 1 300 scientifiques et ingénieurs, est situé au Centre national de calcul intensif de Guangzhou. Il a été construit par l'Université des sciences et technologies de la défense de l'Armée populaire de libération chinoise. Tianhe-2 est capable d’effectuer 33 860 000 milliards de calculs par seconde. Par exemple, une heure de calculs sur ordinateur équivaut à 1 000 ans de travail pour 1,3 milliard de personnes. La machine est utilisée pour modéliser et analyser les systèmes de sécurité gouvernementaux.

9. Earth Simulator (Japon)


500 millions de dollars
Earth Simulator a été développé par le gouvernement japonais en 1997. Le coût du projet est de 60 milliards de yens, soit environ 500 millions de dollars. Earth Simulator a été achevé en 2002 pour l'Agence japonaise d'exploration aérospatiale, l'Institut japonais de recherche sur l'énergie atomique et le Centre japonais de recherche et de technologie marines et terrestres.

ES a été le supercalculateur le plus rapide au monde entre 2002 et 2004, et il sert encore aujourd'hui à travailler avec des modèles climatiques mondiaux, à évaluer les effets du réchauffement climatique et à évaluer les problèmes géophysiques de la croûte terrestre.

10. Fujitsu K (Japon)

1,2 milliard de dollars
Le supercalculateur le plus cher du monde n'est que le quatrième plus rapide au monde (11 pétaflops). En 2011, c'était le supercalculateur le plus rapide du monde. Fujitsu K, situé au RIKEN Institute of Advanced Computing Technology, est environ 60 fois plus rapide que Earth Simulator. Sa maintenance coûte environ 10 millions de dollars par an et le supercalculateur consomme 9,89 MW (la même quantité d'électricité utilisée par 10 000 maisons de campagne ou un million d'ordinateurs personnels).

Il convient de noter que les scientifiques modernes sont allés si loin qu'ils sont déjà apparus.



L'humanité n'a jamais atteint Mars, un remède à toutes les maladies n'a pas encore été inventé, les voitures ne volent pas, mais il existe néanmoins des domaines dans lesquels les gens ont atteint des sommets sans précédent. La puissance de calcul des ordinateurs en fait partie. Voyons d'abord quel est le paramètre clé lors de l'évaluation de cette caractéristique des supercalculateurs. Les flops sont une valeur qui indique le nombre d'opérations en virgule flottante qu'un ordinateur peut effectuer par seconde. Sur la base de cet indicateur, notre classement des ordinateurs les plus puissants du monde, selon les données de 2019, a été établi.

Le classement a été présenté lors de la Conférence internationale sur le supercalcul ; les 500 meilleurs supercalculateurs ont été compilés par des mathématiciens du Lawrence National Laboratory et de la Tennessee State University.

10 Trinity – performances de 8,1 Pflop/s

Ce superordinateur assure la sécurité militaire américaine en maintenant l'efficacité de l'arsenal nucléaire du pays. Compte tenu de cela, on pourrait penser que cet appareil est incroyablement cher, mais à partir de 2015, de nouveaux supercalculateurs plus puissants ont commencé à le supplanter. Trinity fonctionne sur le système Cray XC40, ses performances sont de 8,1 Pflop/sec.

9 Mira – 8,6 Pflop/sec

Mira est un autre produit brillant de Cray. Il convient de noter que le projet de ce supercalculateur a été développé sur ordre du département américain de l'Énergie. Le principal domaine d'application de Mira concerne les projets gouvernementaux industriels et de recherche. La puissance de calcul de cet ordinateur est de 8,6 pétaflops par seconde.

Ordinateur 8 K – 10,5 Pflop/sec

La particularité de ce supercalculateur réside dans son nom, qui vient du mot japonais « kei » et signifie 10 quadrillions. La puissance productive de K Computer repose approximativement sur ce chiffre – 10,5 pétaflops. La spécificité de cette technique réside également dans le fait que le système utilise un refroidissement par eau, ce qui permet de réduire considérablement la consommation d'énergie et de réduire la vitesse d'assemblage.

7 Oakforest-Pacs – 13,6 Pflop/sec

La société japonaise Fujitsu, qui a également développé le K Computer évoqué plus haut, a créé un supercalculateur de nouvelle génération (génération Knights Landing). Le projet a été commandé par les universités de Tokyo et de Tsukuba. Malgré le fait qu'il était initialement prévu d'équiper l'ordinateur de 900 To de mémoire et d'une capacité de 25 quadrillions d'opérations, sa puissance de calcul est de 13,6 pétaflops/s.

6 Cori – 14 Pflop/s

Jusqu'en 2019, Cori occupait une solide 5ème position dans le classement mondial des ordinateurs les plus puissants, mais dans le contexte de progrès technologiques en développement rapide, elle a encore perdu une « ligne » de classement face aux derniers supercalculateurs. Il est situé au Lawrence Berkeley National Laboratory aux États-Unis. Cori a déjà apporté une contribution unique au développement de la science : avec son aide, des scientifiques suisses ont pu simuler un système informatique quantique de 45 qubits. 14 pétaflops, c'est la capacité productive de cette « super machine ».

5 Séquoia – 17,2 pétaflops

De nombreux experts considèrent Sequoia comme le supercalculateur le plus rapide du monde, et pour cause : ses performances arithmétiques sont égales à la vitesse de 6,7 milliards de personnes qui effectueraient une tâche identique avec des calculatrices pendant 320 ans. Sequoia se distingue également par sa taille : l'ordinateur occupe une superficie de 390 mètres carrés et se compose de 96 racks. 17,2 pétaflops sont ses performances, ce qui équivaut à près de seize mille milliards d'opérations.

4 Titan – 17,6 Pflop/sec

En plus d'être l'un des ordinateurs les plus rapides au monde, Titan est également considéré comme l'un des plus économes en énergie, avec une cote de 2 142,77 mégaflops par watt de consommation électrique. Le secret pour économiser de l'énergie réside dans l'utilisation des accélérateurs Nvidia, qui fournissent jusqu'à 90 % de la puissance de calcul totale, soit 17,6 pétaflops. Grâce à eux, Titan a sensiblement réduit ses dimensions : désormais, seuls 404 mètres carrés suffisent pour l'accueillir.

3 Piz Daint – 19,6 pétaflops

Le projet de supercalculateur Piz Daint a été lancé en 2013, dans la ville suisse de Lugano. Il est situé au même endroit - au Centre national suisse de calcul scientifique. Piz Daint a rassemblé presque toutes les caractéristiques positives des analogues mentionnés ci-dessus, notamment l'efficacité énergétique et la vitesse élevée, en plus de la compacité : l'appareil se compose de 28 grands racks. Sa puissance de calcul est de 19,6 pétaflops.

2 Tianhe-2 – 33,9 pétaflops

Jusqu'en juin 2016, le supercalculateur au nom romantique de « Voie lactée » (traduit du chinois) figurait en tête des 500 ordinateurs les plus puissants au monde. Sa puissance offre une vitesse de 2 507 000 milliards d’opérations par seconde, ce qui équivaut à 33,9 pétaflops. Tianhe-2 a trouvé sa « vocation » dans le domaine de la construction : lors du calcul des bâtiments et de la pose des routes. Il convient de noter que depuis le début de l'année 2013, lorsque Milky Way est sorti, il n'a pas quitté la première place du classement, ce qui est un indicateur vraiment puissant.

1 Sunway TaihuLight – 93 pétaflops

À l’intérieur de cet ordinateur se trouvent 40 960 processeurs puissants, ce qui explique sa taille : Sunway lui-même occupe une superficie d’environ 1 000 mètres carrés. En 2016, lors d'une conférence internationale en Allemagne, il a été reconnu comme le plus rapide du genre. Aujourd'hui, Sunway TaihuLight est le premier du classement et le seul parmi les 10 meilleurs supercalculateurs capables de générer des vitesses de 93 pétaflops.




Si l’on considère le progrès technologique sous l’angle de son impact sur les personnes, la société dans son ensemble et l’environnement, il est évident qu’il présente des lacunes à l’échelle mondiale. Aujourd’hui, nous avons accès à une grande variété d’ordinateurs, d’appareils divers et de robots. Mais l’objectif le plus élevé est de trouver une utilisation digne des grandes inventions de l’humanité et d’orienter leur utilisation au profit de notre avenir commun, sans les transformer en jouets dénués de sens.

Pour la cinquième fois consécutive, le chinois Tianhe-2 (Voie lactée 2) est devenu le supercalculateur le plus rapide au monde avec une performance de 33,86 pétaflops ou quadrillions d'opérations en virgule flottante par seconde. C'est le verdict de la liste TOP500 des supercalculateurs les plus puissants, publiée deux fois par an.

Malgré le résultat attendu, la dernière édition contient encore des informations intéressantes. Les États-Unis comptent toujours plus de systèmes sur la liste que tout autre pays, avec 233 véhicules (contre 231 il y a six mois et 265 il y a un an). Les deuxième et troisième places sont occupées par des systèmes américains, tandis que 141 machines de la liste sont situées en Europe. Il convient de noter que trois des nouveaux ordinateurs appartiennent à la société chinoise Lenovo, bien que la Chine elle-même ne soit représentée que par 37 supercalculateurs, contre 61 l'année dernière.
La performance moyenne du TOP500 a considérablement augmenté au cours des 6 derniers mois. La puissance totale des 500 supercalculateurs était de 363 pétaflops/s, soit nettement plus que 309 en novembre dernier et 274 il y a un an. 98 % des systèmes utilisent des processeurs à six cœurs ou plus, tandis qu'au moins 88,2 % ont 8 cœurs par processeur. Quatre-vingt-huit des cinq cents systèmes utilisaient des accélérateurs/coprocesseurs, dont Nvidia (52), ATI Radeon (4) et Intel Xeon Phi (33). Les quatre systèmes utilisent une combinaison de processeurs Xeon et Nvidia.
Le top 10 est constitué des machines lancées en 2011 et 2012, à l'exception d'un nouvel entrant d'Arabie Saoudite au numéro 7. Voici à quoi ressemble la liste des 10 supercalculateurs les plus puissants au monde.

  1. Tianhe-2 : groupe TH-IVB-FEP ; Centre national de calcul intensif à Guangzhou, Chine ; 3,12 millions de cœurs (33,86 Pflops/s).
  2. Titan : système Cray XK7, laboratoire national d'Oak Ridge, États-Unis. 560 640 cœurs (17,59 Pflops/s).
  3. Sequoia : IBM BlueGene/Q System, Livermore National Laboratory 1,57 million de cœurs (17,2 Pflops/s).
  4. Ordinateur K : système SPARC64 avec 705 024 cœurs au RIKEN Institute of Advanced Computing Science de l'Institut de recherche physique et chimique (RIKEN), Japon. (10,5 Pflops/s).
  5. Mira : IBM BlueGene/Q ; Laboratoire national DOE/SC/Argonne, États-Unis ; 786 000 cœurs IBM. (8,59 Pflops/s).
  6. Piz Daint : Cray XC30 avec 116 000 cœurs de Xeon et Nvidia ; situé au Centre informatique national suisse. (6,27 Pflops/s).
  7. Shaheen II : système Cray XC40. Université des sciences et technologies du roi Abdallah en Arabie Saoudite. (5,536 Pflops/s).
  8. Stampede : système Dell PowerEdge C8220 avec 462 462 cœurs Xeon Phi à l’Université du Texas (5,17 Pflops/s).
  9. JUQUEEN : BlueGene/Q, 458 752 cœurs IBM. Centre de recherche de Jülich, Allemagne. (5 Pflops/s).
  10. Vulcan : BlueGene/Q, 393 216 cœurs IBM, Département américain de l'énergie.

Il ne faut pas oublier que la situation peut changer radicalement si quelqu'un crée un véritable ordinateur quantique. IBM a remis les pendules à l'heure en construisant un ordinateur de 50 qubits (avec un maximum actuel de 4) qui pourrait être plus puissant que n'importe quel système de cette liste.
Parallèlement, le ministère américain de l'Énergie a commandé deux systèmes IBM/Nvidia pour un montant de 425 millions de dollars. La livraison des machines est prévue pour 2017 et 2018, et la puissance maximale pourrait atteindre 150 pétaflops.

Le supercalculateur K Computer, qui occupait auparavant la première place, a été relégué à la troisième place. Sa performance est de 11,28 Pflops (voir Figure 1). Rappelons que les Flops (FLoating-point Operations Per Second, FLOPS) sont une unité de mesure des performances d'un ordinateur, qui montre combien d'opérations en virgule flottante par seconde un système informatique donné est capable d'effectuer.

K Computer est un développement conjoint de l'Institut de recherche physique et chimique Rikagaku Kenkiyo (RIKEN) et de Fujitsu. Il a été créé dans le cadre de l'initiative d'infrastructure de calcul haute performance menée par le ministère japonais de l'Éducation, de la Culture, des Sports, de la Science et de la Technologie (MEXT). Le supercalculateur est installé sur le territoire de l'Institut des sciences informatiques avancées de la ville japonaise de Kobe.

Le supercalculateur est basé sur une architecture de mémoire distribuée. Le système se compose de plus de 80 000 nœuds de calcul et est hébergé dans 864 racks, chacun pouvant accueillir 96 nœuds de calcul et 6 nœuds d'E/S. Les nœuds, contenant chacun un processeur et 16 Go de RAM, sont interconnectés selon la topologie « boucle/tore à six dimensions ». Le système utilise un total de 88 128 processeurs SPARC64 VIIIfx à huit cœurs (705 024 cœurs) fabriqués par Fujitsu utilisant la technologie 45 nm.

Ce supercalculateur à usage général offre des niveaux élevés de performances et prend en charge une large gamme d'applications. Le système est utilisé pour mener des recherches dans les domaines du changement climatique, de la prévention des catastrophes et de la médecine.

Le système de refroidissement par eau unique réduit le risque de panne de l'équipement et réduit la consommation globale d'énergie. Les économies d'énergie sont réalisées grâce à l'utilisation d'équipements très efficaces, d'un système de cogénération de chaleur et d'électricité et d'un ensemble de panneaux solaires. De plus, le mécanisme de réutilisation des eaux usées du refroidisseur réduit l'impact négatif sur l'environnement.

Le bâtiment dans lequel se trouve K Computer est parasismique et peut résister à des séismes de magnitude 6 ou plus sur l'échelle japonaise (0-7). Afin d'accueillir plus efficacement les racks d'équipements et les câbles, le troisième étage, mesurant 50 × 60 m, est totalement exempt de colonnes porteuses. Les technologies de construction modernes ont permis d'assurer un niveau de charge acceptable (jusqu'à 1 t/m2) pour l'installation de rayonnages dont le poids peut atteindre 1,5 tonne.

SUPERORDINATEUR SÉQUOIA

Le supercalculateur Sequoia installé au Laboratoire national Lawrence Livermore. Lawrence, a une performance de 16,32 Pflops et se classe deuxième du classement (voir Figure 2).

Ce supercalculateur pétaflopique, développé par IBM sur la base de Blue Gene/Q, a été créé pour la National Nuclear Security Administration (NNSA) des États-Unis dans le cadre du programme Advanced Simulation and Computing.

Le système se compose de 96 racks et de 98 304 nœuds de calcul (1 024 nœuds par rack). Chaque nœud comprend un processeur PowerPC A2 à 16 cœurs et 16 Go de RAM DDR3. Au total, 1 572 864 cœurs de processeur et 1,6 Po de mémoire sont utilisés. Les nœuds sont connectés les uns aux autres selon la topologie du « tore à cinq dimensions ». La superficie occupée par le système est de 280 m2. La consommation totale d'énergie est de 7,9 MW.

Le supercalculateur Sequoia a été le premier au monde à effectuer des calculs scientifiques, nécessitant une puissance de calcul supérieure à 10 Pflops. Ainsi, le système de simulation de cosmologie HACC nécessitait environ 14 Pflops lorsqu'il fonctionnait en mode 3,6 billions de particules, et lors de l'exécution du code du projet Cardiod pour simuler l'électrophysiologie du cœur humain, les performances atteignaient près de 12 Pflops.

SUPERORDINATEUR TITAN

Le supercalculateur Titan, installé au laboratoire national d'Oak Ridge (ORNL) aux États-Unis, a été reconnu comme le supercalculateur le plus rapide au monde. Dans les tests de référence Linpack, ses performances étaient de 17,59 Pflops.

Titan implémente une architecture hybride CPU-GPU (voir Figure 3). Le système se compose de 18 688 nœuds, chacun équipé d'un processeur AMD Opteron à 16 cœurs et d'un accélérateur graphique Nvidia Tesla K20X. Au total, 560 640 processeurs sont utilisés. Titan est une mise à jour du supercalculateur Jaguar précédemment utilisé par ORNL et occupe les mêmes armoires de serveurs (superficie totale de 404 m2).

La possibilité d'utiliser les systèmes d'alimentation et de refroidissement existants a permis d'économiser environ 20 millions de dollars pendant la construction. La consommation électrique du supercalculateur est de 8,2 MW, soit 1,2 MW de plus que celle du Jaguar, tandis que ses performances en virgule flottante sont près de 10 fois supérieures.

Titan sera principalement utilisé pour mener des recherches dans le domaine de la science des matériaux et de l'énergie nucléaire, ainsi que pour des recherches liées à l'amélioration de l'efficacité des moteurs à combustion interne. Il sera également utilisé pour modéliser le changement climatique et analyser les stratégies potentielles pour faire face à ses impacts négatifs.

LE SUPERORDINATEUR LE PLUS « VERT »

Outre la notation Top500, visant à identifier le système le plus performant, il existe une notation Green500, qui récompense les supercalculateurs « les plus verts ». Ici, l'indicateur d'efficacité énergétique (Mflops/W) est pris comme base. À l'heure actuelle (la dernière publication du classement date de novembre 2012), le leader du Green500 est le supercalculateur Beacon (253e place du Top500). Son indicateur d'efficacité énergétique est de 2499 Mflops/W.

Beacon est alimenté par des coprocesseurs Intel Xeon Phi 5110P et des processeurs Intel Xeon E5-2670, de sorte que les performances maximales peuvent atteindre 112 200 Gflops avec une consommation électrique totale de 44,9 kW. Les coprocesseurs Xeon Phi 5110P offrent des performances élevées avec une faible consommation d'énergie. Chaque coprocesseur dispose d'une puissance de 1 téraflops (double précision) et prend en charge jusqu'à 8 Go de mémoire GDDR5 avec une bande passante de 320 Gbit/s.

Le système de refroidissement passif du Xeon Phi 5110P est évalué à 225 W TDP, ce qui est idéal pour les serveurs haute densité.

SUPERORDINATEUR EURORA

Cependant, en février 2013, des rapports ont révélé que le supercalculateur Eurora, situé à Bologne (Italie), dépassait Beacon en termes d'efficacité énergétique (3 150 Mflops/watt contre 2 499 Mflops/W).

Eurora est construit par Eurotech et se compose de 64 nœuds, chacun comprenant deux processeurs Intel Xeon E5-2687W, deux accélérateurs GPU Nvidia Tesla K20 et d'autres matériels. Les dimensions d'un tel nœud ne dépassent pas les dimensions d'un ordinateur portable, mais leurs performances sont 30 fois supérieures et leur consommation électrique est 15 fois inférieure.

Une efficacité énergétique élevée à Eurora est obtenue grâce à l’utilisation de plusieurs technologies. Le refroidissement par eau apporte la plus grande contribution. Ainsi, chaque nœud du supercalculateur est une sorte de sandwich : un équipement central en bas, un échangeur thermique à eau au milieu et une autre unité électronique en haut (voir Figure 4).

De tels résultats sont obtenus grâce à l'utilisation de matériaux à bonne conductivité thermique, ainsi qu'à un vaste réseau de canaux de refroidissement. Lors de l'installation d'un nouveau module informatique, ses canaux sont combinés avec les canaux du système de refroidissement, ce qui permet de modifier la configuration du supercalculateur en fonction des besoins spécifiques. Selon les fabricants, le risque de fuite est éliminé.

Les éléments du supercalculateur Eurora sont alimentés par des sources de 48 volts CC, dont l'introduction a réduit le nombre de conversions d'énergie. Enfin, l’eau chaude extraite des équipements informatiques peut être utilisée à d’autres fins.

CONCLUSION

L'industrie des supercalculateurs développe activement et établit de plus en plus de nouveaux records en matière de performances et d'efficacité énergétique. Il convient de noter que c'est dans cette industrie, comme nulle part ailleurs, que les technologies de refroidissement liquide et de modélisation 3D sont aujourd'hui largement utilisées, puisque les spécialistes sont confrontés à la tâche d'assembler un système informatique surpuissant qui serait capable de fonctionner de manière volume limité avec des pertes d'énergie minimes.

Youri Khomoutski- Ingénieur en chef de projet chez I-Teco. Il peut être contacté à : [email protégé]. L'article utilise des éléments du portail Internet sur les centres de données « www.AboutDC.ru - Solutions for Data Centers ».



Des questions ?

Signaler une faute de frappe

Texte qui sera envoyé à nos rédacteurs :