Supercalculateur : la Suisse éjecte les USA du podium mondial

Le par  |  16 commentaire(s)
Sunway-TaihuLight-logo

Pour la deuxième fois en 24 ans d'histoire du Top500, les États-Unis ne placent pas un système sur le podium des supercalculateurs les plus puissants de la planète.

Nouvelle publication du classement biannuel Top500 des supercalculateurs les plus puissants. En ce qui concerne le podium mondial, les deux premières places restent inchangées, à commencer par le leader : le Sunway TaihuLight.

Le supercalculateur chinois Sunway TaihuLight affiche une puissance de 93 pétaflops, ou autrement dit une puissance de calcul globale de 93 millions de milliards d'opérations à virgule flottante par seconde (benchmark Linpack).

Fonctionnant sous Sunway RaiseOS 2.0.5 (Linux), le Sunway TaihuLight est équipé de près de 41 000 processeurs Sunway (SW26010 à 1,45 GHz avec chacun 260 cœurs ; 10,65 millions de cœurs) ayant pour particularité notable d'être fabriqués en Chine, et dispose d'une capacité mémoire (RAM) de 1,3 pétaoctets.

Sunway-TaihuLight

Toujours classé second, le supercalculateur chinois Tianhe-2 a une puissance de 33,9 pétaflops. Sous Kylin Linux, il comprend 32 000 processeurs Intel Ivy Bridge et 48 000 processeurs Intel Xeon Phi pour un total de 3,12 millions de cœurs. Plus de 1 pétaoctet de mémoire.

Tianhe-2

La troisième place n'est par contre plus occupée par le supercalculateur américain Titan (17,59 pétaflops) mais par le supercalculateur suisse Piz Daint du même fabricant Cray Inc. (avec environnement Cray Linux) qui a reçu une mise à niveau avec l'ajout de GPUs Tesla P100 de NVIDIA en plus de processeurs Intel Xeon E5 : 19,59 pétaflops, 362 000 cœurs, 340 To de mémoire RAM.

Piz-Daint

Le Piz Daint a récemment été utilisé pour réaliser une simulation de l'Univers en intégrant 25 milliards de galaxies.

Le premier supercalculateur français classé est Pangea de Total (5,3 pétaflops) qui occupe la 19e place. La semaine dernière, le GENCI a annoncé l'installation fin 2017 au TGCC du Bull Sequana de Atos avec une configuration initiale de 9 pétaflops.

Complément d'information

Vos commentaires Page 1 / 2

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1969269
bref, y'a de quoi mouliner !!!
Le #1969274
Génial ! On simule des milliards de galaxies (dont tout le monde s'en cogne) mais on n'est pas foutu de nous fournir un modèle météo fiable sur plus de 48h. C'est beau la science
Le #1969278
Hey mais c'est ma config pour lancer MS-DOS Alpha 0.1 !
Le #1969282
Ulysse2K a écrit :

Génial ! On simule des milliards de galaxies (dont tout le monde s'en cogne) mais on n'est pas foutu de nous fournir un modèle météo fiable sur plus de 48h. C'est beau la science


La météo dépend de milliers de facteurs. On ne peut pas prédire sur 5 jours, parce qu'un évènement aléatoire qui surviendrait le lendemain de la prédiction foutrait tout en l'air. De plus, une toute petite erreur de mesure, un tout petit arrondi, a de grosses répercutions sur 1 semaine et moins sur 2 jours. Tout ça pour dire que le problème ne se pose pas au niveau de la puissance de calcul. Augmenter la puissance de calcul ne rendra pas les prédictions plus fiables. Ce qu'il faut, ce sont de meilleur données, pas de gros supercalculateurs pour la météo.

Pour ce qui est de l'astrophysique, c'est l'inverse. Les lois qui régissent les mouvements sont très bien connues, et on a largement les données pour prédire toutes les éclipses lunaires (par exemple) pour le million d'années qui suit. Les arrondis, les erreurs de mesures, etc, ont des répercussions qui peuvent très bien être limitées avec un peu de méthode. On a donc la possibilité mathématique de faire des prédictions sur des milliards d'années. Sauf que poser des équations pour 25 milliards de galaxies, c'est chaud. Du coup on fait faire ça par un ordi.

Tout ça pour dire qu'on utilise les supercalculateurs pour l'astrophysique pour les mêmes raisons qu'on ne les utilisent pas pour la météo : en astrophysique, on a toutes les lois et toutes les données à disposition, donc on peut se permettre de simuler des situations complexes, c'est pas difficile, juste très long. En revanche, pour la météo, les instruments de mesures ne sont largement pas assez pointus pour qu'une simulation sur 1 semaine ait du sens. On pourrait le faire, on pourrait utiliser Piz Daint pour simuler la météo pour les 300 prochains jours, mais du fait de la trop grande imprécision des instruments, les probabilités que le résultat soit pertinent est faible.

Et non, tout le monde ne s'en cogne pas des galaxies. Ce genre de simulation permettent de pointer du doigt plusieurs incohérences du modèle standard, ce qui permet de mieux le critiquer et de mieux lui chercher un remplaçant.

PS : et ça fait toujours plaisir qu'on parle de chez moi sur GNT !
Le #1969283
La France est loin du compte...
Le #1969284
Et même si elle avait le premier calculateur au monde, elle le gâcherait. En l'utilisant pour faire des traductions latines ou grecques (et oui le latin et le grec reviennent au programme, vive la France !)...
Le #1969290
jujubibi a écrit :

Ulysse2K a écrit :

Génial ! On simule des milliards de galaxies (dont tout le monde s'en cogne) mais on n'est pas foutu de nous fournir un modèle météo fiable sur plus de 48h. C'est beau la science


La météo dépend de milliers de facteurs. On ne peut pas prédire sur 5 jours, parce qu'un évènement aléatoire qui surviendrait le lendemain de la prédiction foutrait tout en l'air. De plus, une toute petite erreur de mesure, un tout petit arrondi, a de grosses répercutions sur 1 semaine et moins sur 2 jours. Tout ça pour dire que le problème ne se pose pas au niveau de la puissance de calcul. Augmenter la puissance de calcul ne rendra pas les prédictions plus fiables. Ce qu'il faut, ce sont de meilleur données, pas de gros supercalculateurs pour la météo.

Pour ce qui est de l'astrophysique, c'est l'inverse. Les lois qui régissent les mouvements sont très bien connues, et on a largement les données pour prédire toutes les éclipses lunaires (par exemple) pour le million d'années qui suit. Les arrondis, les erreurs de mesures, etc, ont des répercussions qui peuvent très bien être limitées avec un peu de méthode. On a donc la possibilité mathématique de faire des prédictions sur des milliards d'années. Sauf que poser des équations pour 25 milliards de galaxies, c'est chaud. Du coup on fait faire ça par un ordi.

Tout ça pour dire qu'on utilise les supercalculateurs pour l'astrophysique pour les mêmes raisons qu'on ne les utilisent pas pour la météo : en astrophysique, on a toutes les lois et toutes les données à disposition, donc on peut se permettre de simuler des situations complexes, c'est pas difficile, juste très long. En revanche, pour la météo, les instruments de mesures ne sont largement pas assez pointus pour qu'une simulation sur 1 semaine ait du sens. On pourrait le faire, on pourrait utiliser Piz Daint pour simuler la météo pour les 300 prochains jours, mais du fait de la trop grande imprécision des instruments, les probabilités que le résultat soit pertinent est faible.

Et non, tout le monde ne s'en cogne pas des galaxies. Ce genre de simulation permettent de pointer du doigt plusieurs incohérences du modèle standard, ce qui permet de mieux le critiquer et de mieux lui chercher un remplaçant. C'est de la science, mais je conçois que des gens n'en aient rien à foutre des choses qui sont plus loin que le bout de leur pif....

PS : et ça fait toujours plaisir qu'on parle de chez moi sur GNT !


Je crois qu'il fallait prendre son message au second degrés
Le #1969319
jujubibi a écrit :

Ulysse2K a écrit :

Génial ! On simule des milliards de galaxies (dont tout le monde s'en cogne) mais on n'est pas foutu de nous fournir un modèle météo fiable sur plus de 48h. C'est beau la science


La météo dépend de milliers de facteurs. On ne peut pas prédire sur 5 jours, parce qu'un évènement aléatoire qui surviendrait le lendemain de la prédiction foutrait tout en l'air. De plus, une toute petite erreur de mesure, un tout petit arrondi, a de grosses répercutions sur 1 semaine et moins sur 2 jours. Tout ça pour dire que le problème ne se pose pas au niveau de la puissance de calcul. Augmenter la puissance de calcul ne rendra pas les prédictions plus fiables. Ce qu'il faut, ce sont de meilleur données, pas de gros supercalculateurs pour la météo.

Pour ce qui est de l'astrophysique, c'est l'inverse. Les lois qui régissent les mouvements sont très bien connues, et on a largement les données pour prédire toutes les éclipses lunaires (par exemple) pour le million d'années qui suit. Les arrondis, les erreurs de mesures, etc, ont des répercussions qui peuvent très bien être limitées avec un peu de méthode. On a donc la possibilité mathématique de faire des prédictions sur des milliards d'années. Sauf que poser des équations pour 25 milliards de galaxies, c'est chaud. Du coup on fait faire ça par un ordi.

Tout ça pour dire qu'on utilise les supercalculateurs pour l'astrophysique pour les mêmes raisons qu'on ne les utilisent pas pour la météo : en astrophysique, on a toutes les lois et toutes les données à disposition, donc on peut se permettre de simuler des situations complexes, c'est pas difficile, juste très long. En revanche, pour la météo, les instruments de mesures ne sont largement pas assez pointus pour qu'une simulation sur 1 semaine ait du sens. On pourrait le faire, on pourrait utiliser Piz Daint pour simuler la météo pour les 300 prochains jours, mais du fait de la trop grande imprécision des instruments, les probabilités que le résultat soit pertinent est faible.

Et non, tout le monde ne s'en cogne pas des galaxies. Ce genre de simulation permettent de pointer du doigt plusieurs incohérences du modèle standard, ce qui permet de mieux le critiquer et de mieux lui chercher un remplaçant. C'est de la science, mais je conçois que des gens n'en aient rien à foutre des choses qui sont plus loin que le bout de leur pif....

PS : et ça fait toujours plaisir qu'on parle de chez moi sur GNT !


Je suis d'accord avec toi pour les galaxies (suis astronome amateur depuis mon adolescence ). Je voulais juste dire... avec humour... que malgré nos monstres d'informatique, des petites choses de notre vie, comme la météo, sont loin d'être "calculées" par l'homme. Te vexe pas coco, la science et moi on est super pote

Par contre, depuis que j'ai lu entièrement ton commentaire, je suis bon à prendre rendez-vous chez mon ophtalmo (ou acheter une canne blanche si je veux faire des économies)
Le #1969327
cycnus a écrit :

Et même si elle avait le premier calculateur au monde, elle le gâcherait. En l'utilisant pour faire des traductions latines ou grecques (et oui le latin et le grec reviennent au programme, vive la France !)...


Tu es qui pour juger de l'intérêt ou non de telle ou telle simulation ? Rien n'est inutile en recherche, même si c'est de la sémantique ou de la recherche littéraire. Je t'aurais presque traité de tocard mais je dois être loin du compte...
Le #1969329
cycnus a écrit :

Et même si elle avait le premier calculateur au monde, elle le gâcherait. En l'utilisant pour faire des traductions latines ou grecques (et oui le latin et le grec reviennent au programme, vive la France !)...


Cette même personne qui se cache derrière des excuses bidons pour faire du dl pas beau du tout !
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]