OVH Cloud OVH Cloud

Le stockage: où va-t-on?

69 réponses
Avatar
G-raison
Bonjour,

C'est incroyable l'informatique quand même.

ici http://www.hardware.fr/news/lire/27-03-2006/ qui est un site pour
l'informatique en générale mais pas spécialement pour Linux, on peut lire
que bientôt on va pouvoir stocker 400 Go de données sur un système de
stockage holographique!!!

Mais qu'est-ce qu'on va bien pouvoir mettre sur un tel système ?!

Moi là, j'ai un disque dur de 80 Go et je trouve déjà ça très gros.
Et pour quelqu'un qui ne sait pas bien gérer et ranger ses fichiers et
répertoires convenablement, quel foutoir que ça va être?
Un méga-foutoir sans doute!

C'est drôle le progrès quand même.
--
@+
gr

10 réponses

3 4 5 6 7
Avatar
Michel Billaud
R12y writes:

On Thu, 30 Mar 2006 18:58:03 +0100, pascal wrote:

vu aujourd'hui :
<http://www.presence-pc.com/actualite/supercalculateur-cray-15858/>


http://www.presence-pc.com/forum/ppc/Lesnewsvosreactions/Le-supercalculateur-petaflop-sujet-15858-1.htm
Les commentaires sont tous aussi débiles les uns que les autres.

Pour en revenir a l'article: est-ce qu'il y en a parmis vous qui
travaillent dans un endroit ou l'on a vraiment besoin de machines plus
puissantes que celles du grand public?


Qui travaillent, enfin, disons qui sont employés dans des endroits, oui,
y en a.
Il y a des "meso-centres" un peu partout en france (google: mesocentre)

Ce qu'ils en font, voir par exemple
www.m3pec.u-bordeaux1.fr/RAP16.pdf


Est-ce que c'est pas un vaste gouffre à pognon d'acheter des
supercalculateurs moyens pour 3 pelés, est-ce qu'il ne serait pas plus
intéressant de mutualiser sur des centres nationaux voire
europeens, bonne question, j'ai pas la réponse.

Est-ce que je peux visiter?


Faut leur demander.

Je voudrais juste voir quel genre de programme
c'est, ça fait quoi, discuter avec le(s) mec(s)/nana(s) qui l'a écrit pour
voir si il est vraiment surhumain ou pas, bref pour la culture générale
quoi... Ici au CNRS d'orléans il y a un supercalulateur, mais on n'a même
pas le droit de le regarder... J'ai pourtant fait des demandes et montré
patte blanche.... mais niet...


De toutes façons, regarder les boites en ferrailles qui clignotent, est-ce bien
intéressant ?

MB

--
Michel BILLAUD
LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792
351, cours de la Libération http://www.labri.fr/~billaud
33405 Talence (FRANCE)


Avatar
R12y
On Fri, 31 Mar 2006 09:21:16 +0200, Michel Billaud wrote:

De toutes façons, regarder les boites en ferrailles qui clignotent,
est-ce bien intéressant ?


On s'en fout.
Un passionné d'automobile sera toujours ému de s'asseoir sur le siège
d'une Ferrari ou d'une Lamborghini (ou de sa marque favorite). Ce n'est
pourtant qu'un siège en cuir venant d'un animal quelconque... C'est juste
une histoire d'émotions.

--
Debian/apt Repo: http://locataire-serveur.info/sections/liens/debian-repository
Fedora/yum Repo: http://locataire-serveur.info/sections/liens/fedora-core-yum

Avatar
talon
R12y wrote:
On Thu, 30 Mar 2006 18:58:03 +0100, pascal wrote:

Pour en revenir a l'article: est-ce qu'il y en a parmis vous qui
travaillent dans un endroit ou l'on a vraiment besoin de machines plus
puissantes que celles du grand public?


Dans l'endroit où je travaille, non. On utilise des machines du grand public,
en nombre suffisant (une centaine). Il y a eu un Cray au centre de calcul de
Jussieu, je suis même allé le voir, j'ai même eu un compte dessus, et je ne
l'ai jamais utilisé aprés m'être rendu compte que ça ne servait à rien pour
mes calculs. Je crois que ce sont les chimistes qui étaient les principaux
utilisateurs, surtout pour calculer des atomes ou des molécules, je ne sais
pas trop.

Ce qui distingue les gros calculs des petits, c'est surtout quand il faut
beaucoup de mémoire. Si on agrandit une simulation on a vite fait d'avoir
besoin d'un Go de mémoire pour qu'elle tourne dedans. Autrefois c'était des
tailles de mémoire qu'on ne trouvait que sur des grosses machines. Maintenant
on peut avoir plusieurs Go de mémoire sur la machine de M. tout le monde ...
En ce qui concerne la vectorisation (c'était la spécialité de Cray) et la
parallélisation des calculs, ça représente quand même des situations trés
spéciales. C'est pas souvent qu'on peut découper un calcul pour faire exécuter
des bouts en parallèle, et ça demande une programmation trés délicate. La
plupart des gens n'ont pas trop envie de se lancer dans ce genre de choses.
Donc il font la parallélisation du pauvre, lancer le même calcul sur plusieurs
machines avec des jeux de données différentes. Ca marche à tous les coups et
sans difficultés! Si tu as 100 machines et 100 jeux de données tu obtient le
résultat final 100 fois plus vite, sans te casser les méninges.

Evidemment il y a des programmes qui sont au point depuis de nombreuses
années, telles que la prévision météorologique, le calcul de propagation des
ondes "sismiques" dans le sol pour repérer les nappes de pétrole, la
simulation des explosions pour détoner une bombe atomique, etc. où on a de
longue date découpé le calcul en morceaux vectorisables, etc. donc là ça vaut
le coup d'utiliser le maximum de technique informatique quel que soit le prix.
Utiliser une plus grosse machine permet d'affiner la simualtion, mettre un pas
de résolution plus fin, tenir compte de plus de paramètres, etc. Et ce sont
des domaines où on veut toujours être à la pointe de ce qu'on sait faire
(surtout le domaine militaire).


--

Michel TALON

Avatar
Ploc
Michel Billaud wrote:

De toutes façons, regarder les boites en ferrailles qui clignotent, est-ce bien
intéressant ?


Pour Hollywood, surement ;)

Avatar
Marc Dejardin
On Thu, 30 Mar 2006 18:58:03 +0100, pascal wrote:

vu aujourd'hui :
<http://www.presence-pc.com/actualite/supercalculateur-cray-15858/>


http://www.presence-pc.com/forum/ppc/Lesnewsvosreactions/Le-supercalculateur-petaflop-sujet-15858-1.htm
Les commentaires sont tous aussi débiles les uns que les autres.

Pour en revenir a l'article: est-ce qu'il y en a parmis vous qui
travaillent dans un endroit ou l'on a vraiment besoin de machines plus
puissantes que celles du grand public?
Est-ce que je peux visiter? Je voudrais juste voir quel genre de programme
c'est, ça fait quoi, discuter avec le(s) mec(s)/nana(s) qui l'a écrit pour
voir si il est vraiment surhumain ou pas, bref pour la culture générale
quoi... Ici au CNRS d'orléans il y a un supercalulateur, mais on n'a même
pas le droit de le regarder... J'ai pourtant fait des demandes et montré
patte blanche.... mais niet...
Il parait qu'il tourne sous SuSe.

Bonjour,

Je travaille sur un projet qui est en train d'être installé au CERN à
Genève. Il s'agit d'un accélérateur de particules (LHC = large hadron
collider) sur lequel seront installés 4 expériences.
Celle sur laquelle je travaille (CMS=compact muon solenoide, compact
veux dire seulement 15 mètres de diamètre) met en place un système
d'acquisition et de traitement de données qui aura les caractéristiques
suivantes :
- entre 40 et 200 millions d'interactions proton-proton par seconde.
- un taux de déclenchement de l'acquisition de 100 kHz
- taille moyenne des événements = 1Mo
- Event builder (mise en ordre des morceaux provenant de différents
bouts de l'appareillage) = 1000 Go/sec de trafic (switch telecom 1000 ports)
- Calcul en ligne : 5x10^6 MIPS
- volume de données produites sauvegardées = 1To/jour

Si on ajoute la même chose, mais en simulation, on double les volumes de
données et on multiplie par 4 le temps calcul.

Les besoins sont donc colossaux en matière de calcul et de stockage.
Pour cela, on a développé un système qui s'appelle LCG = LHC computing
grid. Il s'agit de mettre en commun des moyens de calcul localisés dans
différents laboratoires via un "middle-ware" fait maison.
On soumet donc des programmes sans vraiment savoir où ils sont exécutés.
Sinon, pour le traitement en ligne, chaque expérience aura des "fermes"
d'environ 1000 PCs.
Pour le stockage, on a une partie disque et une partie bande.

Dans ces projets, il est impossible de voir "le" mec ou "la" nana car il
s'agit d'une collaboration de 2000 physiciens et ingénieurs.
C'est sûr que les physiciens d'un autre âge comme moi (42 ans) ont du
mal à suivre l'évolution. On a de plus en plus besoin de professionnels
de l'informatique pour développer des dizaines de milliers de lignes de
code en C++.
Le revers de la médaille est que comme on n'a pas les sous qu'il faut
pour faire les choses sérieusement et que chaque intervenant qui reste
en moyenne 2 ans est un ayatollah de l'informatique et rajoute sa couche
perso en faisant fi de ce qui a été fait auparavant et si possible à la
pointe des dernières théories informatiques enseignées dans les écoles
de part le monde, à la fin on a une belle usine à gaz qu'il faudra faire
tout de même marcher. (je m'égare...)

Le CERN est ouvert au public pour des visites, et le centre de calcul
doit faire partie de la visite.
http://public.web.cern.ch/Public/Welcome.html
Dans le temps on pouvait voir des Crays flotter dans leur liquide
amniotique bleu, maintenant c'est plus prosaïque : des baies de PC alignés.

Il fut aussi un temps où la physique des particules était un
bêta-testeur pour les fabricants de super-ordinateur (DEC, IBM, Cray,
etc) maintenant ce sont les jeux vidéo qui tirent l'informatique, et on
regarde ce qu'il y a dans les étagères pour approvisionner nos centres
de calcul.
Cordialement,
M.D.


Avatar
G-raison
pascal wrote:

Pour cela, la bête utilisera 24 000 processeurs Opteron quad-core
cadencés à 2,6 GHz,


Opteron c'est AMD ça?
Ah ben ils arrivent un peu à vendre alors.
Je croyais qu'Intel dominait tout moi.

Reste à savoir si les résultats sont bons! :-)

--
@+
gr

Avatar
G-raison
Blaise Potard wrote:

Ben faut suivre un peu ! AMD a maintenant une part de marché plus
importante que celle d'Intel dans le marché du CPU.


Tant mieux, j'aime bien ces types de processeurs aussi.

Les résultats ? Que veux-tu dire ? Si tu veux dire les performances, ça
doit bien faire deux ans que les opterons explosent sans problème tous
les p4 et autres xeon (ce qui explique en partie pourquoi Intel a perdu
tant de part de marché).


Les performances ok.
Mais je parlais aussi des chiffres, les résultats des calculs.
Ca doit en prendre du temps pour vérifier tout ça.
En tout cas bravo à tout ceux qui travaillent sur tout ça.

--
@+
gr

Avatar
Denis Beauregard
Le Fri, 31 Mar 2006 17:49:29 +0200, G-raison
écrivait dans fr.comp.os.linux.debats:

pascal wrote:

Pour cela, la bête utilisera 24 000 processeurs Opteron quad-core
cadencés à 2,6 GHz,


Opteron c'est AMD ça?
Ah ben ils arrivent un peu à vendre alors.
Je croyais qu'Intel dominait tout moi.

Reste à savoir si les résultats sont bons! :-)


Je suis assez désuet pour ce qui est de ce qui est bien
aujourd'hui, mais il faut rappeler que Intel s'est concentré
sur l'insertion d'une adresse unique au coeur du processeur,
en fonction des directives de Microsoft. Donc, de ce point
de vue, comme MS contrôle 95% du marché des nouveaux PC avec
SE pré-installés (et 4% pour Mac et sans doute moins de 1%
pour Linux), Intel pourrait bien reprendre sa part de marché
sans avoir besoin d'être plus efficace si Vista ne marche
que sur ce nouveau CPU.

Évidemment, les spéculations sont nombreuses sur ce qui peut
arriver. Par exemple, si le nouveau Vista n'est pas compatible
avec Win XP (selon certains rumeurs, cela fait partie de
l'entente avec le ministère américain de la justice dans la
poursuite antitrust), si ce nouveau Vista ne marche que sur des
puces Intel moins performantes, est-ce que le résultat serait
une explosion du nombre d'utilisateurs de Linux ou FreeBSD ?
Dans ce dernier cas, la part de marché de Intel va continuer à
diminuer et celle d'AMD à augmenter.


Denis


Avatar
Blaise Potard
G-raison wrote:
pascal wrote:


Pour cela, la bête utilisera 24 000 processeurs Opteron quad-core
cadencés à 2,6 GHz,



Opteron c'est AMD ça?
Ah ben ils arrivent un peu à vendre alors.
Je croyais qu'Intel dominait tout moi.


Ben faut suivre un peu ! AMD a maintenant une part de marché plus
importante que celle d'Intel dans le marché du CPU.

Reste à savoir si les résultats sont bons! :-)


Les résultats ? Que veux-tu dire ? Si tu veux dire les performances, ça
doit bien faire deux ans que les opterons explosent sans problème tous
les p4 et autres xeon (ce qui explique en partie pourquoi Intel a perdu
tant de part de marché).


Avatar
Jérémy JUST
Le Fri, 31 Mar 2006 09:11:50 +0000 (UTC),

Maintenant on peut avoir plusieurs Go de mémoire sur la machine de M.
tout le monde ...


Ça dépend de ce que tu mets derrière « plusieurs Go de mémoire ». Je
n'ai pas encore vu de machine grand public qui me permettrait d'avoir
96 Go voire 256 Go de RAM (ce que j'ai au bureau, même si ce ne sont pas
des « supercalculateurs »).


En ce qui concerne la vectorisation (c'était la spécialité de Cray)
et la parallélisation des calculs, ça représente quand même des
situations trés spéciales. C'est pas souvent qu'on peut découper un
calcul pour faire exécuter des bouts en parallèle, et ça demande une
programmation trés délicate. La plupart des gens n'ont pas trop envie
de se lancer dans ce genre de choses. Donc il font la parallélisation
du pauvre, lancer le même calcul sur plusieurs machines avec des jeux
de données différentes. Ca marche à tous les coups et sans
difficultés! Si tu as 100 machines et 100 jeux de données tu obtient
le résultat final 100 fois plus vite, sans te casser les méninges.


Une situation très fréquente: 100 calculs se font en parallèle, mais
sur le même jeu de données. Dans ce cas, ce serait une énorme perte
d'avoir 100 machines indépendantes; il est beaucoup plus économique
d'avoir un multiprocesseur.



--
Jérémy JUST

3 4 5 6 7