OVH Cloud OVH Cloud

Le stockage: où va-t-on?

69 réponses
Avatar
G-raison
Bonjour,

C'est incroyable l'informatique quand même.

ici http://www.hardware.fr/news/lire/27-03-2006/ qui est un site pour
l'informatique en générale mais pas spécialement pour Linux, on peut lire
que bientôt on va pouvoir stocker 400 Go de données sur un système de
stockage holographique!!!

Mais qu'est-ce qu'on va bien pouvoir mettre sur un tel système ?!

Moi là, j'ai un disque dur de 80 Go et je trouve déjà ça très gros.
Et pour quelqu'un qui ne sait pas bien gérer et ranger ses fichiers et
répertoires convenablement, quel foutoir que ça va être?
Un méga-foutoir sans doute!

C'est drôle le progrès quand même.
--
@+
gr

10 réponses

3 4 5 6 7
Avatar
Jérémy JUST
Le Thu, 30 Mar 2006 23:47:30 +0200,

Pour en revenir a l'article: est-ce qu'il y en a parmis vous qui
travaillent dans un endroit ou l'on a vraiment besoin de machines plus
puissantes que celles du grand public?


Oui.


Est-ce que je peux visiter?


A priori, non. Et de toutes façons, ce n'est pas très impressionnant:
c'est une salle informatique avec quelques grosses armoires gris et
bleu.


Je voudrais juste voir quel genre de programme c'est, ça fait quoi,
discuter avec le(s) mec(s)/nana(s) qui l'a écrit pour voir si il est
vraiment surhumain ou pas, bref pour la culture générale quoi...


Des exemples de programmes:
http://www.infobiogen.fr/

L'éditeur d'un exemple particulier (commercial) qui tire bien parti
d'une architecture SMP et qui peut demander pas mal de mémoire:
http://www.gene-it.com/


Ici au CNRS d'orléans il y a un supercalculateur


Pour moi, le terme « supercalculateur » évoque un ordinateur qui
occupe 12 m^3 pour la puissance d'une petite calculatrice scientifique.
Je l'ai rangé à côté de « autoroute de l'information », au rayon des
termes désuets des NTIC.

Ici, quand on parle des serveurs, on se contente de les appeler par
leur petit nom, ou de dire « la machine ».


--
Jérémy JUST

Avatar
talon
Jérémy JUST wrote:
Le Fri, 31 Mar 2006 09:11:50 +0000 (UTC),

Maintenant on peut avoir plusieurs Go de mémoire sur la machine de M.
tout le monde ...


Ça dépend de ce que tu mets derrière « plusieurs Go de mémoire ». Je


Dans les exemples que je vois c'est de 1/2 Gig à 1,5 Gig qui est la taille
typique. Au delà il faut des heures ou des jours de calcul, c'est pas
intéressant.

n'ai pas encore vu de machine grand public qui me permettrait d'avoir
96 Go voire 256 Go de RAM (ce que j'ai au bureau, même si ce ne sont pas
des « supercalculateurs »).


Oui, et bien si tu as des calculs qui tiennent rééllement sur 256 gigs de
mémoire, je n'ose pas penser au temps de calcul du calcul lui même. Tu
augmentes la taille des données que ton programme manipule, tu augmentes
au moins au carré ou au cube le temps de traîtement de ces données.

Une situation très fréquente: 100 calculs se font en parallèle, mais
sur le même jeu de données. Dans ce cas, ce serait une énorme perte
d'avoir 100 machines indépendantes; il est beaucoup plus économique
d'avoir un multiprocesseur.



Non, ce n'est pas une situation fréquente du tout. Ca suppose d'avoir
découpé son calcul en parties indépendantes, ça suppose d'avoir programmé des
procédures de synchronisation, bref c'est un merdier pas possible. Les gens
qui ont fait ça sur des programmes comme la simulation météo ont mis des
années à mettre les programmes au point, personne ne va se lancer là dedans
si ce n'est pas *absolument* indispensable. Ce que je vois, c'est que les gros
calculateurs scientifiques sont presque tous des clusters de machines couplées
de façon lâche, donc travaillant avec peu de vectorisation et de la
parallélisation triviale, tandis que les machines multiprocs sont utilisées
dans le secteur commercial, purement et simplement pour faire tourner beaucoup
de processus genre apache, ou des processus énormément multithreadés genre
Java, mais là ça a été mis au point sur plusieurs années par des
informaticiens spécialistes de la concurrence. Historiquement les
supercalculateurs vectoriels comme les Cray ont été complètement déplacés par
les clusters de bêtes PC sous Linux pour la grande majorité des calculs
scientifiques. Dans ce fil quelqu'un a posté au sujet de la grappe de calcul
du CERN, c'est l'exemple typique. Il paraît que le directeur du CERN fait la
chasse aux gens qui regardent du porno sur leurs PC pour consacrer un maximum
de ressources à ses calculs. A mon avis ça ne sera pas plus utile pour
l'avancement de la science, mais qui sait?






--

Michel TALON


Avatar
R12y
On Fri, 31 Mar 2006 20:13:00 +0200, Blaise Potard wrote:

Les résultats ? Que veux-tu dire ? Si tu veux dire les performances, ça
doit bien faire deux ans que les opterons explosent sans problème tous
les p4 et autres xeon (ce qui explique en partie pourquoi Intel a perdu
tant de part de marché).


C'est pas ce que j'ai cru comprendre dans le fil de discussion ou je
faisais le parallèle AMD/Intel Linux/Windows.
Si j'ai compris ce qui est dit, il semble que le seul processeur réusi
d'AMD ait été le k6. Le reste ne fut "pas grand chose". Ou alors j'ai
(encore) mal lu...

--
Debian/apt Repo: http://locataire-serveur.info/sections/liens/debian-repository
Fedora/yum Repo: http://locataire-serveur.info/sections/liens/fedora-core-yum

Avatar
talon
R12y wrote:
On Fri, 31 Mar 2006 20:13:00 +0200, Blaise Potard wrote:

Les résultats ? Que veux-tu dire ? Si tu veux dire les performances, ça
doit bien faire deux ans que les opterons explosent sans problème tous
les p4 et autres xeon (ce qui explique en partie pourquoi Intel a perdu
tant de part de marché).


C'est pas ce que j'ai cru comprendre dans le fil de discussion ou je
faisais le parallèle AMD/Intel Linux/Windows.
Si j'ai compris ce qui est dit, il semble que le seul processeur réusi
d'AMD ait été le k6. Le reste ne fut "pas grand chose". Ou alors j'ai
(encore) mal lu...



Tu as mal compris; Ce qu'il voulait dire c'est qu'à partir de l'Athlon les
processeurs AMD ont été meilleurs que les processeurs Intel. Un Athlon
avait aisément les perfs d'un Intel de fréquence supérieure, avec l'Athlon64
et l'Opteron ça a été encore pire. Apparemment les nouveaux processeurs Intel
qui ont été béta testés ici et là ont fait de gros progrés et sont supérieurs
à ce que fait AMD, mais d'un autre coté, AMD n'a pas encore sorti sa nouvelle
génération de modèles. Les nouveaux processeurs Intel ont été conçus par les
Israéliens à Haifa et non par les ingénieurs américains, ils sont dérivés de
l'architecture de ce qui se trouve dans les portables Centrino.

--

Michel TALON


Avatar
Ploc
Michel Talon wrote:
Il paraît que le directeur du CERN fait la
chasse aux gens qui regardent du porno sur leurs PC pour consacrer un maximum
de ressources à ses calculs. A mon avis ça ne sera pas plus utile pour
l'avancement de la science, mais qui sait?


Si quand meme, ca libere la machine et le cerveau.

Avatar
Jérémy JUST
Le Fri, 31 Mar 2006 22:48:53 +0000 (UTC),

Une situation très fréquente: 100 calculs se font en parallèle,
mais sur le même jeu de données. Dans ce cas, ce serait une énorme
perte d'avoir 100 machines indépendantes; il est beaucoup plus
économique d'avoir un multiprocesseur.
Non, ce n'est pas une situation fréquente du tout.



Toutes les bases de données peuvent être vues comme ça: les données
sont montées une fois en mémoire, et chaque processus de requête peut
les consulter indépendamment.

Dans mon précédent post, je pensais à une architecture de ce genre
pour un cas particulier: quand on annote un génome en lui comparant des
ARN messagers et des protéines, on monte tout le génome en mémoire, en
un seul exemplaire, puis on donne quelques ARNm/protéines à chaque
thread de requête, qui fera la comparaison.


Ca suppose d'avoir découpé son calcul en parties indépendantes, ça
suppose d'avoir programmé des procédures de synchronisation, bref
c'est un merdier pas possible.


En théorie, oui, mais en pratique, il y a des cas (voir ci-dessus) où
ça se fait naturellement.


Les gens qui ont fait ça sur des programmes comme la simulation météo
ont mis des années à mettre les programmes au point


Parce qu'en météo, les processus ne sont pas naturellement
découpables: chaque cellule influe sur toutes ses voisines, qui influent
à leur tour sur toutes leurs voisines... Au final, si on arrive à
découper, c'est juste parce qu'on accepte de négliger l'influence
immédiate de cellules lointaines (et leurs papillons).


Historiquement les supercalculateurs vectoriels comme les Cray ont
été complètement déplacés par les clusters de bêtes PC sous Linux
pour la grande majorité des calculs scientifiques.


Autour de moi, je vois différents laboratoires qui se vantent d'avoir
monté des clusters x86/Linux à 40 noeuds pour le prix d'une quadripro
SPARC... Sauf qu'au final, avec leurs calculs, ils ne peuvent tirer de
leur cluster que l'équivalent de la puissance de la quadripro, parce
que leurs problèmes auraient besoin d'une mémoire partagée.


--
Jérémy JUST


Avatar
fenkys
G-raison wrote:

Et on n'a encore rien vu. Imagine quand on pourra faire de la
vraie holographie au niveau atomique et enregistrer un être humain
au complet...



Oui ben je vais te dire un truc, s'ils veulent enregister mon être ils
ont du boulot!
Vu la complexité.

Et si un jour on perd ce disque?
Si un jour il n'y a plus de courant?
Les livres ont pourra toujours les lire, eux.



C'est deja arrivé. Redbus tu connais ?

Et un tel disque peut servir a creer des serveurs mutualisés sur
Internet. En le divisant en zone de 100 Mo a 3 euros par mois chacune,
ca peut faire vivre.


LD


Avatar
R12y
On Tue, 28 Mar 2006 23:25:28 +0200, G-raison wrote:
C'est incroyable l'informatique quand même.
[...]

C'est drôle le progrès quand même.


Dans le même genre de machin qui tue:
http://www.matbe.com/actualites/11985/

[Une carte mère ATX à 300EUR]

Elle peut accueillir deux processeurs AMD Opteron sur Socket 940 et
jusqu'à 32 Go de mémoire DDR ECC Registered via les 8 emplacements
disponibles.

--
Debian/apt Repo: http://locataire-serveur.info/sections/liens/debian-repository
Fedora/yum Repo: http://locataire-serveur.info/sections/liens/fedora-core-yum

Avatar
G-raison
R12y wrote:

Dans le même genre de machin qui tue:
[Une carte mère ATX à 300EUR]


Oui, et tout ça pour jouer!
Là, c'est sûr que ça doit tourner les jeux.
Mais ce doit être bruyant quand même.

--
@+
gr

Avatar
G-raison
fenkys wrote:


C'est deja arrivé. Redbus tu connais ?



Non, je ne connais pas Redbus.
--
@+
gr

3 4 5 6 7