Bonjour.
Je poste ici, because, je ne sais pas où posté ma question.
En ce moment, j'ai affaire avec des pseudos admin windows. Le genre de
mecs qui sont devenu admin parce qu'ils étaient doué aux clicks de souris
(la lèche a dû aussi compter pas mal). Ils ont des pérjugés sur Unix, Linux et
tous les autres OS. C'est assez flippant. Est ce que quelqu'un a une url
qui donne un récapitulatif des capacités de Linux. Les architectures
supportés, etc. Ca m'arrangerait, parce que que ce que je trouve avec
google.com/linux. C'est pas top...
Merci d'avance.
OoO Pendant le temps de midi du mardi 04 novembre 2003, vers 12:41, azathoth disait:
J'ai dit avoir eu des NT (sous entendu du 4.0) avec un à deux ans d'uptime. Comme ceux-ci étaient dans un environnement particulier, il n'y avait pas besoin de les patcher spécialement hormis les besoins spécifiques à la prod et à aux éléments validés.
Trop gros, passera pas. Même chez microsoft quand ils ont eu 3 mois d'uptime avec windows 2003, ils l'ont publié sur leur site tellement ca leur semblait fabuleux.
Ça fait plaisir de voir qu'on est d'accord là-dessus. :) -- prom_printf("Detected PenguinPages, getting out of here.n"); 2.0.38 /usr/src/linux/arch/sparc/mm/srmmu.c
OoO Pendant le temps de midi du mardi 04 novembre 2003, vers 12:41,
azathoth <azathoth@alussinan.org> disait:
J'ai dit avoir eu des NT (sous entendu du 4.0) avec un à deux ans
d'uptime. Comme ceux-ci étaient dans un environnement particulier, il
n'y avait pas besoin de les patcher spécialement hormis les besoins
spécifiques à la prod et à aux éléments validés.
Trop gros, passera pas. Même chez microsoft quand ils ont eu 3 mois
d'uptime avec windows 2003, ils l'ont publié sur leur site tellement ca
leur semblait fabuleux.
Ça fait plaisir de voir qu'on est d'accord là-dessus. :)
--
prom_printf("Detected PenguinPages, getting out of here.n");
2.0.38 /usr/src/linux/arch/sparc/mm/srmmu.c
OoO Pendant le temps de midi du mardi 04 novembre 2003, vers 12:41, azathoth disait:
J'ai dit avoir eu des NT (sous entendu du 4.0) avec un à deux ans d'uptime. Comme ceux-ci étaient dans un environnement particulier, il n'y avait pas besoin de les patcher spécialement hormis les besoins spécifiques à la prod et à aux éléments validés.
Trop gros, passera pas. Même chez microsoft quand ils ont eu 3 mois d'uptime avec windows 2003, ils l'ont publié sur leur site tellement ca leur semblait fabuleux.
Ça fait plaisir de voir qu'on est d'accord là-dessus. :) -- prom_printf("Detected PenguinPages, getting out of here.n"); 2.0.38 /usr/src/linux/arch/sparc/mm/srmmu.c
talon
Emmanuel Florac wrote:
Dans article <bo7rv2$18eb$, disait...
Dans l'état actuel des choses, on peut construire des clusters d'une puissance considérable, laissant à des années lumières tous les multiprocs de la création, simplement avec des biprocs du marché,
Mais oui, papy, allez, prend ta pilule :) Non, on ne peut pas tout faire avec des clusters. Et on peut mettre les supercalculateurs en clusters aussi bien que des PC à trois francs.
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet. Ce matériel existe, coute cher, mais beaucoup moins que du matos spécialisé multiproc. Par exemple le mec de Virginie a dépensé 5M$ dont environ 3M$ pour les Macs, ce qui laisse 2M$ pour le reste. Le succés repose aussi sur le fait que les calculs ont été découpés en bouts suffisamment indépendants, et ça c'est exactement pareil pour un cluster ou un multiproc.
--
Michel TALON
Emmanuel Florac <eflorac@verisign.com> wrote:
Dans article <bo7rv2$18eb$1@asmodee.lpthe.jussieu.fr>,
talon@lpthe.jussieu.fr disait...
Dans l'état actuel des choses, on peut construire des clusters d'une
puissance considérable, laissant à des années lumières tous les
multiprocs de la création, simplement avec des biprocs du marché,
Mais oui, papy, allez, prend ta pilule :) Non, on ne peut pas tout faire
avec des clusters. Et on peut mettre les supercalculateurs en clusters
aussi bien que des PC à trois francs.
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les
simulations de bombe atomique, et de même les américains à Los Alamos.
Il ne faut pas croire les légendes que te racontent les marchands de
matos pour vendre des gros multiprocs à des sommes astronomiques. Les
clusters efficaces reposent sur du matériel réseau performant, tel que
le myrinet. Ce matériel existe, coute cher, mais beaucoup moins que du
matos spécialisé multiproc. Par exemple le mec de Virginie a dépensé 5M$
dont environ 3M$ pour les Macs, ce qui laisse 2M$ pour le reste. Le
succés repose aussi sur le fait que les calculs ont été découpés en
bouts suffisamment indépendants, et ça c'est exactement pareil pour un
cluster ou un multiproc.
Dans l'état actuel des choses, on peut construire des clusters d'une puissance considérable, laissant à des années lumières tous les multiprocs de la création, simplement avec des biprocs du marché,
Mais oui, papy, allez, prend ta pilule :) Non, on ne peut pas tout faire avec des clusters. Et on peut mettre les supercalculateurs en clusters aussi bien que des PC à trois francs.
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet. Ce matériel existe, coute cher, mais beaucoup moins que du matos spécialisé multiproc. Par exemple le mec de Virginie a dépensé 5M$ dont environ 3M$ pour les Macs, ce qui laisse 2M$ pour le reste. Le succés repose aussi sur le fait que les calculs ont été découpés en bouts suffisamment indépendants, et ça c'est exactement pareil pour un cluster ou un multiproc.
--
Michel TALON
Wild Thing
Loic Tortay wrote:
Accessoirement, ils ont fait construire une salle machine gigantesque spécialement pour héberger ce cluster et, vu la taille de la salle et son infrastructure (clim et électricité) cela a également été couteux.
Et vu qu'il a fallu creuser pour l'enterrer la salle ils n'ont pas vraiment fait d'économie sur l'infra d'accueil... :-)
-- Webcrawler, beware the beast in black... Wild Thing !
Loic Tortay wrote:
Accessoirement, ils ont fait construire une salle machine gigantesque
spécialement pour héberger ce cluster et, vu la taille de la salle et son
infrastructure (clim et électricité) cela a également été couteux.
Et vu qu'il a fallu creuser pour l'enterrer la salle ils n'ont pas
vraiment fait d'économie sur l'infra d'accueil...
:-)
--
Webcrawler, beware the beast in black...
Wild Thing !
Accessoirement, ils ont fait construire une salle machine gigantesque spécialement pour héberger ce cluster et, vu la taille de la salle et son infrastructure (clim et électricité) cela a également été couteux.
Et vu qu'il a fallu creuser pour l'enterrer la salle ils n'ont pas vraiment fait d'économie sur l'infra d'accueil... :-)
-- Webcrawler, beware the beast in black... Wild Thing !
Emmanuel Florac
Dans article <boae2p$1qiv$, disait...
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et que le calcul est global, comment tu fais avec un cluster, mmmh?
-- Quis, quid, ubi, quibus auxiliis, cur, quomodo, quando?
Dans article <boae2p$1qiv$1@asmodee.lpthe.jussieu.fr>,
talon@lpthe.jussieu.fr disait...
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les
simulations de bombe atomique, et de même les américains à Los Alamos.
Il ne faut pas croire les légendes que te racontent les marchands de
matos pour vendre des gros multiprocs à des sommes astronomiques. Les
clusters efficaces reposent sur du matériel réseau performant, tel que
le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et
que le calcul est global, comment tu fais avec un cluster, mmmh?
--
Quis, quid, ubi, quibus auxiliis, cur, quomodo, quando?
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et que le calcul est global, comment tu fais avec un cluster, mmmh?
-- Quis, quid, ubi, quibus auxiliis, cur, quomodo, quando?
talon
Emmanuel Florac wrote:
Dans article <boae2p$1qiv$, disait...
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et que le calcul est global, comment tu fais avec un cluster, mmmh?
T'as aussi un mainframe avec 500 Go de mémoire? Parceque sinon, et si sur chaque bout du fichier il y a un traîtement non négligeable, tu peux encore t'arranger à délocaliser ces traîtements sur un cluster et les couts de communication ne seront pas dramatiques. Evidemment si tu fais juste des accés aléatoires partout dans le fichier avec trés peu de traîtement, il ne te reste plus que le mainframe.
--
Michel TALON
Emmanuel Florac <eflorac@verisign.com> wrote:
Dans article <boae2p$1qiv$1@asmodee.lpthe.jussieu.fr>,
talon@lpthe.jussieu.fr disait...
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les
simulations de bombe atomique, et de même les américains à Los Alamos.
Il ne faut pas croire les légendes que te racontent les marchands de
matos pour vendre des gros multiprocs à des sommes astronomiques. Les
clusters efficaces reposent sur du matériel réseau performant, tel que
le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et
que le calcul est global, comment tu fais avec un cluster, mmmh?
T'as aussi un mainframe avec 500 Go de mémoire? Parceque sinon, et
si sur chaque bout du fichier il y a un traîtement non négligeable,
tu peux encore t'arranger à délocaliser ces traîtements sur un cluster
et les couts de communication ne seront pas dramatiques.
Evidemment si tu fais juste des accés aléatoires partout dans le fichier
avec trés peu de traîtement, il ne te reste plus que le mainframe.
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et que le calcul est global, comment tu fais avec un cluster, mmmh?
T'as aussi un mainframe avec 500 Go de mémoire? Parceque sinon, et si sur chaque bout du fichier il y a un traîtement non négligeable, tu peux encore t'arranger à délocaliser ces traîtements sur un cluster et les couts de communication ne seront pas dramatiques. Evidemment si tu fais juste des accés aléatoires partout dans le fichier avec trés peu de traîtement, il ne te reste plus que le mainframe.
--
Michel TALON
azathoth
In article (Dans l'article) , Vincent Bernat wrote (écrivait) :
Trop gros, passera pas. Même chez microsoft quand ils ont eu 3 mois d'uptime avec windows 2003, ils l'ont publié sur leur site tellement ca leur semblait fabuleux.
Ça fait plaisir de voir qu'on est d'accord là-dessus. :)
T'inquiète on va bien finir par trouver un autre sujet de discorde :-)
In article (Dans l'article) <m33cd3vhx1.fsf@neo.loria>, Vincent Bernat
<vincent.bernat@raysa.org> wrote (écrivait) :
Trop gros, passera pas. Même chez microsoft quand ils ont eu 3 mois
d'uptime avec windows 2003, ils l'ont publié sur leur site tellement ca
leur semblait fabuleux.
Ça fait plaisir de voir qu'on est d'accord là-dessus. :)
T'inquiète on va bien finir par trouver un autre sujet de discorde :-)
In article (Dans l'article) , Vincent Bernat wrote (écrivait) :
Trop gros, passera pas. Même chez microsoft quand ils ont eu 3 mois d'uptime avec windows 2003, ils l'ont publié sur leur site tellement ca leur semblait fabuleux.
Ça fait plaisir de voir qu'on est d'accord là-dessus. :)
T'inquiète on va bien finir par trouver un autre sujet de discorde :-)
Richard Delorme
Dans article <boae2p$1qiv$, disait...
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et que le calcul est global, comment tu fais avec un cluster, mmmh?
Il existe des systèmes de fichiers distribués, par exemple : http://www-1.ibm.com/servers/eserver/clusters/software/gpfs.html
-- Richard
Dans article <boae2p$1qiv$1@asmodee.lpthe.jussieu.fr>,
talon@lpthe.jussieu.fr disait...
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les
simulations de bombe atomique, et de même les américains à Los Alamos.
Il ne faut pas croire les légendes que te racontent les marchands de
matos pour vendre des gros multiprocs à des sommes astronomiques. Les
clusters efficaces reposent sur du matériel réseau performant, tel que
le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et
que le calcul est global, comment tu fais avec un cluster, mmmh?
Il existe des systèmes de fichiers distribués, par exemple :
http://www-1.ibm.com/servers/eserver/clusters/software/gpfs.html
C'est pour ça que le CEA s'est acheté un cluster d'alpha pour faire les simulations de bombe atomique, et de même les américains à Los Alamos. Il ne faut pas croire les légendes que te racontent les marchands de matos pour vendre des gros multiprocs à des sommes astronomiques. Les clusters efficaces reposent sur du matériel réseau performant, tel que le myrinet.
Moi je veux bien, mais quand tu calcules sur des fichiers de 500 Go et que le calcul est global, comment tu fais avec un cluster, mmmh?
Il existe des systèmes de fichiers distribués, par exemple : http://www-1.ibm.com/servers/eserver/clusters/software/gpfs.html
-- Richard
Emmanuel Florac
Dans article <3fa954b5$0$6966$, disait...
Il existe des systèmes de fichiers distribués, par exemple : http://www-1.ibm.com/servers/eserver/clusters/software/gpfs.html
Tu as beau avoir un système distribué, dans les données géologiques ou météo, tu dois charger le modèle en mémoire globalement.
-- Quis, quid, ubi, quibus auxiliis, cur, quomodo, quando?
Dans article <3fa954b5$0$6966$7a628cd7@news.club-internet.fr>,
abulmo@nospam.fr disait...
Il existe des systèmes de fichiers distribués, par exemple :
http://www-1.ibm.com/servers/eserver/clusters/software/gpfs.html
Tu as beau avoir un système distribué, dans les données géologiques ou
météo, tu dois charger le modèle en mémoire globalement.
--
Quis, quid, ubi, quibus auxiliis, cur, quomodo, quando?
Il me semble que l'Altix tout neuf de total a 512 GO de RAM, en effet, et 16 To de stockage de base.
-- Quis, quid, ubi, quibus auxiliis, cur, quomodo, quando?
Naibed
Emmanuel Florac wrote in news::
Dans article <bobike$1s4e$, disait...
T'as aussi un mainframe avec 500 Go de mémoire?
Il me semble que l'Altix tout neuf de total a 512 GO de RAM, en effet, et 16 To de stockage de base.
*rien* a voir.
L'explication de Michel était correcte: un mainframe, c'est d'abord une machine optimisée pour les batchs et les I/O. Elle dispose pour ce faire d'une architecture que l'on en trouve que sur cette plate-forme.
L'architecture d'un supermini ou un supercalculateur est toute autre. Bref, c'est une question d'utiliser le bon outil pour le non usage.
Voir ma comparaison entre une voiture de course (un supercalculateur) et un mainframe (un de ces immenses tracteurs du texas): http://test.vaboofer.com/index.php/3033
N -- -+---------------+-----------------+-----------------+- Rien n'est plus beau ...(refrain connu) Rien n'est plus beau qu'une informaticienne faisant l'amour sur la console d'un mainframe. (s) Moi.
Emmanuel Florac <eflorac@verisign.com> wrote in
news:MPG.1a138dedc579870098d0b8@news.free.fr:
Dans article <bobike$1s4e$1@asmodee.lpthe.jussieu.fr>,
talon@lpthe.jussieu.fr disait...
T'as aussi un mainframe avec 500 Go de mémoire?
Il me semble que l'Altix tout neuf de total a 512 GO de RAM, en effet,
et 16 To de stockage de base.
*rien* a voir.
L'explication de Michel était correcte: un mainframe, c'est d'abord une
machine optimisée pour les batchs et les I/O. Elle dispose pour ce faire
d'une architecture que l'on en trouve que sur cette plate-forme.
L'architecture d'un supermini ou un supercalculateur est toute autre.
Bref, c'est une question d'utiliser le bon outil pour le non usage.
Voir ma comparaison entre une voiture de course (un supercalculateur)
et un mainframe (un de ces immenses tracteurs du texas):
http://test.vaboofer.com/index.php/3033
N
--
-+---------------+-----------------+-----------------+-
Rien n'est plus beau ...(refrain connu)
Rien n'est plus beau qu'une informaticienne faisant
l'amour sur la console d'un mainframe.
(s) Moi.
Il me semble que l'Altix tout neuf de total a 512 GO de RAM, en effet, et 16 To de stockage de base.
*rien* a voir.
L'explication de Michel était correcte: un mainframe, c'est d'abord une machine optimisée pour les batchs et les I/O. Elle dispose pour ce faire d'une architecture que l'on en trouve que sur cette plate-forme.
L'architecture d'un supermini ou un supercalculateur est toute autre. Bref, c'est une question d'utiliser le bon outil pour le non usage.
Voir ma comparaison entre une voiture de course (un supercalculateur) et un mainframe (un de ces immenses tracteurs du texas): http://test.vaboofer.com/index.php/3033
N -- -+---------------+-----------------+-----------------+- Rien n'est plus beau ...(refrain connu) Rien n'est plus beau qu'une informaticienne faisant l'amour sur la console d'un mainframe. (s) Moi.