à l'autre bout, sans passer par les brames). La machine en question disposait d'un tas de capteurs un peu partout et permettait d'afficher sous formes de courbes les relevés effectués. Et tu sais ce qui faisait tourner ça ? Quelques Vax sous VMS ....
Aujourd'hui on appelle cela une machine à calculer, et ca coûte 30 EUROS
/me n'aimerais pas habiter à coté d'une usine automatisée par Cagoijooo, qui vient une fois de plus de confirmer ses grandes connaissances en matière d'informatique d'entreprise.
-- <tth> http://www.bashfr.org/?1138 <tth> o/ mon premier bashfr o/ <tth> quel bonheur insoutenable :-)
On 2009-06-19, Cajoigooo <_@> wrote:
à l'autre bout, sans passer par les brames). La machine en question
disposait d'un tas de capteurs un peu partout et permettait d'afficher
sous formes de courbes les relevés effectués. Et tu sais ce qui
faisait tourner ça ? Quelques Vax sous VMS ....
Aujourd'hui on appelle cela une machine à calculer, et ca coûte 30
EUROS
/me n'aimerais pas habiter à coté d'une usine automatisée par
Cagoijooo, qui vient une fois de plus de confirmer ses grandes
connaissances en matière d'informatique d'entreprise.
--
<tth> http://www.bashfr.org/?1138
<tth> o/ mon premier bashfr o/
<tth> quel bonheur insoutenable :-)
à l'autre bout, sans passer par les brames). La machine en question disposait d'un tas de capteurs un peu partout et permettait d'afficher sous formes de courbes les relevés effectués. Et tu sais ce qui faisait tourner ça ? Quelques Vax sous VMS ....
Aujourd'hui on appelle cela une machine à calculer, et ca coûte 30 EUROS
/me n'aimerais pas habiter à coté d'une usine automatisée par Cagoijooo, qui vient une fois de plus de confirmer ses grandes connaissances en matière d'informatique d'entreprise.
-- <tth> http://www.bashfr.org/?1138 <tth> o/ mon premier bashfr o/ <tth> quel bonheur insoutenable :-)
Thierry B
On 2009-06-19, Patrice Karatchentzeff wrote:
Tu sais ce qu'est un FAP ?
La nouvelle plonkeuse de chez Prumpleffer ?
On 2009-06-19, Patrice Karatchentzeff <p.karatchentzeff@free.fr> wrote:
Et bon, c'est marrant cette schizophrénie à critiquer la ligne de commande et la présenter comme une innovation majeure de W2008...
Tu ne comprends pas malheureux, PowerShell utilise le framework .NET, ça le rend GÉ-NI-AL et révolutionnaire.
Pfeeeeuuuu, encore une GNOMErie overbloatée...
-- Clapotis ineffable à l'éveil d'incroyables cyphistomes au fanon manquant ou vieux lamantins dubitatifs que berçent de leur geste lent et scandé les thuriféraires minarchistes s'enfuyant de la baie de Turing.
On 2009-06-19, Vivien Moreau <vpm@serengetty.fr> wrote:
Et bon, c'est marrant cette schizophrénie à critiquer la ligne de
commande et la présenter comme une innovation majeure de W2008...
Tu ne comprends pas malheureux, PowerShell utilise le framework .NET,
ça le rend GÉ-NI-AL et révolutionnaire.
Pfeeeeuuuu, encore une GNOMErie overbloatée...
--
Clapotis ineffable à l'éveil d'incroyables cyphistomes au fanon manquant
ou vieux lamantins dubitatifs que berçent de leur geste lent et scandé
les thuriféraires minarchistes s'enfuyant de la baie de Turing.
Et bon, c'est marrant cette schizophrénie à critiquer la ligne de commande et la présenter comme une innovation majeure de W2008...
Tu ne comprends pas malheureux, PowerShell utilise le framework .NET, ça le rend GÉ-NI-AL et révolutionnaire.
Pfeeeeuuuu, encore une GNOMErie overbloatée...
-- Clapotis ineffable à l'éveil d'incroyables cyphistomes au fanon manquant ou vieux lamantins dubitatifs que berçent de leur geste lent et scandé les thuriféraires minarchistes s'enfuyant de la baie de Turing.
Toxico Nimbus
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA1
totof2000 a écrit :
On 20 juin, 11:34, Cumbalero wrote:
Laurent P a écrit :
Je ne pense pas qu'un particulier de l'époque en a eu entre les mains à
Ben, en 73, je pense que peu de particuliers aient jamais eu le moindre équipement informatique de toutes façons...
C'est bien Apple qui a démocratisé la souris.
Aidé par Atari et sa série ST.
Non je ne suis pas d'accord: c'est l'Amiga et son A500 qui ont démocratisé l'usage de la souris. L'Atati ST n'était qu'une sous- machine.
Parfaitement d'accord. D'ailleur chez Atari même la souris était toute pourrie.
- -- Toxico Nimbus -----BEGIN PGP SIGNATURE----- Version: GnuPG v1.4.7 (MingW32) Comment: Using GnuPG with Mozilla - http://enigmail.mozdev.org
Il y a juste un truc que tu ne comprends pas avec ton esprit étriqué. Il y a une courbe coût en fonction de la puissance. Cette courbe, tu peux la prendre dans tous les sens, elle est en forme de cloche.
Ah bon, le coût diminue quand la puissance augmente à partir d'un certain point ?
Le ratio _total_ entre le vrai Gflop _disponible_ et le coût réel (électricité comprise).
Tu as parlé au départ de la "courbe coût en fonction de la puissance", pas du ratio.
Il y a un autre truc qui t'échappe. Ces _supercalculateurs_ comme tu les appelle, sont plus des clusters qu'une seule machine.
Ben oui, et alors ? Seul le résultat compte, non ? Que ce soit un cluster ou une machine unique je ne vois pas très bien ce que ça change.
Beaucoup de chose en terme d'efficacité.
Tout dépend.
Oui, c'est exactement ce que je dis depuis plusieurs jours : un cluster de PC (ou de n'importe quoi d'ailleurs) permet d'atteindre la même puissance qu'une machine "unique" pour souvent beaucoup moins cher. La contrepartie est que c'est plus chiant à programmer.
Non, c'est faux. C'est seulement dans des cas particuliers de parallélisation. Et tu oublies un peu facilement que la puissante totale de ton cluster n'est pas la somme des puissances des noeuds, ce serait trop simple.
Si les besoins de communications inter-noeuds sont réduits, c'est le cas.
Maintenant, si tu prends directement le bon OS sur ton cluster, la programmation est transparente (ça s'appelle cluster SSI, c'est disponible sous Solaris par un paquet externe et nativement dans OpenVMS).
C'est plus ou moins du NUMA logiciel, ça, non ?
Les grosses machines à mémoire plus ou moins partagée c'est très beau technologiquement, mais c'est très cher et les cas où c'est plus ou moins indispensable sont exceptionnels.
Largement moins que tu n'arrives à l'imaginer. Mon truc, ce sont des calculs d'optimisation combinatoire. Des trucs qui se parallélisent, mais assez subtilement. J'ai essayé à peu près tout ce qui se fait entre le cluster de PC et le gros calculateur à base de Power et en passant par les coolthreads. L'avantage est très nettement à la machine unique parce que tu tues des threads dont tu sais a priori qu'ils ne donneront rien et que tu es contraint de maintenir des données de plusieurs gigaoctets _partagées_ entre les threads. Un cluster a là-dessus des performances médiocres. Maintenant, si tu fais des éléments finis, un cluster peut prendre un certain sens et se justifier, mais c'est le cluster de calcul qui est marginal vis à vis de _toutes_ les autres applications scientifiques.
J'ai plutôt l'impression que c'est le genre de trucs que tu fais qui est marginal par rapport aux autres applis scientifiques.
Maintenant, quand on est passé aux clusters, il a fallu réécrire presque entièrement certains codes de calculs pour qu'ils soient efficaces sur les clusters.
-- pehache http://pehache.free.fr/public.html
"JKB" <knatschke@koenigsberg.fr> a écrit dans le message de news:
slrnh3k5gr.3ic.knatschke@rayleigh.systella.fr
Il y a juste un truc que tu ne comprends pas avec ton esprit
étriqué. Il y a une courbe coût en fonction de la puissance. Cette
courbe, tu peux la prendre dans tous les sens, elle est en forme de
cloche.
Ah bon, le coût diminue quand la puissance augmente à partir d'un
certain point ?
Le ratio _total_ entre le vrai Gflop _disponible_ et le coût réel
(électricité comprise).
Tu as parlé au départ de la "courbe coût en fonction de la puissance", pas
du ratio.
Il y a un autre truc qui t'échappe. Ces _supercalculateurs_ comme tu
les appelle, sont plus des clusters qu'une seule machine.
Ben oui, et alors ? Seul le résultat compte, non ? Que ce soit un
cluster ou une machine unique je ne vois pas très bien ce que ça
change.
Beaucoup de chose en terme d'efficacité.
Tout dépend.
Oui, c'est exactement ce que je dis depuis plusieurs jours : un
cluster de PC (ou de n'importe quoi d'ailleurs) permet d'atteindre la
même puissance qu'une machine "unique" pour souvent beaucoup moins
cher. La contrepartie est que c'est plus chiant à programmer.
Non, c'est faux. C'est seulement dans des cas particuliers de
parallélisation. Et tu oublies un peu facilement que la puissante
totale de ton cluster n'est pas la somme des puissances des noeuds, ce
serait trop simple.
Si les besoins de communications inter-noeuds sont réduits, c'est le cas.
Maintenant, si tu prends directement le bon OS
sur ton cluster, la programmation est transparente (ça s'appelle
cluster SSI, c'est disponible sous Solaris par un paquet externe et
nativement dans OpenVMS).
C'est plus ou moins du NUMA logiciel, ça, non ?
Les grosses machines à mémoire plus ou moins partagée c'est très beau
technologiquement, mais c'est très cher et les cas où c'est plus ou
moins indispensable sont exceptionnels.
Largement moins que tu n'arrives à l'imaginer. Mon truc, ce sont des
calculs d'optimisation combinatoire. Des trucs qui se parallélisent,
mais assez subtilement. J'ai essayé à peu près tout ce qui se fait
entre le cluster de PC et le gros calculateur à base de Power et en
passant
par les coolthreads. L'avantage est très nettement à la machine unique
parce que tu tues des threads dont tu sais a priori qu'ils ne
donneront rien et que tu es contraint de maintenir des données de
plusieurs gigaoctets _partagées_ entre les threads. Un cluster a
là-dessus des performances médiocres. Maintenant, si tu fais des
éléments finis, un cluster peut prendre un certain sens et se
justifier, mais c'est le cluster de calcul qui est marginal vis à vis
de _toutes_ les autres applications scientifiques.
J'ai plutôt l'impression que c'est le genre de trucs que tu fais qui est
marginal par rapport aux autres applis scientifiques.
Maintenant, quand on est passé aux clusters, il a fallu réécrire presque
entièrement certains codes de calculs pour qu'ils soient efficaces sur les
clusters.
Il y a juste un truc que tu ne comprends pas avec ton esprit étriqué. Il y a une courbe coût en fonction de la puissance. Cette courbe, tu peux la prendre dans tous les sens, elle est en forme de cloche.
Ah bon, le coût diminue quand la puissance augmente à partir d'un certain point ?
Le ratio _total_ entre le vrai Gflop _disponible_ et le coût réel (électricité comprise).
Tu as parlé au départ de la "courbe coût en fonction de la puissance", pas du ratio.
Il y a un autre truc qui t'échappe. Ces _supercalculateurs_ comme tu les appelle, sont plus des clusters qu'une seule machine.
Ben oui, et alors ? Seul le résultat compte, non ? Que ce soit un cluster ou une machine unique je ne vois pas très bien ce que ça change.
Beaucoup de chose en terme d'efficacité.
Tout dépend.
Oui, c'est exactement ce que je dis depuis plusieurs jours : un cluster de PC (ou de n'importe quoi d'ailleurs) permet d'atteindre la même puissance qu'une machine "unique" pour souvent beaucoup moins cher. La contrepartie est que c'est plus chiant à programmer.
Non, c'est faux. C'est seulement dans des cas particuliers de parallélisation. Et tu oublies un peu facilement que la puissante totale de ton cluster n'est pas la somme des puissances des noeuds, ce serait trop simple.
Si les besoins de communications inter-noeuds sont réduits, c'est le cas.
Maintenant, si tu prends directement le bon OS sur ton cluster, la programmation est transparente (ça s'appelle cluster SSI, c'est disponible sous Solaris par un paquet externe et nativement dans OpenVMS).
C'est plus ou moins du NUMA logiciel, ça, non ?
Les grosses machines à mémoire plus ou moins partagée c'est très beau technologiquement, mais c'est très cher et les cas où c'est plus ou moins indispensable sont exceptionnels.
Largement moins que tu n'arrives à l'imaginer. Mon truc, ce sont des calculs d'optimisation combinatoire. Des trucs qui se parallélisent, mais assez subtilement. J'ai essayé à peu près tout ce qui se fait entre le cluster de PC et le gros calculateur à base de Power et en passant par les coolthreads. L'avantage est très nettement à la machine unique parce que tu tues des threads dont tu sais a priori qu'ils ne donneront rien et que tu es contraint de maintenir des données de plusieurs gigaoctets _partagées_ entre les threads. Un cluster a là-dessus des performances médiocres. Maintenant, si tu fais des éléments finis, un cluster peut prendre un certain sens et se justifier, mais c'est le cluster de calcul qui est marginal vis à vis de _toutes_ les autres applications scientifiques.
J'ai plutôt l'impression que c'est le genre de trucs que tu fais qui est marginal par rapport aux autres applis scientifiques.
Maintenant, quand on est passé aux clusters, il a fallu réécrire presque entièrement certains codes de calculs pour qu'ils soient efficaces sur les clusters.