OVH Cloud OVH Cloud

pc-linux Planet-saturn, retour d'expérience

346 réponses
Avatar
cloche
Bonjour à tous,

Donc je bosse dans un collège, et la saison des subvention permet
d'acheter des poste. Et ceux de PS étant intéressant niveau prix/config,
ce sont ceux qu'on a acheté.

Résultat : Le Mandrake linux Discovery annoncé est en fait un Linpus
Linux, distribution basée Mdk, sur laquelle je n'ai pas réussit à faire
un chti urpmi, ni même à trouver un outil graphique pour maj.
Bref, moi qui espérait un peu là-dessus pour convaincre de faire migrer
la salle info sous linux, pas de pot avec cette config à 2 sous...
Ouais, je sais, on en a pour son argent. Mais quand même...

La fin de l'aventure, totalement HS ici, mais bon, c'est que j'ai tout
viré pour refoutre win98 dessus (et ouais, je sais :-(). Ai pour ça
utilisé une knoppix, et QTParted, en 2 fois (obligation de redémarrer au
milieu), pour pouvoir supprimer les partitions et préparer/formater en
fat32. Et le fin du fin, aucun pilote fourni. Heureusement qu'il y a un
site.

En bref, le prix, 350€ l'UC pour 80Go, Celeron D et 512 Mo Ram se justifie.

Er

10 réponses

Avatar
remy
La difficulté était justement de générer un bruit blanc
uniquement en soft (en Fortran) en se basant sur des propriétés
mathématiques.


tu n'aurais pas un lien sous la main ou un debut de piste
ou un souvenir sur les proprietes et/ou fct mathematiques


Le fait de générer une distribution controlée (par exemple une
distribution Gaussienne) à partir d'un bruit blanc n'est pas du filtrage
mais de la mise en forme: on utilise tous les nombres générés comme
"bruit blanc" pour celà. C'est, si je me souviens bien, assez trivial,
d'ailleurs.
La grosse difficulté est de générer ce bruit blanc.

il y a comme un truc qui m'echappe

le but du jeu c'est quoi ?

alea -> mise en forme pour controle
gene+controle->test de l'alea

--
des conneries j'en ai dites oui oui je vous assure...
mais elles n'engagent que votre perception
remy

Avatar
Bertrand Servin
remy wrote:
La difficulté était justement de générer un bruit blanc
uniquement en soft (en Fortran) en se basant sur des propriétés
mathématiques.



tu n'aurais pas un lien sous la main ou un debut de piste
ou un souvenir sur les proprietes et/ou fct mathematiques


Un exemple d'algorithme de génération de nombres pseudo-aléatoires:
http://www.math.sci.hiroshima-u.ac.jp/~m-mat/MT/emt.html


Avatar
Michel Billaud
(Michel Talon) writes:

Benjamin FRANCOIS wrote:

Et ils ont tous fini dans les 10 premiers de promo, la majorité a fini
par un doctorat en info, d'autres sont développeurs, et il y en a même
un qui est sysadmin.



Combien d'entre eux ont écrit un logiciel important, combien ont
participé à l'amélioration de l'optimiseur de gcc, etc.


Bizarre cette fixation sur l'optimiseur de gcc....

MB
--
Michel BILLAUD
LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792
351, cours de la Libération http://www.labri.fr/~billaud
33405 Talence (FRANCE)


Avatar
l'indien
On Fri, 20 May 2005 11:58:11 +0200, remy wrote:


La difficulté était justement de générer un bruit blanc
uniquement en soft (en Fortran) en se basant sur des propriétés
mathématiques.


tu n'aurais pas un lien sous la main ou un debut de piste
ou un souvenir sur les proprietes et/ou fct mathematiques


Malheureusement, c'était un projet dans un labo de recherche sous contrat.
Ces travaux ne sont pas disponibles sur le net. Je dois surement avoir
encore des papiers concernant ce projet, dont sans doute les algorithmes
de départ qui étaient tirés de travaux mathématiques mais je serait
bien incapable de me rappeler qui avait signé ces publications.
Maintenant, après plus de dix ans et maints déménagements, je n'ai
aucune idée d'ou sont ces archives...

Le fait de générer une distribution controlée (par exemple une
distribution Gaussienne) à partir d'un bruit blanc n'est pas du filtrage
mais de la mise en forme: on utilise tous les nombres générés comme
"bruit blanc" pour celà. C'est, si je me souviens bien, assez trivial,
d'ailleurs.
La grosse difficulté est de générer ce bruit blanc.

il y a comme un truc qui m'echappe

le but du jeu c'est quoi ?

alea -> mise en forme pour controle
gene+controle->test de l'alea


Pas tout à fait:
alea -> mise en forme pour générer une variable aléatoire suivant une
distribution fixée
=> utilisation de la variable aléatoire pour simuler des états de
surfaces.
=> calculs mécanique à partir de ses états de surfaces
=> en parallèle, controle de la distribution de la variable aléatoire
générée avant et après mise en forme pour vérifier que le
générateur donne bien un bruit blanc non reproductible (donc
mettre en évidence des bugs éventuels dans le générateur de bruit
blanc) et que la variable aléatoire suit bien la distribution choisie
avec les bons paramêtres (pour valider les routines de génération de la
variable aléatoire).

La partie vérification n'est utile que pour valider la génération de
l'état de surface. Mais ce n'est pas du tout le but du calcul.
Simplement, ça permet de savoir que les calculs mécanique réalisés
ensuite sont fait à partir d'un état controlé et connu.

Comme dans tous les programmes de calcul scientifique que j'ai fait, on
essaye à chaque étape de calcul d'estimer l'erreur de calcul commise
avant de passer à la suite. Celà évite de continuer les calculs si les
erreurs ne sont pas dans les intervalles admis (soit fixés empiriquement,
soit tirés de résultats de mesures réalisés en condition réelles sur
le dispositif que l'on cherche à simuler) et donc de finir par délivrer
des résultats incohérents (mêmes s'il peuvent sembler corrects si on ne
regarde pas le détail des résultats intermédiaires).


Avatar
Michel Talon
Michel Billaud wrote:


Bizarre cette fixation sur l'optimiseur de gcc....

MB


Etonnant qu'on puisse s'intéresser à un secteur qui permet de faire
gagner directement un pourcentage important du temps d'exécution,
sans upgrader la machine, essentiellement en ne touchant à rien.
Bref un bénéfice totalement gratuit. Evidemment, tout ayant un prix,
le ticket d'entrée dans cette activité est plus élevé que pour la
rédaction de pages Web, fût-ce en php ...

Avatar
Michel Billaud
Michel Talon writes:

Michel Billaud wrote:

Bizarre cette fixation sur l'optimiseur de gcc....
MB


Etonnant qu'on puisse s'intéresser à un secteur qui permet de faire
gagner directement un pourcentage important du temps d'exécution,
sans upgrader la machine, essentiellement en ne touchant à rien.


S'y intéresser, certes, mais de là à nous en faire une pendule ?

Un peu comme si on jugeait toute l'activité des physiciens à leur
contribution personnelle à l'accélération des processeurs x86 (ou à
l'amélioration des postes de télé).

Bref un bénéfice totalement gratuit. Evidemment, tout ayant un prix,
le ticket d'entrée dans cette activité est plus élevé que pour la
rédaction de pages Web, fût-ce en php ...


PHP irait deux fois plus vite ou moins vite qu'il rendrait
sensiblement les mêmes services, la chose critique étant que
l'application programmée fasse ce qu'on lui dit de faire, et que ça
corresponde à ce dont l'utilisateur final a besoin.

En programmation comme ailleurs, il n'y a pas de sot métier.

MB
--
Michel BILLAUD
LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792
351, cours de la Libération http://www.labri.fr/~billaud
33405 Talence (FRANCE)


Avatar
Richard Delorme

Bizarre cette fixation sur l'optimiseur de gcc....

MB


Etonnant qu'on puisse s'intéresser à un secteur qui permet de faire
gagner directement un pourcentage important du temps d'exécution,
sans upgrader la machine, essentiellement en ne touchant à rien.
Bref un bénéfice totalement gratuit. Evidemment, tout ayant un prix,
le ticket d'entrée dans cette activité est plus élevé que pour la
rédaction de pages Web, fût-ce en php ...


Des gens pensent que c'est en effet une perte de temps :

http://www.cs.umd.edu/~pugh/IsCodeOptimizationRelevant.pdf

--
Richard


Avatar
Michel Talon
Richard Delorme wrote:


Bizarre cette fixation sur l'optimiseur de gcc....

MB


Etonnant qu'on puisse s'intéresser à un secteur qui permet de faire
gagner directement un pourcentage important du temps d'exécution,
sans upgrader la machine, essentiellement en ne touchant à rien.
Bref un bénéfice totalement gratuit. Evidemment, tout ayant un prix,
le ticket d'entrée dans cette activité est plus élevé que pour la
rédaction de pages Web, fût-ce en php ...



Des gens pensent que c'est en effet une perte de temps :

http://www.cs.umd.edu/~pugh/IsCodeOptimizationRelevant.pdf



Et à la lecture de ces transparents, on voit que l'argumentation
est incroyablement stupide. Apparemment l'une des rares choses qui le
préoccupe est "comment améliorer l'évaluation des papiers sur le sujet".
A vrai dire les papiers sur le sujet on s'en fout comme de sa première
chemise, tandis que l'amélioration effective de la vitesse d'exécution
intéresse à peu prés tout le monde. Qui plus est il y a des gens qui y
travaillent et obtiennent des résultats tout à fait significatifs, par
exemple les ingénieurs d'Intel pour le compilateur Intel et même
les ingénieurs que Suse a mis sur gcc. Finalement l'alpha et l'omega
de son argument c'est que la vitesse des processurs double tous les deux
ans, et bien il y a un bon moment que ceci n'est plus vrai.



Avatar
remy
bien incapable de me rappeler qui avait signé ces publications.
Maintenant, après plus de dix ans et maints déménagements, je n'ai
aucune idée d'ou sont ces archives...

en fin de compte cela tombe plutot bien

cela evite les prises de tete et /ou migraine

par contre je peux te dire le principe de mon gene il est base
sur la fct de repartition des nbs premiers

en gros

p0-p1=dif
et je fais la somme modulo 2 des chiffres de la difference
l'ecart entre p0 et p1 est defini par l'utilisateur ainsi que le point
d'entree

en une nuit de calcul cela donne en gros140k aucun cycle detecte
et taux de compression impressionnant
comparaison entre deux sorties differentes toutes ausi impressionnantes

par contre je ne suis vraiment pas sur que le principe
ne soit pas deja connu
mais comme l'implementation est liee a une autre prise de tete
je pense que cela doit etre relativement nouveau


aller j'arrete de te vendre mes anciennes obsession et depression nerveuse



--
des conneries j'en ai dites oui oui je vous assure...
mais elles n'engagent que votre perception
remy

Avatar
l'indien
On Sun, 22 May 2005 18:51:20 +0200, Michel Talon wrote:

Richard Delorme wrote:


Bizarre cette fixation sur l'optimiseur de gcc....

MB


Etonnant qu'on puisse s'intéresser à un secteur qui permet de faire
gagner directement un pourcentage important du temps d'exécution,
sans upgrader la machine, essentiellement en ne touchant à rien.
Bref un bénéfice totalement gratuit. Evidemment, tout ayant un prix,
le ticket d'entrée dans cette activité est plus élevé que pour la
rédaction de pages Web, fût-ce en php ...



Des gens pensent que c'est en effet une perte de temps :

http://www.cs.umd.edu/~pugh/IsCodeOptimizationRelevant.pdf



Et à la lecture de ces transparents, on voit que l'argumentation
est incroyablement stupide. Apparemment l'une des rares choses qui le
préoccupe est "comment améliorer l'évaluation des papiers sur le sujet".
A vrai dire les papiers sur le sujet on s'en fout comme de sa première
chemise, tandis que l'amélioration effective de la vitesse d'exécution
intéresse à peu prés tout le monde. Qui plus est il y a des gens qui y
travaillent et obtiennent des résultats tout à fait significatifs, par
exemple les ingénieurs d'Intel pour le compilateur Intel et même
les ingénieurs que Suse a mis sur gcc. Finalement l'alpha et l'omega
de son argument c'est que la vitesse des processurs double tous les deux
ans, et bien il y a un bon moment que ceci n'est plus vrai.


C'est grâce à des raisonements comme celà que Microsoft propose des
plates formes multi-média "qui nécéssitent un CPU à au moins 2 Ghz" et
coute 2000 euros alors qu'on sait fait des cartes embedded qui coutent
moins de 300 euros, avec des CPU < 500 Mhz (voire < 300 Mhz) qui font la
même chose... Par contre, les compilations (et le code) doivent être
légèrement optimisés...
Mais ça n'a, bien sur, aucun intérêt...