Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis
et réactions sur cette distrib dont j'ai lu qu'elle constituait un
must en la matière.
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis
et réactions sur cette distrib dont j'ai lu qu'elle constituait un
must en la matière.
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis
et réactions sur cette distrib dont j'ai lu qu'elle constituait un
must en la matière.
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis et
réactions sur cette distrib dont j'ai lu qu'elle constituait un must en
la matière.
Bernard
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis et
réactions sur cette distrib dont j'ai lu qu'elle constituait un must en
la matière.
Bernard
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis et
réactions sur cette distrib dont j'ai lu qu'elle constituait un must en
la matière.
Bernard
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis et
réactions sur cette distrib dont j'ai lu qu'elle constituait un must en
la matière.
Bernard
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis et
réactions sur cette distrib dont j'ai lu qu'elle constituait un must en
la matière.
Bernard
Qqun a-t-il déjà testé la distrib Gentoo? Je voudrais avoir vos avis et
réactions sur cette distrib dont j'ai lu qu'elle constituait un must en
la matière.
Bernard
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer mon
noyau, sur une slackware et une debian, et j'ai tout ce que je veux au niveau
performances.
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer mon
noyau, sur une slackware et une debian, et j'ai tout ce que je veux au niveau
performances.
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer mon
noyau, sur une slackware et une debian, et j'ai tout ce que je veux au niveau
performances.
Dans article <3f61814e$0$27594$,
disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer
mon noyau, sur une slackware et une debian, et j'ai tout ce que je veux
au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
Dans article <3f61814e$0$27594$626a54ce@news.free.fr>,
nikopole@free.fr.invalid disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer
mon noyau, sur une slackware et une debian, et j'ai tout ce que je veux
au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
Dans article <3f61814e$0$27594$,
disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer
mon noyau, sur une slackware et une debian, et j'ai tout ce que je veux
au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
Dans article <3f61814e$0$27594$,
disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer
mon noyau, sur une slackware et une debian, et j'ai tout ce que je veux
au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
AMHA, on peut rajouter XFree86, qui peut ainsi utiliser les instructions
MMX, SSE, 3Dnow, etc, et tout ce qui est multimedia : xine, mplayer, ...
Dans article <3f61814e$0$27594$626a54ce@news.free.fr>,
nikopole@free.fr.invalid disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer
mon noyau, sur une slackware et une debian, et j'ai tout ce que je veux
au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
AMHA, on peut rajouter XFree86, qui peut ainsi utiliser les instructions
MMX, SSE, 3Dnow, etc, et tout ce qui est multimedia : xine, mplayer, ...
Dans article <3f61814e$0$27594$,
disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et configurer
mon noyau, sur une slackware et une debian, et j'ai tout ce que je veux
au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
AMHA, on peut rajouter XFree86, qui peut ainsi utiliser les instructions
MMX, SSE, 3Dnow, etc, et tout ce qui est multimedia : xine, mplayer, ...
On Fri, 12 Sep 2003 11:57:21 +0200, Richard Delorme wrote:Dans article <3f61814e$0$27594$,
disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et
configurer mon noyau, sur une slackware et une debian, et j'ai tout ce
que je veux au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
AMHA, on peut rajouter XFree86, qui peut ainsi utiliser les instructions
MMX, SSE, 3Dnow, etc, et tout ce qui est multimedia : xine, mplayer, ...
XFree ne tire pas grand parti du SIMD... A part pour gratter quelques
% en vitesse sur les memcpy (mais c'est valable pour tous les programmes).
Le MMX n'est carrément pas rentable, sur ix86: le temps gagné dans
les routines MMX est largement reperdu lors des switchs de contextes
entre le mode FPU et le mode MMX (de 30 à 300 cycles suivant le CPU...).
Et les SSE et autres 3Dnow sont des extensions pour les flottants
qui ne servent pas à grand chose pour faire de l'affichage 2D.
Il n'y a guère que mesa qui puisse y gagner.
Par contre, en effet, les algorithmes de décompression et de
post-processing de vidéo sont facilement parallélisables et nécéssitent
des flottants. Pour ceux là, SSE2 est tout indiqué...
A part le calcul parrallèle (traitement d'image, resampling de son...),
les process ne gagnent rien de sensible avec les extensions SIMD...
Gcc gagne beaucoup plus à optimiser les algorithmes générés qu'à
essayer d'utiliser des instructions spéciales.
Bien sur, il évite
les instructions du 80286 qui sont devenues obsolètes (et émulées
en soft dans les CPU...), mais les quelques instructions concernées
ne font plus vraiment partie du language ix86...
On Fri, 12 Sep 2003 11:57:21 +0200, Richard Delorme wrote:
Dans article <3f61814e$0$27594$626a54ce@news.free.fr>,
nikopole@free.fr.invalid disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et
configurer mon noyau, sur une slackware et une debian, et j'ai tout ce
que je veux au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
AMHA, on peut rajouter XFree86, qui peut ainsi utiliser les instructions
MMX, SSE, 3Dnow, etc, et tout ce qui est multimedia : xine, mplayer, ...
XFree ne tire pas grand parti du SIMD... A part pour gratter quelques
% en vitesse sur les memcpy (mais c'est valable pour tous les programmes).
Le MMX n'est carrément pas rentable, sur ix86: le temps gagné dans
les routines MMX est largement reperdu lors des switchs de contextes
entre le mode FPU et le mode MMX (de 30 à 300 cycles suivant le CPU...).
Et les SSE et autres 3Dnow sont des extensions pour les flottants
qui ne servent pas à grand chose pour faire de l'affichage 2D.
Il n'y a guère que mesa qui puisse y gagner.
Par contre, en effet, les algorithmes de décompression et de
post-processing de vidéo sont facilement parallélisables et nécéssitent
des flottants. Pour ceux là, SSE2 est tout indiqué...
A part le calcul parrallèle (traitement d'image, resampling de son...),
les process ne gagnent rien de sensible avec les extensions SIMD...
Gcc gagne beaucoup plus à optimiser les algorithmes générés qu'à
essayer d'utiliser des instructions spéciales.
Bien sur, il évite
les instructions du 80286 qui sont devenues obsolètes (et émulées
en soft dans les CPU...), mais les quelques instructions concernées
ne font plus vraiment partie du language ix86...
On Fri, 12 Sep 2003 11:57:21 +0200, Richard Delorme wrote:Dans article <3f61814e$0$27594$,
disait...
Bref, après moultes prises de tête, j'ai appris à paufiner et
configurer mon noyau, sur une slackware et une debian, et j'ai tout ce
que je veux au niveau performances.
Un gcc bien optimisé est également beaucoup plus rapide (près de 30%!).
Les deux choses intéressantes à compiler soi-même : gcc et le noyau.
Sauf si on fait des trucs de calcul poussé, bien sûr.
AMHA, on peut rajouter XFree86, qui peut ainsi utiliser les instructions
MMX, SSE, 3Dnow, etc, et tout ce qui est multimedia : xine, mplayer, ...
XFree ne tire pas grand parti du SIMD... A part pour gratter quelques
% en vitesse sur les memcpy (mais c'est valable pour tous les programmes).
Le MMX n'est carrément pas rentable, sur ix86: le temps gagné dans
les routines MMX est largement reperdu lors des switchs de contextes
entre le mode FPU et le mode MMX (de 30 à 300 cycles suivant le CPU...).
Et les SSE et autres 3Dnow sont des extensions pour les flottants
qui ne servent pas à grand chose pour faire de l'affichage 2D.
Il n'y a guère que mesa qui puisse y gagner.
Par contre, en effet, les algorithmes de décompression et de
post-processing de vidéo sont facilement parallélisables et nécéssitent
des flottants. Pour ceux là, SSE2 est tout indiqué...
A part le calcul parrallèle (traitement d'image, resampling de son...),
les process ne gagnent rien de sensible avec les extensions SIMD...
Gcc gagne beaucoup plus à optimiser les algorithmes générés qu'à
essayer d'utiliser des instructions spéciales.
Bien sur, il évite
les instructions du 80286 qui sont devenues obsolètes (et émulées
en soft dans les CPU...), mais les quelques instructions concernées
ne font plus vraiment partie du language ix86...
On Sat, 13 Sep 2003 11:55:46 +0200, Richard Delorme wrote:
Quelques % ? chez moi, les memcpy utilisant les instructions MMX ou SSE
sont deux fois plus rapides (soit un gain de 100% en vitesse) que le
memcpy "traditionnel" de la glibc.
Je veux voir des exemples. J'ai fait des benches sur pas mal de ix86,
du Geode à l'Athlon XP et P-III en faisant des memcpy "classiques"
et des memcpy en MMX avec les prefetchs fait à la main.
Le plus gros gain que j'ai observé est de 30%, sur le Geode.
Les caches sont tellement optimisés, sur les CPU récents qu'ils
saturent déjà pratiquement le bus mémoire en permanence quand
on fait un bête:
rep movl ...
On Sat, 13 Sep 2003 11:55:46 +0200, Richard Delorme wrote:
Quelques % ? chez moi, les memcpy utilisant les instructions MMX ou SSE
sont deux fois plus rapides (soit un gain de 100% en vitesse) que le
memcpy "traditionnel" de la glibc.
Je veux voir des exemples. J'ai fait des benches sur pas mal de ix86,
du Geode à l'Athlon XP et P-III en faisant des memcpy "classiques"
et des memcpy en MMX avec les prefetchs fait à la main.
Le plus gros gain que j'ai observé est de 30%, sur le Geode.
Les caches sont tellement optimisés, sur les CPU récents qu'ils
saturent déjà pratiquement le bus mémoire en permanence quand
on fait un bête:
rep movl ...
On Sat, 13 Sep 2003 11:55:46 +0200, Richard Delorme wrote:
Quelques % ? chez moi, les memcpy utilisant les instructions MMX ou SSE
sont deux fois plus rapides (soit un gain de 100% en vitesse) que le
memcpy "traditionnel" de la glibc.
Je veux voir des exemples. J'ai fait des benches sur pas mal de ix86,
du Geode à l'Athlon XP et P-III en faisant des memcpy "classiques"
et des memcpy en MMX avec les prefetchs fait à la main.
Le plus gros gain que j'ai observé est de 30%, sur le Geode.
Les caches sont tellement optimisés, sur les CPU récents qu'ils
saturent déjà pratiquement le bus mémoire en permanence quand
on fait un bête:
rep movl ...
On Sat, 13 Sep 2003 11:55:46 +0200, Richard Delorme wrote:
Quelques % ? chez moi, les memcpy utilisant les instructions MMX ou SSE
sont deux fois plus rapides (soit un gain de 100% en vitesse) que le
memcpy "traditionnel" de la glibc.
Je veux voir des exemples. J'ai fait des benches sur pas mal de ix86,
du Geode à l'Athlon XP et P-III en faisant des memcpy "classiques"
et des memcpy en MMX avec les prefetchs fait à la main.
Le plus gros gain que j'ai observé est de 30%, sur le Geode.
Les caches sont tellement optimisés, sur les CPU récents qu'ils
saturent déjà pratiquement le bus mémoire en permanence quand
on fait un bête:
rep movl ...
Xine fait ce benchmark, sur ma machine (athlon xp 2000) cela donne :
$ xine -v
Voici xine (X11 gui) - un lecteur vidéo libre v0.9.21
(c) 2000-2003 par G. Bartch et l'équipe du projet xine.
$ xine
Benchmarking memcpy methods (smaller is better):
glibc memcpy() : 629413447
linux kernel memcpy() : 625738622
MMX optimized memcpy() : 549848141
MMXEXT optimized memcpy() : 335734572
SSE optimized memcpy() : 332004112
D'après le source, le chiffre est le nombre de cycles nécessaire pour
copier 100 fois 1 Mo. sur ce test, la version optimisée SSE est 89% plus
rapide que la version de la glibc.
On Sat, 13 Sep 2003 11:55:46 +0200, Richard Delorme wrote:
Quelques % ? chez moi, les memcpy utilisant les instructions MMX ou SSE
sont deux fois plus rapides (soit un gain de 100% en vitesse) que le
memcpy "traditionnel" de la glibc.
Je veux voir des exemples. J'ai fait des benches sur pas mal de ix86,
du Geode à l'Athlon XP et P-III en faisant des memcpy "classiques"
et des memcpy en MMX avec les prefetchs fait à la main.
Le plus gros gain que j'ai observé est de 30%, sur le Geode.
Les caches sont tellement optimisés, sur les CPU récents qu'ils
saturent déjà pratiquement le bus mémoire en permanence quand
on fait un bête:
rep movl ...
Xine fait ce benchmark, sur ma machine (athlon xp 2000) cela donne :
$ xine -v
Voici xine (X11 gui) - un lecteur vidéo libre v0.9.21
(c) 2000-2003 par G. Bartch et l'équipe du projet xine.
$ xine
Benchmarking memcpy methods (smaller is better):
glibc memcpy() : 629413447
linux kernel memcpy() : 625738622
MMX optimized memcpy() : 549848141
MMXEXT optimized memcpy() : 335734572
SSE optimized memcpy() : 332004112
D'après le source, le chiffre est le nombre de cycles nécessaire pour
copier 100 fois 1 Mo. sur ce test, la version optimisée SSE est 89% plus
rapide que la version de la glibc.
On Sat, 13 Sep 2003 11:55:46 +0200, Richard Delorme wrote:
Quelques % ? chez moi, les memcpy utilisant les instructions MMX ou SSE
sont deux fois plus rapides (soit un gain de 100% en vitesse) que le
memcpy "traditionnel" de la glibc.
Je veux voir des exemples. J'ai fait des benches sur pas mal de ix86,
du Geode à l'Athlon XP et P-III en faisant des memcpy "classiques"
et des memcpy en MMX avec les prefetchs fait à la main.
Le plus gros gain que j'ai observé est de 30%, sur le Geode.
Les caches sont tellement optimisés, sur les CPU récents qu'ils
saturent déjà pratiquement le bus mémoire en permanence quand
on fait un bête:
rep movl ...
Xine fait ce benchmark, sur ma machine (athlon xp 2000) cela donne :
$ xine -v
Voici xine (X11 gui) - un lecteur vidéo libre v0.9.21
(c) 2000-2003 par G. Bartch et l'équipe du projet xine.
$ xine
Benchmarking memcpy methods (smaller is better):
glibc memcpy() : 629413447
linux kernel memcpy() : 625738622
MMX optimized memcpy() : 549848141
MMXEXT optimized memcpy() : 335734572
SSE optimized memcpy() : 332004112
D'après le source, le chiffre est le nombre de cycles nécessaire pour
copier 100 fois 1 Mo. sur ce test, la version optimisée SSE est 89% plus
rapide que la version de la glibc.
$ xine
Benchmarking memcpy methods (smaller is better):
glibc memcpy() : 629413447
linux kernel memcpy() : 625738622
MMX optimized memcpy() : 549848141
MMXEXT optimized memcpy() : 335734572
SSE optimized memcpy() : 332004112
D'après le source, le chiffre est le nombre de cycles nécessaire pour
copier 100 fois 1 Mo. sur ce test, la version optimisée SSE est 89% plus
rapide que la version de la glibc.
C'est extrèmement étrange, il faudrait que je regarde le source...
Ou alors, c'est que le cache fait plus de 1 Mo, et dans ce cas,
le bench n'est pas un bench mémoire, mais uniquement un bench
[...]
A par ça, ta glibc et ton kernel doivent être particulièrement mal
compilés: ils ont des version MMX, SSE, SSE2 et 3Dnow du memcpy...
Le kernel utilise en principe toujours la version la plus rapide.
Je me demandes d'ailleurs comment xine peut accéder au memcpy
du kernel... Encore une fois, il faudrait que je regarde le source...
$ xine
Benchmarking memcpy methods (smaller is better):
glibc memcpy() : 629413447
linux kernel memcpy() : 625738622
MMX optimized memcpy() : 549848141
MMXEXT optimized memcpy() : 335734572
SSE optimized memcpy() : 332004112
D'après le source, le chiffre est le nombre de cycles nécessaire pour
copier 100 fois 1 Mo. sur ce test, la version optimisée SSE est 89% plus
rapide que la version de la glibc.
C'est extrèmement étrange, il faudrait que je regarde le source...
Ou alors, c'est que le cache fait plus de 1 Mo, et dans ce cas,
le bench n'est pas un bench mémoire, mais uniquement un bench
[...]
A par ça, ta glibc et ton kernel doivent être particulièrement mal
compilés: ils ont des version MMX, SSE, SSE2 et 3Dnow du memcpy...
Le kernel utilise en principe toujours la version la plus rapide.
Je me demandes d'ailleurs comment xine peut accéder au memcpy
du kernel... Encore une fois, il faudrait que je regarde le source...
$ xine
Benchmarking memcpy methods (smaller is better):
glibc memcpy() : 629413447
linux kernel memcpy() : 625738622
MMX optimized memcpy() : 549848141
MMXEXT optimized memcpy() : 335734572
SSE optimized memcpy() : 332004112
D'après le source, le chiffre est le nombre de cycles nécessaire pour
copier 100 fois 1 Mo. sur ce test, la version optimisée SSE est 89% plus
rapide que la version de la glibc.
C'est extrèmement étrange, il faudrait que je regarde le source...
Ou alors, c'est que le cache fait plus de 1 Mo, et dans ce cas,
le bench n'est pas un bench mémoire, mais uniquement un bench
[...]
A par ça, ta glibc et ton kernel doivent être particulièrement mal
compilés: ils ont des version MMX, SSE, SSE2 et 3Dnow du memcpy...
Le kernel utilise en principe toujours la version la plus rapide.
Je me demandes d'ailleurs comment xine peut accéder au memcpy
du kernel... Encore une fois, il faudrait que je regarde le source...