leeed avait énoncé :Le 02-08-2012, P4nd1-P4nd4 <P4nd1-P4nd4@> a écrit :leeed avait énoncé :
Parceque tu sais compter, toi? Allez, on va la faire simple:
303/315*100= 3 % de différence
LOL
303/315*100 = 96.190476 - tu repasseras, hein ;) Et 100-96 = 4, pas 3.
Ça concerne la version OpenGL de Source, sous windows et sous linux.
Et puisque tu continues à jouer à "je coupe les citations là où ça
m'arrange":
Windows 7/Direct3D: 270 FPS
Windows 7/OpenGL: 303 FPS
Linux/OpenGL: 315FPS.
Alors, au cas où tu n'aurais pas été *FOUTU* de lire ce que je t'ai
écrit tout à l'heure:
Windows7/Direct3D Vs Windows7/OpenGL: 270/303*100 ~= 89%. Direct3D sous
Windows est donc 11% plus lent qu'OpenGL sous Windows. Même machine,
même driver. Déjà, ça la fout mal pour Direct3D.
Windows7/Direct3D Vs Linux/OpenGL: 270/315*100 ~= 85%. Direct3D sous
Windows est donc 15% plus lent qu'OpenGL sous gnu/Linux. Même machine,
drivers équivalents. Ça la fout mal pour le couple Windows/Direct3D.
Windows7/OpenGL Vs Linux/OpenGL: 303/315*100 ~= 96%. Donc, *après* les
optimisations de Valve en ce qui concerne la version openGL de leur
moteur, GNU/Linux est *ENCORE* 4% plus rapide que Windows. Ça la fout
*TOUJOURS* mal pour Windows.Ça n'a rien à voir. Ici on parle juste de performances comparées des
deux systèmes, et des deux APIs utilisées. Et dans tous les cas de
figure, ton Windows 7 et son Direct3D se l'est pris dans le baba.
Ah, ils ont tsté DIrect3D ?
Ah, tu n'as pas lu l'article dont nous parlons! Ceci explique celà. Pour
l'ouvrir à tort et à travers, t'es un vrai champion! Dis donc, si à
chaque fois que tu l'ouvres tu ne prends même pas la peine de lire, de
te renseigner un minimum, je comprends que tu sortes des âneries plus
grosses que toi à chacun de tes posts.
Maintenant, un autre petit calcul (histoire que tu fasses tes devoirs de
vacances):
1 seconde = 1000 millisecondes.
1000/270 = 3.7037037 millisecondes pour rendre une frame sous
Windows/Direct3D.
1000/303 = 3.30033 millisecondes pour rendre une frame sous
Windows/OpenGL.
1000/315 = 3.1746032 millisecondes pour rendre une frame sous
Linux/OpenGL.
Ton Windows + Direct3D perd donc 3.7037037 - 3.1746032 = 0,5291005
millisecondes par rapport à Linux+OpenGL pour rendre *UNE* frame
(image). Je me demande vraiment ce qu'il branle pendant une demi
milliseconde. Et une demi-milliseconde, à la vitesse des machines
actuelles, c'est *beaucoup*. Et la différence sera encore plus énorme
sur du matériel moins performant (ce n'est pas linéaire).
Ah, et ce coup-ci, aies au moins la politesse de ne pas me couper quand
tu me cites, merci!
Mouai, certes, mais bon, les différences sont si ridicules que je ne
vois aucune suppériorité de Linux !
De plus, eux-mêmes ne savent pas comment optimiser Direct3D alors bon,
si c'était des vrais dév Direct3D, Windows serait bien plus rapide
Enfin, quand on parle de demi-milliseconds, je m'attendrai que l'on
parle de supériorité de Linux en dizaine de secondes ;>9
leeed avait énoncé :
Le 02-08-2012, P4nd1-P4nd4 <P4nd1-P4nd4@> a écrit :
leeed avait énoncé :
Parceque tu sais compter, toi? Allez, on va la faire simple:
303/315*100= 3 % de différence
LOL
303/315*100 = 96.190476 - tu repasseras, hein ;) Et 100-96 = 4, pas 3.
Ça concerne la version OpenGL de Source, sous windows et sous linux.
Et puisque tu continues à jouer à "je coupe les citations là où ça
m'arrange":
Windows 7/Direct3D: 270 FPS
Windows 7/OpenGL: 303 FPS
Linux/OpenGL: 315FPS.
Alors, au cas où tu n'aurais pas été *FOUTU* de lire ce que je t'ai
écrit tout à l'heure:
Windows7/Direct3D Vs Windows7/OpenGL: 270/303*100 ~= 89%. Direct3D sous
Windows est donc 11% plus lent qu'OpenGL sous Windows. Même machine,
même driver. Déjà, ça la fout mal pour Direct3D.
Windows7/Direct3D Vs Linux/OpenGL: 270/315*100 ~= 85%. Direct3D sous
Windows est donc 15% plus lent qu'OpenGL sous gnu/Linux. Même machine,
drivers équivalents. Ça la fout mal pour le couple Windows/Direct3D.
Windows7/OpenGL Vs Linux/OpenGL: 303/315*100 ~= 96%. Donc, *après* les
optimisations de Valve en ce qui concerne la version openGL de leur
moteur, GNU/Linux est *ENCORE* 4% plus rapide que Windows. Ça la fout
*TOUJOURS* mal pour Windows.
Ça n'a rien à voir. Ici on parle juste de performances comparées des
deux systèmes, et des deux APIs utilisées. Et dans tous les cas de
figure, ton Windows 7 et son Direct3D se l'est pris dans le baba.
Ah, ils ont tsté DIrect3D ?
Ah, tu n'as pas lu l'article dont nous parlons! Ceci explique celà. Pour
l'ouvrir à tort et à travers, t'es un vrai champion! Dis donc, si à
chaque fois que tu l'ouvres tu ne prends même pas la peine de lire, de
te renseigner un minimum, je comprends que tu sortes des âneries plus
grosses que toi à chacun de tes posts.
Maintenant, un autre petit calcul (histoire que tu fasses tes devoirs de
vacances):
1 seconde = 1000 millisecondes.
1000/270 = 3.7037037 millisecondes pour rendre une frame sous
Windows/Direct3D.
1000/303 = 3.30033 millisecondes pour rendre une frame sous
Windows/OpenGL.
1000/315 = 3.1746032 millisecondes pour rendre une frame sous
Linux/OpenGL.
Ton Windows + Direct3D perd donc 3.7037037 - 3.1746032 = 0,5291005
millisecondes par rapport à Linux+OpenGL pour rendre *UNE* frame
(image). Je me demande vraiment ce qu'il branle pendant une demi
milliseconde. Et une demi-milliseconde, à la vitesse des machines
actuelles, c'est *beaucoup*. Et la différence sera encore plus énorme
sur du matériel moins performant (ce n'est pas linéaire).
Ah, et ce coup-ci, aies au moins la politesse de ne pas me couper quand
tu me cites, merci!
Mouai, certes, mais bon, les différences sont si ridicules que je ne
vois aucune suppériorité de Linux !
De plus, eux-mêmes ne savent pas comment optimiser Direct3D alors bon,
si c'était des vrais dév Direct3D, Windows serait bien plus rapide
Enfin, quand on parle de demi-milliseconds, je m'attendrai que l'on
parle de supériorité de Linux en dizaine de secondes ;>9
leeed avait énoncé :Le 02-08-2012, P4nd1-P4nd4 <P4nd1-P4nd4@> a écrit :leeed avait énoncé :
Parceque tu sais compter, toi? Allez, on va la faire simple:
303/315*100= 3 % de différence
LOL
303/315*100 = 96.190476 - tu repasseras, hein ;) Et 100-96 = 4, pas 3.
Ça concerne la version OpenGL de Source, sous windows et sous linux.
Et puisque tu continues à jouer à "je coupe les citations là où ça
m'arrange":
Windows 7/Direct3D: 270 FPS
Windows 7/OpenGL: 303 FPS
Linux/OpenGL: 315FPS.
Alors, au cas où tu n'aurais pas été *FOUTU* de lire ce que je t'ai
écrit tout à l'heure:
Windows7/Direct3D Vs Windows7/OpenGL: 270/303*100 ~= 89%. Direct3D sous
Windows est donc 11% plus lent qu'OpenGL sous Windows. Même machine,
même driver. Déjà, ça la fout mal pour Direct3D.
Windows7/Direct3D Vs Linux/OpenGL: 270/315*100 ~= 85%. Direct3D sous
Windows est donc 15% plus lent qu'OpenGL sous gnu/Linux. Même machine,
drivers équivalents. Ça la fout mal pour le couple Windows/Direct3D.
Windows7/OpenGL Vs Linux/OpenGL: 303/315*100 ~= 96%. Donc, *après* les
optimisations de Valve en ce qui concerne la version openGL de leur
moteur, GNU/Linux est *ENCORE* 4% plus rapide que Windows. Ça la fout
*TOUJOURS* mal pour Windows.Ça n'a rien à voir. Ici on parle juste de performances comparées des
deux systèmes, et des deux APIs utilisées. Et dans tous les cas de
figure, ton Windows 7 et son Direct3D se l'est pris dans le baba.
Ah, ils ont tsté DIrect3D ?
Ah, tu n'as pas lu l'article dont nous parlons! Ceci explique celà. Pour
l'ouvrir à tort et à travers, t'es un vrai champion! Dis donc, si à
chaque fois que tu l'ouvres tu ne prends même pas la peine de lire, de
te renseigner un minimum, je comprends que tu sortes des âneries plus
grosses que toi à chacun de tes posts.
Maintenant, un autre petit calcul (histoire que tu fasses tes devoirs de
vacances):
1 seconde = 1000 millisecondes.
1000/270 = 3.7037037 millisecondes pour rendre une frame sous
Windows/Direct3D.
1000/303 = 3.30033 millisecondes pour rendre une frame sous
Windows/OpenGL.
1000/315 = 3.1746032 millisecondes pour rendre une frame sous
Linux/OpenGL.
Ton Windows + Direct3D perd donc 3.7037037 - 3.1746032 = 0,5291005
millisecondes par rapport à Linux+OpenGL pour rendre *UNE* frame
(image). Je me demande vraiment ce qu'il branle pendant une demi
milliseconde. Et une demi-milliseconde, à la vitesse des machines
actuelles, c'est *beaucoup*. Et la différence sera encore plus énorme
sur du matériel moins performant (ce n'est pas linéaire).
Ah, et ce coup-ci, aies au moins la politesse de ne pas me couper quand
tu me cites, merci!
Mouai, certes, mais bon, les différences sont si ridicules que je ne
vois aucune suppériorité de Linux !
De plus, eux-mêmes ne savent pas comment optimiser Direct3D alors bon,
si c'était des vrais dév Direct3D, Windows serait bien plus rapide
Enfin, quand on parle de demi-milliseconds, je m'attendrai que l'on
parle de supériorité de Linux en dizaine de secondes ;>9
leeed a couché sur son écran :
bla-bla ... plein de mauvaise foi, etc ...
Puis-je juste me permetre de te faire remarquer que tu as délicatement
fais l'impasse sur une petite info dans l'article ....
"adapter les pilotes graphiques" ...
Donc, il faut à Linux des pilotes sur-mesure pour un jeu/test et avec
ça, il n'arrive à prendre à Windows (lui avec des pilote grand public
de série, pas de prototype de rally) que juste 12 petis fps sur 315 ...
aie, et t'appelle ça de la performance ?
Généralement, quand on oppose un nouveau prototype à un appareil de
série, on parle d'écarts significatifs, là un superbe 3.8 % d'écart, on
se demande quelle est la part de +performance et la part d'imprécision
de la mesure.
leeed a couché sur son écran :
bla-bla ... plein de mauvaise foi, etc ...
Puis-je juste me permetre de te faire remarquer que tu as délicatement
fais l'impasse sur une petite info dans l'article ....
"adapter les pilotes graphiques" ...
Donc, il faut à Linux des pilotes sur-mesure pour un jeu/test et avec
ça, il n'arrive à prendre à Windows (lui avec des pilote grand public
de série, pas de prototype de rally) que juste 12 petis fps sur 315 ...
aie, et t'appelle ça de la performance ?
Généralement, quand on oppose un nouveau prototype à un appareil de
série, on parle d'écarts significatifs, là un superbe 3.8 % d'écart, on
se demande quelle est la part de +performance et la part d'imprécision
de la mesure.
leeed a couché sur son écran :
bla-bla ... plein de mauvaise foi, etc ...
Puis-je juste me permetre de te faire remarquer que tu as délicatement
fais l'impasse sur une petite info dans l'article ....
"adapter les pilotes graphiques" ...
Donc, il faut à Linux des pilotes sur-mesure pour un jeu/test et avec
ça, il n'arrive à prendre à Windows (lui avec des pilote grand public
de série, pas de prototype de rally) que juste 12 petis fps sur 315 ...
aie, et t'appelle ça de la performance ?
Généralement, quand on oppose un nouveau prototype à un appareil de
série, on parle d'écarts significatifs, là un superbe 3.8 % d'écart, on
se demande quelle est la part de +performance et la part d'imprécision
de la mesure.