OVH Cloud OVH Cloud

mais que se passe-t-il dans fr.comp.os.linux.debats ?

318 réponses
Avatar
professeur Méphisto
fr.comp.os.linux.debats est vide chez moi depuis trois jours ? Je
m'inquiète ! Où sont les trolls ?

[ ] ils se sont tous entre-tués ?
[ ] ils sont devenus raisonnables ?
[ ] la fosse à trolls sentait les pieds et il fallait aérer ?
[ ] ils ont migré pour vista ?
[ ] etch est sorti en stable ?
[ ] ils sont tous ici pour boire une mousse ?
[ ] c'est chez moi que c'est cassé ?

Méph'

attention, suivi à la buvette, faut pas pousser non plus

10 réponses

Avatar
Jerome Lambert
Jerome Lambert , dans le message , a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.


Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.

Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.


C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.


Avatar
talon
Emmanuel Florac wrote:

Dans les benchmarks cités par les dévs d'ext4 dans Linux mag de ce mois,
les performances affichées d'ext2/3/4 sont énormément supérieures à
tous les autres FS dans tous les cas de figure. Je suis parfaitement prêt
à croire qu'il y ait eu des améliorations notables, et même qu'ext3/4
soit désormais plus rapide que les autres, mais je ne crois pas à la
magie : xfs ayant une courbe de performance qui colle au plus près le
matériel sous-jacent, il n'y a tout simplement pas moyen d'aller beaucoup
plus vite que lui (mais très légèrement, c'est possible).



Si tu lis l'article qui a été cité, tu verras que le ext3 de maintenant
n'a plus *rien* à voir à l'ext3 d'autrefois. Il n'est donc pas étonnant
qu'il soit plus performant. Selon la technique habituelle à Linux, ils
ont pillé toutes les idées qui marchaient bien dans les autres systèmes
et les ont surajoutées à leur tacot, qui de ce fait se trouve transformé
de citrouille en carosse. Tu remarqueras qu'ils ont employé Theodore Tso
pour ça, le spécialiste de ext2 au MIT, qui a été employé par IBM.
Par exemple là où ext2 faisait des recherches en O(N) dans les
directories, et où les systèmes concurrents faisaient des recherches en
O(log N) grace à une structure en arbre, ou en O(1) grace à des Hash,
ils ont ajouté, de la même façon que FreeBSD a ajouté dirhash à UFS, un
système de recherche arborescente dans les directories. De la même
façon, ils ont ajouté des extents au traditionnel système de blocs, ce
qui améliore le débit pour les gros fichiers, comme dans xfs. Ce qu'ils
n'ont pas changé, c'est la consommation prodigieuse d'espace disque,
mais il est vrai, que ça, personne n'en a rien à faire.


--

Michel TALON

Avatar
Nicolas George
Michel Talon, dans le message <eovvb1$2lcg$,
a écrit :
Totalement faux. Un disque peut débiter 40 Mo/s, donc en une seconde
amener toutes les librairies partagées de KDE en mémoire.


C'est le débit brut. Il faut compter nettement moins quand on a un
filesystem et des fichiers relativement petits.

Par contre la
résolution dynamique des symboles prend plus de temps. C'est la
cause *majeure* de la lenteur de démarrage des applications KDE, dont
certaines prenaient plusieurs secondes à démarrer quand les machines
étaient moins puissantes.


Tu dis n'importe quoi. Je te conseille l'essai suivant pour t'en
convaincre :

- quitte ta session KDE ;
- depuis le réseau ou la console, force la lecture de gros fichiers pour
virer les bibliothèques de KDE du cache ;
- lance une session KDE, et chronomètre le temps qu'elle met à s'ouvrir ;
- quitte à nouveau la session ;
- lance immédiatement une nouvelle session, et chronomètre le temps.

Tu constateras que la seconde ouverture est _beaucoup_ plus rapide que la
première.

John Dyson avait fait des benchmarks se
scripts "configure" qui lancent une grande quantité de shells, il y
avait des différences tout à fait significatives sur le temps total
d'exécution entre shell statique et dynamique.


Je ne sais pas si John Dyson sait de quoi il parle, mais toi, ce n'est pas
le cas, parce que les benchmarks que tu évoques ici sont complètement
non-pertinents : lors de l'exécution d'un ./configure, les shells invoqués
le sont toujours depuis le cache.

Ça ne contredit donc absolument pas mon affirmation, qui est que le temps
d'édition dynamique des liens est négligeable devant le temps de chargement
depuis le disque.

Ce qui est une catastrophe, parceque ça implique qu'on se trouve
nécessairement lié à une "distribution", c'est à dire une grosse
organisation. Dans le monde Linux il n'y a que Debian qui a les moyens
en homme suffisants pour vérifier cette cohérence d'ensemble, les
dérivés, comme Ubuntu profitant du millier de développeurs Debian.
Et encore avec son millier de développeurs, ce système paralyse
totalement Debian. Des systèmes moins bien dotés, comme FreeBSD n'ont
pas les moyens de faire les vérifications extensives nécessaires.


Dans l'ensemble, je trouve la situation sous Linux très satisfaisante.

Windows boote plus vite, mais
tout n'est pas fonctionnel loin de là quand le "desktop" apparaît.


Tu permets que je traduise ta phrase en français ? « Windows boote plus
lentement. » Voilà, c'est plus clair comme ça.

Avatar
Nicolas George
Jerome Lambert , dans le message , a
écrit :
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.


Tu as encore raté le point essentiel : ce n'est pas la place occupée en
mémoire ou sur disque qui est le problème, mais le temps de chargement
depuis le disque.

Avatar
JKB
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
Jerome Lambert , dans le message , a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.


Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.

Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.


C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.


Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.

Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.

JKB



Avatar
Jerome Lambert
Jerome Lambert , dans le message , a
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.


Tu as encore raté le point essentiel : ce n'est pas la place occupée en
mémoire ou sur disque qui est le problème, mais le temps de chargement
depuis le disque.


Ce à quoi je t'ai déjà répondu: il existe des systèmes qui permettent de
ne subir ce temps qu'une seule fois. Si certains persistent à ne pas
vouloir les utiliser, et bien tant pis pour eux...


Avatar
Jerome Lambert
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
Jerome Lambert , dans le message , a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de

la veille et de l'extinction.

Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme

consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.


Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.

Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.


Euh, tu pourrais me citer le passage où je cite Windows, j'ai du mal à
le trouver... Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...




Avatar
JKB
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
Jerome Lambert , dans le message , a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de

la veille et de l'extinction.

Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme

consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.


Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.

Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.


Euh, tu pourrais me citer le passage où je cite Windows, j'ai du mal à
le trouver... Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...


Ah ouaips... Lesquelles ?

--
Le cerveau, c'est un véritable scandale écologique. Il représente 2% de notre
masse corporelle, mais disperse à lui seul 25% de l'énergie que nous
consommons tous les jours.





Avatar
Nicolas George
Jerome Lambert , dans le message , a
écrit :
Ce à quoi je t'ai déjà répondu: il existe des systèmes qui permettent de
ne subir ce temps qu'une seule fois.


Mais ça, c'est faux, donc ça ne sert à rien.

Avatar
Jerome Lambert
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
(...)

Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...


Ah ouaips... Lesquelles ?


Dans le cas de MacOS X, une base commune fournie par l'OS, les
applications sachant quoi y trouver au minimum. Si elles veulent plus,
elles l'apportent elles-même en gardant leurs petits fichiers dans leur
répertoire, sans aller trifouiller dans le système. Celui reste donc
intact, et l'installation/désinstallation consiste à copier/supprimer
l'application sur le disque dur, en se préoccupant uniquement de
respecter les recommandations de version minimale de l'OS. D'après ce
que j'ai vu, PC-BSD fonctionne grosso-modo via le même principe.