Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
Jerome Lambert , dans le message <51hbr3F1k47eqU1@mid.individual.net>, a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
Dans les benchmarks cités par les dévs d'ext4 dans Linux mag de ce mois,
les performances affichées d'ext2/3/4 sont énormément supérieures à
tous les autres FS dans tous les cas de figure. Je suis parfaitement prêt
à croire qu'il y ait eu des améliorations notables, et même qu'ext3/4
soit désormais plus rapide que les autres, mais je ne crois pas à la
magie : xfs ayant une courbe de performance qui colle au plus près le
matériel sous-jacent, il n'y a tout simplement pas moyen d'aller beaucoup
plus vite que lui (mais très légèrement, c'est possible).
Dans les benchmarks cités par les dévs d'ext4 dans Linux mag de ce mois,
les performances affichées d'ext2/3/4 sont énormément supérieures à
tous les autres FS dans tous les cas de figure. Je suis parfaitement prêt
à croire qu'il y ait eu des améliorations notables, et même qu'ext3/4
soit désormais plus rapide que les autres, mais je ne crois pas à la
magie : xfs ayant une courbe de performance qui colle au plus près le
matériel sous-jacent, il n'y a tout simplement pas moyen d'aller beaucoup
plus vite que lui (mais très légèrement, c'est possible).
Dans les benchmarks cités par les dévs d'ext4 dans Linux mag de ce mois,
les performances affichées d'ext2/3/4 sont énormément supérieures à
tous les autres FS dans tous les cas de figure. Je suis parfaitement prêt
à croire qu'il y ait eu des améliorations notables, et même qu'ext3/4
soit désormais plus rapide que les autres, mais je ne crois pas à la
magie : xfs ayant une courbe de performance qui colle au plus près le
matériel sous-jacent, il n'y a tout simplement pas moyen d'aller beaucoup
plus vite que lui (mais très légèrement, c'est possible).
Totalement faux. Un disque peut débiter 40 Mo/s, donc en une seconde
amener toutes les librairies partagées de KDE en mémoire.
Par contre la
résolution dynamique des symboles prend plus de temps. C'est la
cause *majeure* de la lenteur de démarrage des applications KDE, dont
certaines prenaient plusieurs secondes à démarrer quand les machines
étaient moins puissantes.
John Dyson avait fait des benchmarks se
scripts "configure" qui lancent une grande quantité de shells, il y
avait des différences tout à fait significatives sur le temps total
d'exécution entre shell statique et dynamique.
Ce qui est une catastrophe, parceque ça implique qu'on se trouve
nécessairement lié à une "distribution", c'est à dire une grosse
organisation. Dans le monde Linux il n'y a que Debian qui a les moyens
en homme suffisants pour vérifier cette cohérence d'ensemble, les
dérivés, comme Ubuntu profitant du millier de développeurs Debian.
Et encore avec son millier de développeurs, ce système paralyse
totalement Debian. Des systèmes moins bien dotés, comme FreeBSD n'ont
pas les moyens de faire les vérifications extensives nécessaires.
Windows boote plus vite, mais
tout n'est pas fonctionnel loin de là quand le "desktop" apparaît.
Totalement faux. Un disque peut débiter 40 Mo/s, donc en une seconde
amener toutes les librairies partagées de KDE en mémoire.
Par contre la
résolution dynamique des symboles prend plus de temps. C'est la
cause *majeure* de la lenteur de démarrage des applications KDE, dont
certaines prenaient plusieurs secondes à démarrer quand les machines
étaient moins puissantes.
John Dyson avait fait des benchmarks se
scripts "configure" qui lancent une grande quantité de shells, il y
avait des différences tout à fait significatives sur le temps total
d'exécution entre shell statique et dynamique.
Ce qui est une catastrophe, parceque ça implique qu'on se trouve
nécessairement lié à une "distribution", c'est à dire une grosse
organisation. Dans le monde Linux il n'y a que Debian qui a les moyens
en homme suffisants pour vérifier cette cohérence d'ensemble, les
dérivés, comme Ubuntu profitant du millier de développeurs Debian.
Et encore avec son millier de développeurs, ce système paralyse
totalement Debian. Des systèmes moins bien dotés, comme FreeBSD n'ont
pas les moyens de faire les vérifications extensives nécessaires.
Windows boote plus vite, mais
tout n'est pas fonctionnel loin de là quand le "desktop" apparaît.
Totalement faux. Un disque peut débiter 40 Mo/s, donc en une seconde
amener toutes les librairies partagées de KDE en mémoire.
Par contre la
résolution dynamique des symboles prend plus de temps. C'est la
cause *majeure* de la lenteur de démarrage des applications KDE, dont
certaines prenaient plusieurs secondes à démarrer quand les machines
étaient moins puissantes.
John Dyson avait fait des benchmarks se
scripts "configure" qui lancent une grande quantité de shells, il y
avait des différences tout à fait significatives sur le temps total
d'exécution entre shell statique et dynamique.
Ce qui est une catastrophe, parceque ça implique qu'on se trouve
nécessairement lié à une "distribution", c'est à dire une grosse
organisation. Dans le monde Linux il n'y a que Debian qui a les moyens
en homme suffisants pour vérifier cette cohérence d'ensemble, les
dérivés, comme Ubuntu profitant du millier de développeurs Debian.
Et encore avec son millier de développeurs, ce système paralyse
totalement Debian. Des systèmes moins bien dotés, comme FreeBSD n'ont
pas les moyens de faire les vérifications extensives nécessaires.
Windows boote plus vite, mais
tout n'est pas fonctionnel loin de là quand le "desktop" apparaît.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Jerome Lambert , dans le message <51hbr3F1k47eqU1@mid.individual.net>, a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Jerome Lambert , dans le message , aC'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Tu as encore raté le point essentiel : ce n'est pas la place occupée en
mémoire ou sur disque qui est le problème, mais le temps de chargement
depuis le disque.
Jerome Lambert , dans le message <51hdu6F1k9s82U1@mid.individual.net>, a
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Tu as encore raté le point essentiel : ce n'est pas la place occupée en
mémoire ou sur disque qui est le problème, mais le temps de chargement
depuis le disque.
Jerome Lambert , dans le message , aC'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Tu as encore raté le point essentiel : ce n'est pas la place occupée en
mémoire ou sur disque qui est le problème, mais le temps de chargement
depuis le disque.
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.
Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
Jerome Lambert , dans le message <51hbr3F1k47eqU1@mid.individual.net>, a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.
Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.
Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.
Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.
Euh, tu pourrais me citer le passage où je cite Windows, j'ai du mal à
le trouver... Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
Jerome Lambert , dans le message <51hbr3F1k47eqU1@mid.individual.net>, a
tout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.
Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.
Euh, tu pourrais me citer le passage où je cite Windows, j'ai du mal à
le trouver... Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :Jerome Lambert , dans le message , atout cas bien plus rapidement que si je devais tout fermer, éteindre,
démarrer et tout relancer.
Non pertinent : on n'est pas en train de comparer les mérites respectifs de
la veille et de l'extinction.
Avec ou sans veille, un ordinateur est plus réactif quand les applications
utilisent moins de mémoire. C'est une telle évidence que je ne comprends pas
comment des gens comme Michel ou toi peuvent ne pas la voir.
C'est toi qui ne voit pas: c'est évident que moins le programme
consomme, plus l'ordinateur est réactif, mais c'est à mettre en rapport
avec la machine utilisée. Épargner 20 Mo de ram sur une vieille machine
genre P2-500/128Mo a un sens, par contre en épargner le même montant sur
une machine moderne style CoreDuo/1Go a relativement peu d'intérêt.
Même topo sur les disques: une machine de ces deux dernières années
embarque un DD d'au moins 200Go. Vouloir y épargner 20Mo me semble assez
inutile, surtout si incidemment ça augmente la complexité du système.
Celle-là, je l'encadre. Lorsqu'on système utilise une base de
registres complètement foireuse (parce que contrairement à
l'équivalent sous OS/2, vraiment mal conçue) qui est modifiable par
une session itinérante, lorsqu'il embarque un certain nombre de DLL
différentes mais avec le même nom (DLL joyeusement écrasées lors de
l'installation de MS office par exemple et faisant foirer un
programme qui fonctionnait jusque là), bref, un tel système n'est
pas complexe, il est diaboliquement mal foutu et simplissime.
Il n'y a que deux façons de faire : soit tout est statique (et on
peut le justifier), soit tout est lié dynamiquement (ou peut l'être)
et cela peut aussi se justifier. Mais avoir des DLL pour dire
qu'on a des trucs liés dynamiquement alors que _chaque_ programme
embarque un tas de DLL propres (assez souvent les mêmes ou peu s'en
faut), on a le pire des deux mondes, un délire néogothique né dans
le cerveau d'un informaticien dément, bref, d'un type bon pour
Sainte Anne. Et Windows est dans ce pire là. Maintenant, ergoter sur
le fait que cela consomme plus ou moins de mémoire et rame plus ou
moins, c'est du détail. Il y a déjà tellement de puissance perdue par la
microsofterie qu'on n'en est plus là.
Euh, tu pourrais me citer le passage où je cite Windows, j'ai du mal à
le trouver... Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...
Ce à quoi je t'ai déjà répondu: il existe des systèmes qui permettent de
ne subir ce temps qu'une seule fois.
Ce à quoi je t'ai déjà répondu: il existe des systèmes qui permettent de
ne subir ce temps qu'une seule fois.
Ce à quoi je t'ai déjà répondu: il existe des systèmes qui permettent de
ne subir ce temps qu'une seule fois.
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
(...)
Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...
Ah ouaips... Lesquelles ?
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
(...)
Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...
Ah ouaips... Lesquelles ?
Le 21-01-2007, à propos de
Re: mais que se passe-t-il dans fr.comp.os.linux.debats ?,
Jerome Lambert écrivait dans fr.comp.os.linux.debats :
(...)
Le monde ne se résume pas à Linux et Windows que je sache,
et d'autres OS proposent des solutions élégantes, au hasard MacOS X et
PC-BSD...
Ah ouaips... Lesquelles ?