Je comprends pas pourquoi ce truc bouffe autant de RAM, et franchement
il est lent (3.2 GHZ et 2 GB de RAM)
Comparé à OpenSuse 10.1 que j'ai essayé la semaine passée, je trouve ce
système hyperlourd.... Surtout que j'avais mis XGL et cela poussait à
fond
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines,
on retrouve le même sentiment de performance qu'avec XP sur les
machibnes aujourd'hui
Moralité, Linux risque tout de même de se renforcer un peu si la
version finale ne s'améliore pas (Il ne faut pas présager des bétas,
mais bon...)
Je suis vachement partagé, alors qu'à la sortie de XP, je me disais
qu'entre Linux et Windows, le choix était logique -> XP
Enfin, difficile de comparer 2 systèmes si différents....
Comparé à OpenSuse 10.1 que j'ai essayé la semaine passée, je trouve ce système ( NB : Vista ) hyperlourd.... Surtout que j'avais mis XGL et cela poussait à fond
Ceci n'est pas un troll, c'est bien.
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machines aujourd'hui
Aïe, ça se gâte...
Je suis vachement partagé, alors qu'à la sortie de XP, je me disais qu'entre Linux et Windows, le choix était logique -> XP
TROLL !!!
Voilà : c'était pour expliquer ce qu'est un troll. Juve
Comparé à OpenSuse 10.1 que j'ai essayé la semaine passée, je trouve ce
système ( NB : Vista ) hyperlourd.... Surtout que j'avais mis XGL et cela
poussait à fond
Ceci n'est pas un troll, c'est bien.
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on
retrouve le même sentiment de performance qu'avec XP sur les machines
aujourd'hui
Aïe, ça se gâte...
Je suis vachement partagé, alors qu'à la sortie de XP, je me disais
qu'entre Linux et Windows, le choix était logique -> XP
TROLL !!!
Voilà : c'était pour expliquer ce qu'est un troll.
Juve
Comparé à OpenSuse 10.1 que j'ai essayé la semaine passée, je trouve ce système ( NB : Vista ) hyperlourd.... Surtout que j'avais mis XGL et cela poussait à fond
Ceci n'est pas un troll, c'est bien.
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machines aujourd'hui
Aïe, ça se gâte...
Je suis vachement partagé, alors qu'à la sortie de XP, je me disais qu'entre Linux et Windows, le choix était logique -> XP
TROLL !!!
Voilà : c'était pour expliquer ce qu'est un troll. Juve
Remi THOMAS
"Olivier" wrote in message news:
Installé la béta 2...
Sans rien, 736 MB de RAM au démarrage avec AERO
Si je vire AERO, on tombe de 100 MB de RAM
Je comprends pas pourquoi ce truc bouffe autant de RAM, et franchement il est lent (3.2 GHZ et 2 GB de RAM)
Bonjour, Ne jamais faire de conclusion sur une version bêta qui contient du code de debug qui disparaîtra sur la version finale. Attendre la version RTM (Request To Manufacturer) pour tirer des conclusions.
Rémi
"Olivier" <olivier@riendutout.bip> wrote in message
news:mn.f2c07d6548216908.53530@riendutout.bip...
Installé la béta 2...
Sans rien, 736 MB de RAM au démarrage avec AERO
Si je vire AERO, on tombe de 100 MB de RAM
Je comprends pas pourquoi ce truc bouffe autant de RAM, et franchement il
est lent (3.2 GHZ et 2 GB de RAM)
Bonjour,
Ne jamais faire de conclusion sur une version bêta qui contient du code de
debug qui disparaîtra sur la version finale.
Attendre la version RTM (Request To Manufacturer) pour tirer des
conclusions.
Je comprends pas pourquoi ce truc bouffe autant de RAM, et franchement il est lent (3.2 GHZ et 2 GB de RAM)
Bonjour, Ne jamais faire de conclusion sur une version bêta qui contient du code de debug qui disparaîtra sur la version finale. Attendre la version RTM (Request To Manufacturer) pour tirer des conclusions.
Rémi
olive
Remi THOMAS écrivait :
Ne jamais faire de conclusion sur une version bêta qui contient du code de debug qui disparaîtra sur la version finale. Attendre la version RTM (Request To Manufacturer) pour tirer des conclusions.
Au fait, quel est le statut de ces bêtas ? Je sais bien qu'on en trouve partout, mais je ne sais pas à quelles conditions on peut les tester.
-- Olivier
Remi THOMAS écrivait :
Ne jamais faire de conclusion sur une version bêta qui contient du code de
debug qui disparaîtra sur la version finale.
Attendre la version RTM (Request To Manufacturer) pour tirer des
conclusions.
Au fait, quel est le statut de ces bêtas ? Je sais bien qu'on en trouve
partout, mais je ne sais pas à quelles conditions on peut les tester.
Ne jamais faire de conclusion sur une version bêta qui contient du code de debug qui disparaîtra sur la version finale. Attendre la version RTM (Request To Manufacturer) pour tirer des conclusions.
Au fait, quel est le statut de ces bêtas ? Je sais bien qu'on en trouve partout, mais je ne sais pas à quelles conditions on peut les tester.
-- Olivier
Nicolas George
Olivier , dans le message , a écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après installation de windows est globalement constante au cours du temps.
Olivier , dans le message <mn.f2c07d6548216908.53530@riendutout.bip>, a
écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines,
on retrouve le même sentiment de performance qu'avec XP sur les
machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après
installation de windows est globalement constante au cours du temps.
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après installation de windows est globalement constante au cours du temps.
Olivier
Nicolas George a formulé ce mardi :
Olivier , dans le message , a écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après installation de windows est globalement constante au cours du temps.
Héhé, c'est pas mal ;>))
C'est vrai que le passé a montré qu'il faut laisser passer une année ou deux pour avoir des machines offrant la même eXpérience ;>))
Je me rappelle bien de Windows 95 à 98, ou de NT à 2000
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire que 2000 était une version intermédiaire...
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur, KDE aujourd'hui tourne bien sur des machines du crûs 2005.
Linux semble plus en phase que Windows à ce niveau là...
Cela m'intéresse fortement comment le marché va encaisser ce gap, mais on peut prévoir déjà que la majorité des utilisateurs ne vont rien voir du tout, et qu'ils changeront de machines "Pour Vista" sans se poser de questions.
Olivier
Nicolas George a formulé ce mardi :
Olivier , dans le message <mn.f2c07d6548216908.53530@riendutout.bip>, a
écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines,
on retrouve le même sentiment de performance qu'avec XP sur les
machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après
installation de windows est globalement constante au cours du temps.
Héhé, c'est pas mal ;>))
C'est vrai que le passé a montré qu'il faut laisser passer une année ou
deux pour avoir des machines offrant la même eXpérience ;>))
Je me rappelle bien de Windows 95 à 98, ou de NT à 2000
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire
que 2000 était une version intermédiaire...
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une
période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur,
KDE aujourd'hui tourne bien sur des machines du crûs 2005.
Linux semble plus en phase que Windows à ce niveau là...
Cela m'intéresse fortement comment le marché va encaisser ce gap, mais
on peut prévoir déjà que la majorité des utilisateurs ne vont rien voir
du tout, et qu'ils changeront de machines "Pour Vista" sans se poser de
questions.
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après installation de windows est globalement constante au cours du temps.
Héhé, c'est pas mal ;>))
C'est vrai que le passé a montré qu'il faut laisser passer une année ou deux pour avoir des machines offrant la même eXpérience ;>))
Je me rappelle bien de Windows 95 à 98, ou de NT à 2000
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire que 2000 était une version intermédiaire...
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur, KDE aujourd'hui tourne bien sur des machines du crûs 2005.
Linux semble plus en phase que Windows à ce niveau là...
Cela m'intéresse fortement comment le marché va encaisser ce gap, mais on peut prévoir déjà que la majorité des utilisateurs ne vont rien voir du tout, et qu'ils changeront de machines "Pour Vista" sans se poser de questions.
Olivier
Denis Beauregard
Le Tue, 30 May 2006 14:08:02 +0200, Olivier écrivait dans fr.comp.os.linux.debats:
Nicolas George a formulé ce mardi :
Olivier , dans le message , a écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après installation de windows est globalement constante au cours du temps.
Héhé, c'est pas mal ;>))
C'est vrai que le passé a montré qu'il faut laisser passer une année ou deux pour avoir des machines offrant la même eXpérience ;>))
La vieille blague, c'est que la nouvelle version émule l'ancienne pour conserver la compatibilité. En d'autres mots, Win XP émule Win 98, ce qui fait qu'un logiciel écrit pour Win 98 roulerait en natif dans Win 98 (code rapide), mais en mode émulation dans Win XP (code lent). Linux n'étant pas soumis à cette transformation (on compile toujours en natif je présume) est donc en théorie plus rapide. Mais, certaines applications sont écrites pour plusieurs machines différentes avec une sorte de macro-code et l'avantage Linux semble se perdre à ce moment.
Je me rappelle bien de Windows 95 à 98, ou de NT à 2000
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire que 2000 était une version intermédiaire...
Il faudrait savoir si 2000 était un NT amélioré ou un prototype de XP.
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur, KDE aujourd'hui tourne bien sur des machines du crûs 2005.
Je dirais que par maturité, Linux arrive à une période où on doit tout avoir dans le code parce que Linux prend peu à peu une orientation vers le grand public. Donc, la vieille philosophie où chacun compilait son noyau et n'avait que ce que la machine utilisait, cela devient l'exception, et tout gonfle. Il faudrait peut-être qu'on passe à des concepts fréquents chez Windows comme les DLL (quoique ce serait sans doute un cauchemar car sur une machine Windows, il y a parfois des problèmes quand 2 applications utilisent la même DLL et que la dernière installée arrive avec une version plus ancienne ou même incompatible).
Linux semble plus en phase que Windows à ce niveau là...
Cela m'intéresse fortement comment le marché va encaisser ce gap, mais on peut prévoir déjà que la majorité des utilisateurs ne vont rien voir du tout, et qu'ils changeront de machines "Pour Vista" sans se poser de questions.
Plusieurs rumeurs indiquaient que Vista ne serait pas compatible avec Windows, que c'était un effet de la poursuite anti-monopole. J'ai l'impression que cette rumeur est fausse, mais si elle avait été vraie, si un Word 97 qui roulerait dans XP ne pouvait plus fonctionner dans Vista, alors la majorité des utilisateurs se poseraient beaucoup de questions...
Denis
Le Tue, 30 May 2006 14:08:02 +0200, Olivier <olivier@riendutout.bip>
écrivait dans fr.comp.os.linux.debats:
Nicolas George a formulé ce mardi :
Olivier , dans le message <mn.f2c07d6548216908.53530@riendutout.bip>, a
écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines,
on retrouve le même sentiment de performance qu'avec XP sur les
machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après
installation de windows est globalement constante au cours du temps.
Héhé, c'est pas mal ;>))
C'est vrai que le passé a montré qu'il faut laisser passer une année ou
deux pour avoir des machines offrant la même eXpérience ;>))
La vieille blague, c'est que la nouvelle version émule l'ancienne
pour conserver la compatibilité. En d'autres mots, Win XP émule
Win 98, ce qui fait qu'un logiciel écrit pour Win 98 roulerait en
natif dans Win 98 (code rapide), mais en mode émulation dans Win XP
(code lent). Linux n'étant pas soumis à cette transformation (on
compile toujours en natif je présume) est donc en théorie plus rapide.
Mais, certaines applications sont écrites pour plusieurs machines
différentes avec une sorte de macro-code et l'avantage Linux semble
se perdre à ce moment.
Je me rappelle bien de Windows 95 à 98, ou de NT à 2000
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire
que 2000 était une version intermédiaire...
Il faudrait savoir si 2000 était un NT amélioré ou un prototype de XP.
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une
période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur,
KDE aujourd'hui tourne bien sur des machines du crûs 2005.
Je dirais que par maturité, Linux arrive à une période où on doit
tout avoir dans le code parce que Linux prend peu à peu une
orientation vers le grand public. Donc, la vieille philosophie où
chacun compilait son noyau et n'avait que ce que la machine utilisait,
cela devient l'exception, et tout gonfle. Il faudrait peut-être qu'on
passe à des concepts fréquents chez Windows comme les DLL (quoique ce
serait sans doute un cauchemar car sur une machine Windows, il y a
parfois des problèmes quand 2 applications utilisent la même DLL et
que la dernière installée arrive avec une version plus ancienne ou
même incompatible).
Linux semble plus en phase que Windows à ce niveau là...
Cela m'intéresse fortement comment le marché va encaisser ce gap, mais
on peut prévoir déjà que la majorité des utilisateurs ne vont rien voir
du tout, et qu'ils changeront de machines "Pour Vista" sans se poser de
questions.
Plusieurs rumeurs indiquaient que Vista ne serait pas compatible avec
Windows, que c'était un effet de la poursuite anti-monopole. J'ai
l'impression que cette rumeur est fausse, mais si elle avait été
vraie, si un Word 97 qui roulerait dans XP ne pouvait plus fonctionner
dans Vista, alors la majorité des utilisateurs se poseraient beaucoup
de questions...
Le Tue, 30 May 2006 14:08:02 +0200, Olivier écrivait dans fr.comp.os.linux.debats:
Nicolas George a formulé ce mardi :
Olivier , dans le message , a écrit :
J'estime qu'il faudra bien 2 ans pour que sur les nouvelles machines, on retrouve le même sentiment de performance qu'avec XP sur les machibnes aujourd'hui
On appelle ça la loi de Moore-Gates : la puissance des ordinateurs après installation de windows est globalement constante au cours du temps.
Héhé, c'est pas mal ;>))
C'est vrai que le passé a montré qu'il faut laisser passer une année ou deux pour avoir des machines offrant la même eXpérience ;>))
La vieille blague, c'est que la nouvelle version émule l'ancienne pour conserver la compatibilité. En d'autres mots, Win XP émule Win 98, ce qui fait qu'un logiciel écrit pour Win 98 roulerait en natif dans Win 98 (code rapide), mais en mode émulation dans Win XP (code lent). Linux n'étant pas soumis à cette transformation (on compile toujours en natif je présume) est donc en théorie plus rapide. Mais, certaines applications sont écrites pour plusieurs machines différentes avec une sorte de macro-code et l'avantage Linux semble se perdre à ce moment.
Je me rappelle bien de Windows 95 à 98, ou de NT à 2000
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire que 2000 était une version intermédiaire...
Il faudrait savoir si 2000 était un NT amélioré ou un prototype de XP.
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur, KDE aujourd'hui tourne bien sur des machines du crûs 2005.
Je dirais que par maturité, Linux arrive à une période où on doit tout avoir dans le code parce que Linux prend peu à peu une orientation vers le grand public. Donc, la vieille philosophie où chacun compilait son noyau et n'avait que ce que la machine utilisait, cela devient l'exception, et tout gonfle. Il faudrait peut-être qu'on passe à des concepts fréquents chez Windows comme les DLL (quoique ce serait sans doute un cauchemar car sur une machine Windows, il y a parfois des problèmes quand 2 applications utilisent la même DLL et que la dernière installée arrive avec une version plus ancienne ou même incompatible).
Linux semble plus en phase que Windows à ce niveau là...
Cela m'intéresse fortement comment le marché va encaisser ce gap, mais on peut prévoir déjà que la majorité des utilisateurs ne vont rien voir du tout, et qu'ils changeront de machines "Pour Vista" sans se poser de questions.
Plusieurs rumeurs indiquaient que Vista ne serait pas compatible avec Windows, que c'était un effet de la poursuite anti-monopole. J'ai l'impression que cette rumeur est fausse, mais si elle avait été vraie, si un Word 97 qui roulerait dans XP ne pouvait plus fonctionner dans Vista, alors la majorité des utilisateurs se poseraient beaucoup de questions...
Denis
Nicolas Le Scouarnec
La vieille blague, c'est que la nouvelle version émule l'ancienne pour conserver la compatibilité. En d'autres mots, Win XP émule Win 98, ce qui fait qu'un logiciel écrit pour Win 98 roulerait en
L'émulation "Win98" doit concerner une tout petite partie du code. Notamment le code qui essait d'acceder directement au matériel sans passer par l'OS. Tout le reste du code est executé directement sur le processeur sans "émulation".
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire que 2000 était une version intermédiaire... Il faudrait savoir si 2000 était un NT amélioré ou un prototype de XP.
2000 est un Windows NT, XP est aussi un Windows NT. C'est plutot:
NT 3.51 -> NT 4 -> Windows 2000 (NT5) -> Windows XP
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur, KDE aujourd'hui tourne bien sur des machines du crûs 2005. tout avoir dans le code parce que Linux prend peu à peu une
orientation vers le grand public. Donc, la vieille philosophie où chacun compilait son noyau et n'avait que ce que la machine utilisait, cela devient l'exception, et tout gonfle. Il faudrait peut-être qu'on
C'est surtout que la quantité de fonctionnalité (plus ou moins utiles) a exploser, et surtout la complexité et les possibilités des logiciels aussi.
passe à des concepts fréquents chez Windows comme les DLL (quoique ce
Ahem...
serait sans doute un cauchemar car sur une machine Windows, il y a parfois des problèmes quand 2 applications utilisent la même DLL et que la dernière installée arrive avec une version plus ancienne ou même incompatible).
Ca s'appelle une librairie dynamique. Ca correspond aux fichiers .so que l'on trouve sur tout bon Linux/FreeBSD/Solaris et ca fait longtemps, très longtemps que ca existe. Je pense meme que ca existait avant Windows... Mais sous Unix, plusieurs version d'un .so peuvent cohabiter avec plus ou moins de succès: [ RN_IA]% ls -l /lib/libc.so.* -r--r--r-- 1 root wheel 961164 Jul 17 2005 /lib/libc.so.5 -r--r--r-- 1 root wheel 889604 Apr 23 20:23 /lib/libc.so.6
Et j'avais déja ca en 1998 sur mon Linux...
l'impression que cette rumeur est fausse, mais si elle avait été vraie, si un Word 97 qui roulerait dans XP ne pouvait plus fonctionner dans Vista, alors la majorité des utilisateurs se poseraient beaucoup de questions...
Ca a un coup la compatibilité ascendante: ca empeche de faire évoluer certaines choses ou ca impose un "émulation" (enfin, une ABI, interface binaire compatible).
-- Nicolas Le Scouarnec
La vieille blague, c'est que la nouvelle version émule l'ancienne
pour conserver la compatibilité. En d'autres mots, Win XP émule
Win 98, ce qui fait qu'un logiciel écrit pour Win 98 roulerait en
L'émulation "Win98" doit concerner une tout petite partie du code. Notamment
le code qui essait d'acceder directement au matériel sans passer par
l'OS. Tout le reste du code est executé directement sur le processeur
sans "émulation".
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire
que 2000 était une version intermédiaire...
Il faudrait savoir si 2000 était un NT amélioré ou un prototype de XP.
2000 est un Windows NT, XP est aussi un Windows NT. C'est plutot:
NT 3.51 -> NT 4 -> Windows 2000 (NT5) -> Windows XP
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une
période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur,
KDE aujourd'hui tourne bien sur des machines du crûs 2005.
tout avoir dans le code parce que Linux prend peu à peu une
orientation vers le grand public. Donc, la vieille philosophie où
chacun compilait son noyau et n'avait que ce que la machine utilisait,
cela devient l'exception, et tout gonfle. Il faudrait peut-être qu'on
C'est surtout que la quantité de fonctionnalité (plus ou moins utiles)
a exploser, et surtout la complexité et les possibilités des logiciels aussi.
passe à des concepts fréquents chez Windows comme les DLL (quoique ce
Ahem...
serait sans doute un cauchemar car sur une machine Windows, il y a
parfois des problèmes quand 2 applications utilisent la même DLL et
que la dernière installée arrive avec une version plus ancienne ou
même incompatible).
Ca s'appelle une librairie dynamique. Ca correspond aux fichiers .so
que l'on trouve sur tout bon Linux/FreeBSD/Solaris et ca fait
longtemps, très longtemps que ca existe. Je pense meme que ca existait
avant Windows... Mais sous Unix, plusieurs version d'un .so peuvent
cohabiter avec plus ou moins de succès:
[nlsn@shiva RN_IA]% ls -l /lib/libc.so.*
-r--r--r-- 1 root wheel 961164 Jul 17 2005 /lib/libc.so.5
-r--r--r-- 1 root wheel 889604 Apr 23 20:23 /lib/libc.so.6
Et j'avais déja ca en 1998 sur mon Linux...
l'impression que cette rumeur est fausse, mais si elle avait été
vraie, si un Word 97 qui roulerait dans XP ne pouvait plus fonctionner
dans Vista, alors la majorité des utilisateurs se poseraient beaucoup
de questions...
Ca a un coup la compatibilité ascendante: ca empeche de faire évoluer
certaines choses ou ca impose un "émulation" (enfin, une ABI, interface
binaire compatible).
La vieille blague, c'est que la nouvelle version émule l'ancienne pour conserver la compatibilité. En d'autres mots, Win XP émule Win 98, ce qui fait qu'un logiciel écrit pour Win 98 roulerait en
L'émulation "Win98" doit concerner une tout petite partie du code. Notamment le code qui essait d'acceder directement au matériel sans passer par l'OS. Tout le reste du code est executé directement sur le processeur sans "émulation".
De 2000 à XP, cela n'allait encore pas trop mal, ce qui me fait dire que 2000 était une version intermédiaire... Il faudrait savoir si 2000 était un NT amélioré ou un prototype de XP.
2000 est un Windows NT, XP est aussi un Windows NT. C'est plutot:
NT 3.51 -> NT 4 -> Windows 2000 (NT5) -> Windows XP
Du côté de Linux, cela se passe pas trop mal, même si KDE a eu une période où il a pas mal gonflé. Mais je trouve qu'en terme utilisateur, KDE aujourd'hui tourne bien sur des machines du crûs 2005. tout avoir dans le code parce que Linux prend peu à peu une
orientation vers le grand public. Donc, la vieille philosophie où chacun compilait son noyau et n'avait que ce que la machine utilisait, cela devient l'exception, et tout gonfle. Il faudrait peut-être qu'on
C'est surtout que la quantité de fonctionnalité (plus ou moins utiles) a exploser, et surtout la complexité et les possibilités des logiciels aussi.
passe à des concepts fréquents chez Windows comme les DLL (quoique ce
Ahem...
serait sans doute un cauchemar car sur une machine Windows, il y a parfois des problèmes quand 2 applications utilisent la même DLL et que la dernière installée arrive avec une version plus ancienne ou même incompatible).
Ca s'appelle une librairie dynamique. Ca correspond aux fichiers .so que l'on trouve sur tout bon Linux/FreeBSD/Solaris et ca fait longtemps, très longtemps que ca existe. Je pense meme que ca existait avant Windows... Mais sous Unix, plusieurs version d'un .so peuvent cohabiter avec plus ou moins de succès: [ RN_IA]% ls -l /lib/libc.so.* -r--r--r-- 1 root wheel 961164 Jul 17 2005 /lib/libc.so.5 -r--r--r-- 1 root wheel 889604 Apr 23 20:23 /lib/libc.so.6
Et j'avais déja ca en 1998 sur mon Linux...
l'impression que cette rumeur est fausse, mais si elle avait été vraie, si un Word 97 qui roulerait dans XP ne pouvait plus fonctionner dans Vista, alors la majorité des utilisateurs se poseraient beaucoup de questions...
Ca a un coup la compatibilité ascendante: ca empeche de faire évoluer certaines choses ou ca impose un "émulation" (enfin, une ABI, interface binaire compatible).
-- Nicolas Le Scouarnec
G-raison
Le Tue, 30 May 2006 11:44:26 +0200, Olivier a écrit :
Installé la béta 2...
Sans rien, 736 MB de RAM au démarrage avec AERO
Si je vire AERO, on tombe de 100 MB de RAM
Ah, et c'est quoi comme système de fichier? Ils avaient parlé de WinFS il fut un temps?
@+ gr
(J'ai posté ce message avec PAN pour la première fois, pourvu que ça marche...)
Le Tue, 30 May 2006 11:44:26 +0200, Olivier a écrit :
Installé la béta 2...
Sans rien, 736 MB de RAM au démarrage avec AERO
Si je vire AERO, on tombe de 100 MB de RAM
Ah, et c'est quoi comme système de fichier?
Ils avaient parlé de WinFS il fut un temps?
@+
gr
(J'ai posté ce message avec PAN pour la première fois, pourvu que ça
marche...)