On connaît les comportements qui sont les plus efficaces en
cas de nécessité de swap, il suffit de les appliquer. Ce qu'apporte la
mémoire virtuelle, c'est qu'il n'y a pas _besoin_ de s'en occuper : on peut
optimiser très finement, mais ça fonctionnera quand même si on ne le fait
pas.
Heuristiques signifie bricolages. Un bricolage n'optimise jamais.
Pétition de principe qui n'apporte rien au débat.
C'est cela, oui. Flusher le contenu de tout le cache sur disque (s'il y
a write-back) et à des emplacements tous différents les uns des autres,
c'est sûr que ça ne va rien coûter en temps !
Je parle du cache, pas des tampons d'écriture. C'est l'utilisation
principale de la mémoire sur une machine actuelle correctement dotée avec un
OS décent.
Je ne vois pas comment on pourrait avoir moins de temps perdu en attente
de page que 0.
Parce que ce n'est pas 0. C'est attendre une page, ou en attendre une autre.
La présence de swap laisse plus de marge au système pour déterminer quelles
pages utiles conserver en mémoire.
Sur mon vieux Pentium 100, j'allais déjà plus vite en faisant
cracher ce fichier intermédiaire sur un disque virtuel, malgré l'overhead.
Je mets en doute cette affirmation, qui ne correspond ni à la théorie ni à
la pratique.
On connaît les comportements qui sont les plus efficaces en
cas de nécessité de swap, il suffit de les appliquer. Ce qu'apporte la
mémoire virtuelle, c'est qu'il n'y a pas _besoin_ de s'en occuper : on peut
optimiser très finement, mais ça fonctionnera quand même si on ne le fait
pas.
Heuristiques signifie bricolages. Un bricolage n'optimise jamais.
Pétition de principe qui n'apporte rien au débat.
C'est cela, oui. Flusher le contenu de tout le cache sur disque (s'il y
a write-back) et à des emplacements tous différents les uns des autres,
c'est sûr que ça ne va rien coûter en temps !
Je parle du cache, pas des tampons d'écriture. C'est l'utilisation
principale de la mémoire sur une machine actuelle correctement dotée avec un
OS décent.
Je ne vois pas comment on pourrait avoir moins de temps perdu en attente
de page que 0.
Parce que ce n'est pas 0. C'est attendre une page, ou en attendre une autre.
La présence de swap laisse plus de marge au système pour déterminer quelles
pages utiles conserver en mémoire.
Sur mon vieux Pentium 100, j'allais déjà plus vite en faisant
cracher ce fichier intermédiaire sur un disque virtuel, malgré l'overhead.
Je mets en doute cette affirmation, qui ne correspond ni à la théorie ni à
la pratique.
On connaît les comportements qui sont les plus efficaces en
cas de nécessité de swap, il suffit de les appliquer. Ce qu'apporte la
mémoire virtuelle, c'est qu'il n'y a pas _besoin_ de s'en occuper : on peut
optimiser très finement, mais ça fonctionnera quand même si on ne le fait
pas.
Heuristiques signifie bricolages. Un bricolage n'optimise jamais.
Pétition de principe qui n'apporte rien au débat.
C'est cela, oui. Flusher le contenu de tout le cache sur disque (s'il y
a write-back) et à des emplacements tous différents les uns des autres,
c'est sûr que ça ne va rien coûter en temps !
Je parle du cache, pas des tampons d'écriture. C'est l'utilisation
principale de la mémoire sur une machine actuelle correctement dotée avec un
OS décent.
Je ne vois pas comment on pourrait avoir moins de temps perdu en attente
de page que 0.
Parce que ce n'est pas 0. C'est attendre une page, ou en attendre une autre.
La présence de swap laisse plus de marge au système pour déterminer quelles
pages utiles conserver en mémoire.
Sur mon vieux Pentium 100, j'allais déjà plus vite en faisant
cracher ce fichier intermédiaire sur un disque virtuel, malgré l'overhead.
Je mets en doute cette affirmation, qui ne correspond ni à la théorie ni à
la pratique.
Je parlais de la réactivité générale de la machine : ça ne se mesure pas
avec une montre.
Quoi qu'il en soit, j'aimerais bien que tu décrives précisément les
conditions dans lesquelles tu as fait tes mesures.
La lecture étant séquentielle dans le cas dont je parle
On ne t'a jamais expliqué que les fichiers étaient rarement d'un seul tenant
sur un disque dur ?
Je parlais de la réactivité générale de la machine : ça ne se mesure pas
avec une montre.
Quoi qu'il en soit, j'aimerais bien que tu décrives précisément les
conditions dans lesquelles tu as fait tes mesures.
La lecture étant séquentielle dans le cas dont je parle
On ne t'a jamais expliqué que les fichiers étaient rarement d'un seul tenant
sur un disque dur ?
Je parlais de la réactivité générale de la machine : ça ne se mesure pas
avec une montre.
Quoi qu'il en soit, j'aimerais bien que tu décrives précisément les
conditions dans lesquelles tu as fait tes mesures.
La lecture étant séquentielle dans le cas dont je parle
On ne t'a jamais expliqué que les fichiers étaient rarement d'un seul tenant
sur un disque dur ?
Tu peux t'amuser à faire la simulation suivante : 100 000 pages de 4K se
référençant l'une l'autre de façon parfaitement aléatoire, avec des
chaînages faisant cavaler sur sept ou huit pages en quelques centaines
de cycles. Si tu as tout en mémoire, tu as gagné. Si tu as 80% seulement
de la place en mémoire, tu es mort.
Résultat non garanti = bricolage, je persiste et signe.
Je parle du cache aussi. Toute page modifiée doit être réécrite si elle
ne l'a pas été.
Quand on les conserve toutes, la question ne se pose même pas. Au prix
où est la RAM, et à la lenteur des disques durs qui est ce qu'elle est,
la mémoire virtuelle est devenue un anachronisme total
Sur mon vieux Pentium 100, j'allais déjà plus vite en faisant
cracher ce fichier intermédiaire sur un disque virtuel, malgré l'overhead.
Hmmm... Et si je le sortais de son placard pour le remettre dans sa
configuration DOS, et te livrant le résultat des chronométrages ?
Le tout était sous DOS, parce que le Windows de l'époque (2.0 ?) ne
branchait pas plus que ça.
Tu peux t'amuser à faire la simulation suivante : 100 000 pages de 4K se
référençant l'une l'autre de façon parfaitement aléatoire, avec des
chaînages faisant cavaler sur sept ou huit pages en quelques centaines
de cycles. Si tu as tout en mémoire, tu as gagné. Si tu as 80% seulement
de la place en mémoire, tu es mort.
Résultat non garanti = bricolage, je persiste et signe.
Je parle du cache aussi. Toute page modifiée doit être réécrite si elle
ne l'a pas été.
Quand on les conserve toutes, la question ne se pose même pas. Au prix
où est la RAM, et à la lenteur des disques durs qui est ce qu'elle est,
la mémoire virtuelle est devenue un anachronisme total
Sur mon vieux Pentium 100, j'allais déjà plus vite en faisant
cracher ce fichier intermédiaire sur un disque virtuel, malgré l'overhead.
Hmmm... Et si je le sortais de son placard pour le remettre dans sa
configuration DOS, et te livrant le résultat des chronométrages ?
Le tout était sous DOS, parce que le Windows de l'époque (2.0 ?) ne
branchait pas plus que ça.
Tu peux t'amuser à faire la simulation suivante : 100 000 pages de 4K se
référençant l'une l'autre de façon parfaitement aléatoire, avec des
chaînages faisant cavaler sur sept ou huit pages en quelques centaines
de cycles. Si tu as tout en mémoire, tu as gagné. Si tu as 80% seulement
de la place en mémoire, tu es mort.
Résultat non garanti = bricolage, je persiste et signe.
Je parle du cache aussi. Toute page modifiée doit être réécrite si elle
ne l'a pas été.
Quand on les conserve toutes, la question ne se pose même pas. Au prix
où est la RAM, et à la lenteur des disques durs qui est ce qu'elle est,
la mémoire virtuelle est devenue un anachronisme total
Sur mon vieux Pentium 100, j'allais déjà plus vite en faisant
cracher ce fichier intermédiaire sur un disque virtuel, malgré l'overhead.
Hmmm... Et si je le sortais de son placard pour le remettre dans sa
configuration DOS, et te livrant le résultat des chronométrages ?
Le tout était sous DOS, parce que le Windows de l'époque (2.0 ?) ne
branchait pas plus que ça.
Dans mon cas, le temps qui s'écoulaite entre la compilation de mon
source et le moment où je pouvais examiner les résultats à l'écran.
J'utilisais DVOO, le réorganisateur de disque de l'époque, parce que je
l'avais gratuit. Il me semble qu'il y en avait un autre dans les Norton
Utilities, mais je ne les avais pas.
De toute façon, avec le BIOS de l'époque, on ne pouvait pas me
semble-t-il lire plus de 17 secteurs consécutifs.
Dans mon cas, le temps qui s'écoulaite entre la compilation de mon
source et le moment où je pouvais examiner les résultats à l'écran.
J'utilisais DVOO, le réorganisateur de disque de l'époque, parce que je
l'avais gratuit. Il me semble qu'il y en avait un autre dans les Norton
Utilities, mais je ne les avais pas.
De toute façon, avec le BIOS de l'époque, on ne pouvait pas me
semble-t-il lire plus de 17 secteurs consécutifs.
Dans mon cas, le temps qui s'écoulaite entre la compilation de mon
source et le moment où je pouvais examiner les résultats à l'écran.
J'utilisais DVOO, le réorganisateur de disque de l'époque, parce que je
l'avais gratuit. Il me semble qu'il y en avait un autre dans les Norton
Utilities, mais je ne les avais pas.
De toute façon, avec le BIOS de l'époque, on ne pouvait pas me
semble-t-il lire plus de 17 secteurs consécutifs.
Dans mon cas, le temps qui s'écoulaite entre la compilation de mon
source et le moment où je pouvais examiner les résultats à l'écran.
Et tu comparais quelles situations précisément ?
J'utilisais DVOO, le réorganisateur de disque de l'époque, parce que je
l'avais gratuit. Il me semble qu'il y en avait un autre dans les Norton
Utilities, mais je ne les avais pas.
De toute façon, avec le BIOS de l'époque, on ne pouvait pas me
semble-t-il lire plus de 17 secteurs consécutifs.
Tout ça m'a l'air antédiluvien.
Tu ferais peut-être mieux de te renseigner
sur ce qui se fait depuis une dizaine d'années avant d'aligner ânerie sur
ânerie.
Dans mon cas, le temps qui s'écoulaite entre la compilation de mon
source et le moment où je pouvais examiner les résultats à l'écran.
Et tu comparais quelles situations précisément ?
J'utilisais DVOO, le réorganisateur de disque de l'époque, parce que je
l'avais gratuit. Il me semble qu'il y en avait un autre dans les Norton
Utilities, mais je ne les avais pas.
De toute façon, avec le BIOS de l'époque, on ne pouvait pas me
semble-t-il lire plus de 17 secteurs consécutifs.
Tout ça m'a l'air antédiluvien.
Tu ferais peut-être mieux de te renseigner
sur ce qui se fait depuis une dizaine d'années avant d'aligner ânerie sur
ânerie.
Dans mon cas, le temps qui s'écoulaite entre la compilation de mon
source et le moment où je pouvais examiner les résultats à l'écran.
Et tu comparais quelles situations précisément ?
J'utilisais DVOO, le réorganisateur de disque de l'époque, parce que je
l'avais gratuit. Il me semble qu'il y en avait un autre dans les Norton
Utilities, mais je ne les avais pas.
De toute façon, avec le BIOS de l'époque, on ne pouvait pas me
semble-t-il lire plus de 17 secteurs consécutifs.
Tout ça m'a l'air antédiluvien.
Tu ferais peut-être mieux de te renseigner
sur ce qui se fait depuis une dizaine d'années avant d'aligner ânerie sur
ânerie.
Et ça prouve quoi ? Qu'il vaut mieux avoir tout en mémoire que pas... Beau
truisme ! Ça ne prouve absolument pas la nocivité de la mémoire virtuelle.
- Cas 2, avec mémoire virtuelle : ça râme pendant une minute le temps que
8 Mo du browser web partent dans le swap, le programme tourne ses deux
heures et fournit son résultat, ça râme pendant une minute quand on veut à
nouveau se servir du browser web.
De toutes façons, ta position est intenable : pour une quantité de mémoire
donnée, soit le programme tient en mémoire, et la mémoire virtuelle n'y
change rien ;
soit ça ne tient pas en mémoire, et la mémoire virtuelle
permet d'avoir un résultat au lieu de rien
Résultat non garanti = bricolage, je persiste et signe.
Et c'est bien une pétition de principe qui n'apporte rien.
Je parle du cache aussi. Toute page modifiée doit être réécrite si elle
ne l'a pas été.
Tu confonds cache et tampon.
Le cache est constitué de pages du disque qui
ont été lues à un moment, et sont gardées en mémoire au cas où elles
resserviraient
D'une part, augmenter la RAM pour une tâche donnée est possible pour une
machine dédiée à cette tâche, comme un serveur ou une machine de calcul
scientifique. Ce n'est pas le cas sur une machine personnelle, où la
quantité de RAM est fixée par l'exigence que la machine tourne bien au jour
le jour et ait un prix raisonnable.
D'autre part, et surtout, ce n'est pas un argument contre la mémoire
virtuelle : si la question posée était « ajouter de la mémoire ou utiliser
de la mémoire virtuelle », je répondrais immédiatement : les deux. Le fait
est que *pour une quantité de mémoire donnée*, l'utilisation de mémoire
virtuelle en plus améliore les performances dans presque tous les cas.
la mémoire virtuelle est devenue un anachronisme total
Le répéter ne le rendra pas plus vrai, et ce ne sont pas tes comparaisons
fumeuses qui constituent un argument valide.
Le tout était sous DOS, parce que le Windows de l'époque (2.0 ?) ne
branchait pas plus que ça.
Windows 2.0 à l'époque des pentium 100 ?
Et ça prouve quoi ? Qu'il vaut mieux avoir tout en mémoire que pas... Beau
truisme ! Ça ne prouve absolument pas la nocivité de la mémoire virtuelle.
- Cas 2, avec mémoire virtuelle : ça râme pendant une minute le temps que
8 Mo du browser web partent dans le swap, le programme tourne ses deux
heures et fournit son résultat, ça râme pendant une minute quand on veut à
nouveau se servir du browser web.
De toutes façons, ta position est intenable : pour une quantité de mémoire
donnée, soit le programme tient en mémoire, et la mémoire virtuelle n'y
change rien ;
soit ça ne tient pas en mémoire, et la mémoire virtuelle
permet d'avoir un résultat au lieu de rien
Résultat non garanti = bricolage, je persiste et signe.
Et c'est bien une pétition de principe qui n'apporte rien.
Je parle du cache aussi. Toute page modifiée doit être réécrite si elle
ne l'a pas été.
Tu confonds cache et tampon.
Le cache est constitué de pages du disque qui
ont été lues à un moment, et sont gardées en mémoire au cas où elles
resserviraient
D'une part, augmenter la RAM pour une tâche donnée est possible pour une
machine dédiée à cette tâche, comme un serveur ou une machine de calcul
scientifique. Ce n'est pas le cas sur une machine personnelle, où la
quantité de RAM est fixée par l'exigence que la machine tourne bien au jour
le jour et ait un prix raisonnable.
D'autre part, et surtout, ce n'est pas un argument contre la mémoire
virtuelle : si la question posée était « ajouter de la mémoire ou utiliser
de la mémoire virtuelle », je répondrais immédiatement : les deux. Le fait
est que *pour une quantité de mémoire donnée*, l'utilisation de mémoire
virtuelle en plus améliore les performances dans presque tous les cas.
la mémoire virtuelle est devenue un anachronisme total
Le répéter ne le rendra pas plus vrai, et ce ne sont pas tes comparaisons
fumeuses qui constituent un argument valide.
Le tout était sous DOS, parce que le Windows de l'époque (2.0 ?) ne
branchait pas plus que ça.
Windows 2.0 à l'époque des pentium 100 ?
Et ça prouve quoi ? Qu'il vaut mieux avoir tout en mémoire que pas... Beau
truisme ! Ça ne prouve absolument pas la nocivité de la mémoire virtuelle.
- Cas 2, avec mémoire virtuelle : ça râme pendant une minute le temps que
8 Mo du browser web partent dans le swap, le programme tourne ses deux
heures et fournit son résultat, ça râme pendant une minute quand on veut à
nouveau se servir du browser web.
De toutes façons, ta position est intenable : pour une quantité de mémoire
donnée, soit le programme tient en mémoire, et la mémoire virtuelle n'y
change rien ;
soit ça ne tient pas en mémoire, et la mémoire virtuelle
permet d'avoir un résultat au lieu de rien
Résultat non garanti = bricolage, je persiste et signe.
Et c'est bien une pétition de principe qui n'apporte rien.
Je parle du cache aussi. Toute page modifiée doit être réécrite si elle
ne l'a pas été.
Tu confonds cache et tampon.
Le cache est constitué de pages du disque qui
ont été lues à un moment, et sont gardées en mémoire au cas où elles
resserviraient
D'une part, augmenter la RAM pour une tâche donnée est possible pour une
machine dédiée à cette tâche, comme un serveur ou une machine de calcul
scientifique. Ce n'est pas le cas sur une machine personnelle, où la
quantité de RAM est fixée par l'exigence que la machine tourne bien au jour
le jour et ait un prix raisonnable.
D'autre part, et surtout, ce n'est pas un argument contre la mémoire
virtuelle : si la question posée était « ajouter de la mémoire ou utiliser
de la mémoire virtuelle », je répondrais immédiatement : les deux. Le fait
est que *pour une quantité de mémoire donnée*, l'utilisation de mémoire
virtuelle en plus améliore les performances dans presque tous les cas.
la mémoire virtuelle est devenue un anachronisme total
Le répéter ne le rendra pas plus vrai, et ce ne sont pas tes comparaisons
fumeuses qui constituent un argument valide.
Le tout était sous DOS, parce que le Windows de l'époque (2.0 ?) ne
branchait pas plus que ça.
Windows 2.0 à l'époque des pentium 100 ?
* RAMdisk de la taille adéquate pour tout contenir + cache de petite
taille d'une part
* L'espace précédent tout consacré au cache d'autre part.
On mentionne mes optimisations avec le Turbo C en DOS
En ce qui concerne Windows, un simple coup d'oeil sur la
loupiote de ton disque dur
te confirmera qu'il balance des pages sur
disque quand il a une mémoire virtuelle, que ce soit utile ou non, et
rien quand tu inhibes la mémoire virtuelle.
Je crois pour ma part que tu ferais mieux d'expérimenter sur ta machine
au lieu de te fier à un bréviaire qui fut conforme au réel à une époque
et ne l'est plus aujourd'hui.
* RAMdisk de la taille adéquate pour tout contenir + cache de petite
taille d'une part
* L'espace précédent tout consacré au cache d'autre part.
On mentionne mes optimisations avec le Turbo C en DOS
En ce qui concerne Windows, un simple coup d'oeil sur la
loupiote de ton disque dur
te confirmera qu'il balance des pages sur
disque quand il a une mémoire virtuelle, que ce soit utile ou non, et
rien quand tu inhibes la mémoire virtuelle.
Je crois pour ma part que tu ferais mieux d'expérimenter sur ta machine
au lieu de te fier à un bréviaire qui fut conforme au réel à une époque
et ne l'est plus aujourd'hui.
* RAMdisk de la taille adéquate pour tout contenir + cache de petite
taille d'une part
* L'espace précédent tout consacré au cache d'autre part.
On mentionne mes optimisations avec le Turbo C en DOS
En ce qui concerne Windows, un simple coup d'oeil sur la
loupiote de ton disque dur
te confirmera qu'il balance des pages sur
disque quand il a une mémoire virtuelle, que ce soit utile ou non, et
rien quand tu inhibes la mémoire virtuelle.
Je crois pour ma part que tu ferais mieux d'expérimenter sur ta machine
au lieu de te fier à un bréviaire qui fut conforme au réel à une époque
et ne l'est plus aujourd'hui.
Cela prouve qu'il vaut mieux avoir tout en mémoire *et l'y laisser* que
de le balancer sur disque systématiquement juste au cas où, lorsque tu
sais qu'il n'y en aura aucun besoin.
Ce qui est bien dommage, car lancer le browser web à partir de zéro est
loin de prendre une minute.
Détrompe-toi : Je ne sais pas ce qu'ils ont été faire à Redmond
Ne sois pas ridicule : un résultat 60 fois plus lent, *c'est la même
chose* que rien. Ton temps, fût-il personnel, coûte au moins les 10
euros de l'heure que tu donnes à ton employée de maison pour faire ce
que tu n'as plus le temps de faire toi-même. De plus, en 40 minutes, tu
restes concentré sur ton problème. en 40 heures, non.
Résultat non garanti = bricolage, je persiste et signe.
Tu n'appellerais pas un avion qui décolle sans avoir une chance
raisonnable d'arriver à destination dans les délais un bricolage ? Moi, si.
Tu confonds cache et tampon.
Tout ce qu'on flushe doit être réécrit avant que la mémoire soit
libérée.
Eh non, mon garçon. le cache sert également en écriture au cas où les
pages juste écrites seraient relues.
Une heure d'ingénieur coûte le prix d'1 Go de RAM. Cela te suffit-il
comme réponse ?
C'est du délire pur et simple. Si tu as la place d'xécuter tes
applications en mémoire, ajouter de la mémoire virtuelle n'augmentera
*rien*.
Mais en revanche te ralentira par des appels disque
intempestifs en cours quand tu auras besoin de faire des appels disque
qui servent à quelque chose.
Ecoute, tu l'utilises si tu veux. Pour ma part c'est terminé.
Tu es encore en train de tout mélanger ! Turbo C, ça ne tournait pas
sous Windows. C'est Windows que j'utilisais sur un Pentium 100, et DOS
sur le 386 qui tournait en Turbo C. Pour mémoire, avec deux cartes
Addiciel, on avait fait un serveur minitel 40 voies avec ce truc.
Entièrement en Turbo C. Et avec ma configuration RAMdisk + minicache
pour tout ce qui était compilation. C'était en 1987, si mes souvenirs
sont bons.
Cela prouve qu'il vaut mieux avoir tout en mémoire *et l'y laisser* que
de le balancer sur disque systématiquement juste au cas où, lorsque tu
sais qu'il n'y en aura aucun besoin.
Ce qui est bien dommage, car lancer le browser web à partir de zéro est
loin de prendre une minute.
Détrompe-toi : Je ne sais pas ce qu'ils ont été faire à Redmond
Ne sois pas ridicule : un résultat 60 fois plus lent, *c'est la même
chose* que rien. Ton temps, fût-il personnel, coûte au moins les 10
euros de l'heure que tu donnes à ton employée de maison pour faire ce
que tu n'as plus le temps de faire toi-même. De plus, en 40 minutes, tu
restes concentré sur ton problème. en 40 heures, non.
Résultat non garanti = bricolage, je persiste et signe.
Tu n'appellerais pas un avion qui décolle sans avoir une chance
raisonnable d'arriver à destination dans les délais un bricolage ? Moi, si.
Tu confonds cache et tampon.
Tout ce qu'on flushe doit être réécrit avant que la mémoire soit
libérée.
Eh non, mon garçon. le cache sert également en écriture au cas où les
pages juste écrites seraient relues.
Une heure d'ingénieur coûte le prix d'1 Go de RAM. Cela te suffit-il
comme réponse ?
C'est du délire pur et simple. Si tu as la place d'xécuter tes
applications en mémoire, ajouter de la mémoire virtuelle n'augmentera
*rien*.
Mais en revanche te ralentira par des appels disque
intempestifs en cours quand tu auras besoin de faire des appels disque
qui servent à quelque chose.
Ecoute, tu l'utilises si tu veux. Pour ma part c'est terminé.
Tu es encore en train de tout mélanger ! Turbo C, ça ne tournait pas
sous Windows. C'est Windows que j'utilisais sur un Pentium 100, et DOS
sur le 386 qui tournait en Turbo C. Pour mémoire, avec deux cartes
Addiciel, on avait fait un serveur minitel 40 voies avec ce truc.
Entièrement en Turbo C. Et avec ma configuration RAMdisk + minicache
pour tout ce qui était compilation. C'était en 1987, si mes souvenirs
sont bons.
Cela prouve qu'il vaut mieux avoir tout en mémoire *et l'y laisser* que
de le balancer sur disque systématiquement juste au cas où, lorsque tu
sais qu'il n'y en aura aucun besoin.
Ce qui est bien dommage, car lancer le browser web à partir de zéro est
loin de prendre une minute.
Détrompe-toi : Je ne sais pas ce qu'ils ont été faire à Redmond
Ne sois pas ridicule : un résultat 60 fois plus lent, *c'est la même
chose* que rien. Ton temps, fût-il personnel, coûte au moins les 10
euros de l'heure que tu donnes à ton employée de maison pour faire ce
que tu n'as plus le temps de faire toi-même. De plus, en 40 minutes, tu
restes concentré sur ton problème. en 40 heures, non.
Résultat non garanti = bricolage, je persiste et signe.
Tu n'appellerais pas un avion qui décolle sans avoir une chance
raisonnable d'arriver à destination dans les délais un bricolage ? Moi, si.
Tu confonds cache et tampon.
Tout ce qu'on flushe doit être réécrit avant que la mémoire soit
libérée.
Eh non, mon garçon. le cache sert également en écriture au cas où les
pages juste écrites seraient relues.
Une heure d'ingénieur coûte le prix d'1 Go de RAM. Cela te suffit-il
comme réponse ?
C'est du délire pur et simple. Si tu as la place d'xécuter tes
applications en mémoire, ajouter de la mémoire virtuelle n'augmentera
*rien*.
Mais en revanche te ralentira par des appels disque
intempestifs en cours quand tu auras besoin de faire des appels disque
qui servent à quelque chose.
Ecoute, tu l'utilises si tu veux. Pour ma part c'est terminé.
Tu es encore en train de tout mélanger ! Turbo C, ça ne tournait pas
sous Windows. C'est Windows que j'utilisais sur un Pentium 100, et DOS
sur le 386 qui tournait en Turbo C. Pour mémoire, avec deux cartes
Addiciel, on avait fait un serveur minitel 40 voies avec ce truc.
Entièrement en Turbo C. Et avec ma configuration RAMdisk + minicache
pour tout ce qui était compilation. C'était en 1987, si mes souvenirs
sont bons.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt pour
Windows et 30 pour Linux si l'on remonte à leur code initial, dont il
doit bien rester des traces de ci, de là.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt pour
Windows et 30 pour Linux si l'on remonte à leur code initial, dont il
doit bien rester des traces de ci, de là.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt pour
Windows et 30 pour Linux si l'on remonte à leur code initial, dont il
doit bien rester des traces de ci, de là.
encore la proporiété du 386 - reconduite sur tout ce qui a suivi -
d'avoir trois niveaux d'exécution : système, application, utilisateur.
Je crois qu'un FU2 vers un groupe plus approprié serait une bonne diée,
mais en revanche ne je sais pas lequel.
encore la proporiété du 386 - reconduite sur tout ce qui a suivi -
d'avoir trois niveaux d'exécution : système, application, utilisateur.
Je crois qu'un FU2 vers un groupe plus approprié serait une bonne diée,
mais en revanche ne je sais pas lequel.
encore la proporiété du 386 - reconduite sur tout ce qui a suivi -
d'avoir trois niveaux d'exécution : système, application, utilisateur.
Je crois qu'un FU2 vers un groupe plus approprié serait une bonne diée,
mais en revanche ne je sais pas lequel.