La plupart des systèmes (unix... pour Windows je ne sais
pas) utilisent l'appel système 'mmap' pour le code et beaucoup de
softs l'utilisent pour les données. Or, ça aussi, ça utilise de la
mémoire paginée qui se ballade entre la mémoire réelle et le disque.
La plupart des systèmes (unix... pour Windows je ne sais
pas) utilisent l'appel système 'mmap' pour le code et beaucoup de
softs l'utilisent pour les données. Or, ça aussi, ça utilise de la
mémoire paginée qui se ballade entre la mémoire réelle et le disque.
La plupart des systèmes (unix... pour Windows je ne sais
pas) utilisent l'appel système 'mmap' pour le code et beaucoup de
softs l'utilisent pour les données. Or, ça aussi, ça utilise de la
mémoire paginée qui se ballade entre la mémoire réelle et le disque.
La plupart des systèmes (unix... pour Windows je ne sais
pas) utilisent l'appel système 'mmap' pour le code et beaucoup de
softs l'utilisent pour les données. Or, ça aussi, ça utilise de la
mémoire paginée qui se ballade entre la mémoire réelle et le disque.
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ? Je lui prédis quelques difficultés.
La plupart des systèmes (unix... pour Windows je ne sais
pas) utilisent l'appel système 'mmap' pour le code et beaucoup de
softs l'utilisent pour les données. Or, ça aussi, ça utilise de la
mémoire paginée qui se ballade entre la mémoire réelle et le disque.
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ? Je lui prédis quelques difficultés.
La plupart des systèmes (unix... pour Windows je ne sais
pas) utilisent l'appel système 'mmap' pour le code et beaucoup de
softs l'utilisent pour les données. Or, ça aussi, ça utilise de la
mémoire paginée qui se ballade entre la mémoire réelle et le disque.
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ? Je lui prédis quelques difficultés.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt
pour Windows et 30 pour Linux si l'on remonte à leur code initial,
dont il doit bien rester des traces de ci, de là. Les coûts ont
totalement changé depuis.
2. Parce que ces systèmes sont également destinés à faire tourner des
serveurs, qui n'ont personne devant eux et ont tout intérêt à gérer
tout seuls leur mémoire en fonction de leurs profils d'utilisation
dans la journée, ce qui ne s'applique en rien à un ordinateur
personnel.
Essayez le swapping space à zéro, et vous ne pourrez bientôt plus
comprendre comment vous avez pu travailler autrement. Autant tenter de
faire au 400m haies les performances d'un 400m libre, les haies étant
ici les appels disque.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt
pour Windows et 30 pour Linux si l'on remonte à leur code initial,
dont il doit bien rester des traces de ci, de là. Les coûts ont
totalement changé depuis.
2. Parce que ces systèmes sont également destinés à faire tourner des
serveurs, qui n'ont personne devant eux et ont tout intérêt à gérer
tout seuls leur mémoire en fonction de leurs profils d'utilisation
dans la journée, ce qui ne s'applique en rien à un ordinateur
personnel.
Essayez le swapping space à zéro, et vous ne pourrez bientôt plus
comprendre comment vous avez pu travailler autrement. Autant tenter de
faire au 400m haies les performances d'un 400m libre, les haies étant
ici les appels disque.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt
pour Windows et 30 pour Linux si l'on remonte à leur code initial,
dont il doit bien rester des traces de ci, de là. Les coûts ont
totalement changé depuis.
2. Parce que ces systèmes sont également destinés à faire tourner des
serveurs, qui n'ont personne devant eux et ont tout intérêt à gérer
tout seuls leur mémoire en fonction de leurs profils d'utilisation
dans la journée, ce qui ne s'applique en rien à un ordinateur
personnel.
Essayez le swapping space à zéro, et vous ne pourrez bientôt plus
comprendre comment vous avez pu travailler autrement. Autant tenter de
faire au 400m haies les performances d'un 400m libre, les haies étant
ici les appels disque.
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt
pour Windows et 30 pour Linux si l'on remonte à leur code initial,
dont il doit bien rester des traces de ci, de là. Les coûts ont
totalement changé depuis.
C'est sûr : les derniers pentium, AMD ou PowerPC sont conçus par des
vieux croutons qui n'ont pas su évolué avec leur temps ;-)
2. Parce que ces systèmes sont également destinés à faire tourner des
serveurs, qui n'ont personne devant eux et ont tout intérêt à gérer
tout seuls leur mémoire en fonction de leurs profils d'utilisation
dans la journée, ce qui ne s'applique en rien à un ordinateur
personnel.
C'est bien connu : les serveurs sont des rolls très poussives alors
que les ordinateurs personnels sont des petis bolides de courses.
Essayez le swapping space à zéro, et vous ne pourrez bientôt plus
comprendre comment vous avez pu travailler autrement. Autant tenter de
faire au 400m haies les performances d'un 400m libre, les haies étant
ici les appels disque.
Pour reprendre votre image, continuez à laisser votre ordinateur
courir en libre et à se casser la gueule à chaque fois qu'il rencontre
une haie. ;-)
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt
pour Windows et 30 pour Linux si l'on remonte à leur code initial,
dont il doit bien rester des traces de ci, de là. Les coûts ont
totalement changé depuis.
C'est sûr : les derniers pentium, AMD ou PowerPC sont conçus par des
vieux croutons qui n'ont pas su évolué avec leur temps ;-)
2. Parce que ces systèmes sont également destinés à faire tourner des
serveurs, qui n'ont personne devant eux et ont tout intérêt à gérer
tout seuls leur mémoire en fonction de leurs profils d'utilisation
dans la journée, ce qui ne s'applique en rien à un ordinateur
personnel.
C'est bien connu : les serveurs sont des rolls très poussives alors
que les ordinateurs personnels sont des petis bolides de courses.
Essayez le swapping space à zéro, et vous ne pourrez bientôt plus
comprendre comment vous avez pu travailler autrement. Autant tenter de
faire au 400m haies les performances d'un 400m libre, les haies étant
ici les appels disque.
Pour reprendre votre image, continuez à laisser votre ordinateur
courir en libre et à se casser la gueule à chaque fois qu'il rencontre
une haie. ;-)
Demandez-vous aussi pourquoi les concepteurs des *BSD, Linux et autres
Unix propriétaires (et certainement Windows) ainsi que des processeurs
eux-mêmes mettent tant d'énergie, de temps et d'argent dans le
développement, l'amélioration, le paramètrage et les évaluations des
différents mécanismes hards et softs de gestion de mémoire virtuelle
et/ou swappée/paginée.
1. Parce que ces systèmes ont plus de dix ans d'âge, et même vingt
pour Windows et 30 pour Linux si l'on remonte à leur code initial,
dont il doit bien rester des traces de ci, de là. Les coûts ont
totalement changé depuis.
C'est sûr : les derniers pentium, AMD ou PowerPC sont conçus par des
vieux croutons qui n'ont pas su évolué avec leur temps ;-)
2. Parce que ces systèmes sont également destinés à faire tourner des
serveurs, qui n'ont personne devant eux et ont tout intérêt à gérer
tout seuls leur mémoire en fonction de leurs profils d'utilisation
dans la journée, ce qui ne s'applique en rien à un ordinateur
personnel.
C'est bien connu : les serveurs sont des rolls très poussives alors
que les ordinateurs personnels sont des petis bolides de courses.
Essayez le swapping space à zéro, et vous ne pourrez bientôt plus
comprendre comment vous avez pu travailler autrement. Autant tenter de
faire au 400m haies les performances d'un 400m libre, les haies étant
ici les appels disque.
Pour reprendre votre image, continuez à laisser votre ordinateur
courir en libre et à se casser la gueule à chaque fois qu'il rencontre
une haie. ;-)
Consacre carrément 90% de ta mémoire au cache disque,
tu seras ravi : la
mémoire étant devenue trop petite pour ton application, celle-ci
n'arrêtera pas de swapper, ce qui justifiera /a posteriori/ que tu aies
pris un grand cache disque :-D
Consacre carrément 90% de ta mémoire au cache disque,
tu seras ravi : la
mémoire étant devenue trop petite pour ton application, celle-ci
n'arrêtera pas de swapper, ce qui justifiera /a posteriori/ que tu aies
pris un grand cache disque :-D
Consacre carrément 90% de ta mémoire au cache disque,
tu seras ravi : la
mémoire étant devenue trop petite pour ton application, celle-ci
n'arrêtera pas de swapper, ce qui justifiera /a posteriori/ que tu aies
pris un grand cache disque :-D
Ah bon ? Il y aurait une partie de l'OS dans les microprocesseurs,
d'après toi ?
Ah bon ? Il y aurait une partie de l'OS dans les microprocesseurs,
d'après toi ?
Ah bon ? Il y aurait une partie de l'OS dans les microprocesseurs,
d'après toi ?
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ?
Un appel disque tous les 10 000 accès
pendant que je fais ce petit tricotage me plomberait la vitesse de mon
programme
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ?
Un appel disque tous les 10 000 accès
pendant que je fais ce petit tricotage me plomberait la vitesse de mon
programme
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ?
Un appel disque tous les 10 000 accès
pendant que je fais ce petit tricotage me plomberait la vitesse de mon
programme
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ?
Avec un fichier, comme tu le saurais si tu avais seulement ouvert la doc de
mmap au lieu de continuer à parler sur ce que tu ne connais pas.
Un appel disque tous les 10 000 accès
pendant que je fais ce petit tricotage me plomberait la vitesse de mon
programme
D'où l'intérêt d'avoir un maximum de cache disque et de la prédiction de
lecture.
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ?
Avec un fichier, comme tu le saurais si tu avais seulement ouvert la doc de
mmap au lieu de continuer à parler sur ce que tu ne connais pas.
Un appel disque tous les 10 000 accès
pendant que je fais ce petit tricotage me plomberait la vitesse de mon
programme
D'où l'intérêt d'avoir un maximum de cache disque et de la prédiction de
lecture.
Et il fait la correspondance de ta mémoire avec quoi, le mmap, sinon
l'espace de swap ?
Avec un fichier, comme tu le saurais si tu avais seulement ouvert la doc de
mmap au lieu de continuer à parler sur ce que tu ne connais pas.
Un appel disque tous les 10 000 accès
pendant que je fais ce petit tricotage me plomberait la vitesse de mon
programme
D'où l'intérêt d'avoir un maximum de cache disque et de la prédiction de
lecture.
S'agissant de la mémoire virtuelle, une part importante des microprocesseurs
est spécifiquement dédiée à permettre son implémentation, on appelle ça
« Memory Management Unit », MMU. Pour référence, elle est apparue dans la
série des intel avec le 80386.
S'agissant de la mémoire virtuelle, une part importante des microprocesseurs
est spécifiquement dédiée à permettre son implémentation, on appelle ça
« Memory Management Unit », MMU. Pour référence, elle est apparue dans la
série des intel avec le 80386.
S'agissant de la mémoire virtuelle, une part importante des microprocesseurs
est spécifiquement dédiée à permettre son implémentation, on appelle ça
« Memory Management Unit », MMU. Pour référence, elle est apparue dans la
série des intel avec le 80386.