OVH Cloud OVH Cloud

Comment desactiver le swap d'un navigateur ?

59 réponses
Avatar
Denis Beauregard
Bonjour,


Les navigateurs sont de moins en moins utilisables. C'est devenu une
plaie de naviguer avec Firefox ou Chrome par exemple.

Si je m'absente durant plusieurs heures (pour dormir par exemple),
le nouveau gestionnaire mémoire de Windows occupe toute la mémoire
et force ainsi les logiciels inactifs à swapper, soit à envoyer
sur le disque leur contenu. Le résultat, c'est que cela prend autour
de 10 minutes pour que le PC redevienne utilisable, le temps que les
navigateurs reprennent leur contenu.

Firefox semble le pire cas vu qu'il m'arrive souvent de devoir le
fermer parce qu'il ne veut pas revenir à l'écran.

Le nouveau gestionnaire mémoire de Windows est un de ces gadgets qu'on
pour qualifier de "windows 7 killer". Je pense qu'il est dans une des
dll. J'utilise une vieille version de LibreOffice (3.4) parce que les
versions 4 et 5 ne peuvent pas lire rapidement de gros fichiers .xls.
Comme je n'ai pas fait de mise à jour (il n'y en a plus pour LO 3), et
qu'il y a eu plusieurs changements dans LO (écran noir quand on
revient, écran blanc quand on enregistre), il me semble évident que
MS a modifié ses DLL et le but est évidemment de nous pousser vers
Windows 10 à cause du nouveau modèle économique de MS (la pub).

Je suppose qu'il y a néanmoins une parade, soit un moyen de désactiver
le swap et de permettre à FF ou Chrome de garder son contenu sans
swapper.

Rien trouvé avec swap dans about:config, mais beaucoup de résultats
avec memory (lequel changer ?).

Rien dans chrome://settings/

En passant, il est aussi possible qu'une nouvelle version de logiciel
de MS ait comme fonction d'occuper toute la mémoire pour forcer le
swap. Mais je ne trouve pas laquelle ce serait.


Denis

9 réponses

2 3 4 5 6
Avatar
DuboisP
Le 10/07/2018 à 10:51, Pierre Léonard a écrit :
Bonjour à toutes et tous,
W2K n'a pas été utilisé en familial, sauf besoins spécifiques.
ma boîte l'a utilisé sur de nombreuses machines, en bureautique,
longtemps, sans problème.
peut-être nos équipes étaient-elles plus compétentes que celles d'EDF :-)

Non !
C'est plus simple que cela : lorsque tu as des dizaines de milliers de
postes à mettre à jours tu y réfléchit à deux fois. et il vaut mieux
sauter une version juger trop gourmande et comme cela a été dit avec des
problèmes de pilotes afin de ne pas générer des insatisfactions et du
travail en plus. C'est une question d'échelle.

plus de 130 000 machines dans le groupe
ça n'a pas empêché de l'utiliser :-) :-) :-)
Avatar
Pierre L=c3=a9onard
Le 10/07/2018 à 12:31, pehache a écrit :
Le 10/07/2018 à 10:22, Pierre Léonard a écrit :
=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;

je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"

Je vais supposé alors que tu sais ce qu'est un répertoire. Les
répertoire sont dans le cache dans les sytème de type Unix et Linux,
mais pas dans windows.
=) les répertoires sont placés dans le cache dans les systèmes de type
Unix,

Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers contenus
dans les répertoires ?

sous unix oui, avec windows non.
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.

? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.

C'est en effet une bonne question. J'ai ce portable depuis quatre ans et
s'il en est arrivé là c'est qu'il y a un problème quelque part dans le
système.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.

Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.

si tu achètes des "optanes" chez intel je n'en doute pas, mais la
facture ne sera pas la même.
Pierre Léonard
Avatar
pehache
Le 10/07/2018 à 19:51, Pierre Léonard a écrit :
Le 10/07/2018 à 12:31, pehache a écrit :
Le 10/07/2018 à 10:22, Pierre Léonard a écrit :

    =) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;

je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"

Je vais supposé alors que tu sais ce qu'est un répertoire.

Monsieur est trop bon :-)
Les
répertoire sont dans le cache dans les sytème de type Unix et Linux,
mais pas dans windows.
Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?

sous unix oui, avec windows non.

OK.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.

? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.

C'est en effet une bonne question. J'ai ce portable depuis quatre ans et
s'il en est arrivé là c'est qu'il y a un problème quelque part dans le
système.

Ou une utilisation pas très orthodoxe. Comme je l'ai dit on peut arriver
à une situation de fichier pagefile fragmenté, mais dans les cas
d'utilisation courante (fichier pagefile fixe créé dès l'installation de
l'OS) ça ne doit pas arriver. Si on modifie les réglages par défaut de
l'OS il est quand même conseillé de savoir ce qu'on fait.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.

Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.

si tu achètes des "optanes" chez intel je n'en doute pas, mais la
facture ne sera pas la même.

La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas de
serveurs occupés H24 que je prendrais du SLC : mais si la continuité de
service est requise, il faut de toutes façons faire du RAID 1 (ou plus)
même avec des HDD.
--
"...sois ouvert aux idées des autres pour peu qu'elles aillent dans le
même sens que les tiennes.", ST sur fr.bio.medecine
Avatar
Pierre L=c3=a9onard
Bonjour à toutes et tous,
Le 14/07/2018 à 18:38, pehache a écrit :
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"

Je vais supposé alors que tu sais ce qu'est un répertoire.

Monsieur est trop bon :-)

Non, le fil de la discussion a laissé planer un doute sur le
vocabulaire. J'ai tenu à le clarifier. Désolé que tu l'ai pris pour une
attaque personnelle.
Les répertoire sont dans le cache dans les sytème de type Unix et
Linux, mais pas dans windows.

Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?

sous unix oui, avec windows non.

OK.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?

La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas de
serveurs occupés H24 que je prendrais du SLC : mais si la continuité de
service est requise, il faut de toutes façons faire du RAID 1 (ou plus)
même avec des HDD.

Tous les serveurs que j'ai installés tournent en H24 365/365. Le système
est systématiquement en RAID1. les données sont en grappes de RAID5
assemblées en volume afin de fournir des espaces de plusieurs Po.
A++
Pierre Léonard
Avatar
pehache
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?

La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées,  pas
les données des fichiers.

Les tables de fichiers sont bien de l'ordre des informations structurelles.
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas
de serveurs occupés H24 que je prendrais du SLC : mais si la
continuité de service est requise, il faut de toutes façons faire du
RAID 1 (ou plus) même avec des HDD.

Tous les serveurs que j'ai installés tournent en H24 365/365. Le système
est systématiquement en RAID1. les données sont en grappes de RAID5
assemblées en volume afin de fournir des espaces de plusieurs Po.

Il est bon de revenir au départ de cette discussion sur les SSD : il
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant. Ce a quoi tu as répondu que oui les prix
avaient baissé mais que pour être "secure" il en fallait deux en RAID 1.
Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà avec
les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Soit dit en passant, même pour un serveur H24, les disques système ne se
supportent pas une charge d'écriture si élevée que ça : pour eux, des
bons SSD grand-public (genre Samsung Pro) suffisent sans doute largement.
--
"...sois ouvert aux idées des autres pour peu qu'elles aillent dans le
même sens que les tiennes.", ST sur fr.bio.medecine
Avatar
Pierre L=c3=a9onard
Bonjour à toutes et à tous,
Le 17/07/2018 à 09:25, pehache a écrit :
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :
La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées,  pas
les données des fichiers.

Les tables de fichiers sont bien de l'ordre des informations structurelles.

Qu'est-ce qu'une table de fichier pour toi ?
Si c'est le contenu du fichier : la réponse est non !
Si c'est un ensemble d'information décrivant le fichier à un instant
donné : la réponse est oui !
Il est bon de revenir au départ de cette discussion sur les SSD :

L'origine de la discussion ne concernait pas le SSD mais le swap et les
navigateurs.
il
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.

Oups, mélange de genre, le swap est nécessaire suivant les contextes de
calculs. relecture mes posts précédents, mais je peux reprendre :
C'est une question de ratio entre la mémoire disponible le nombre de
processus et la mémoire qu'ils requièrent.
Sur des machines avec 128Go il étaient impossible de lancer plus de 10
processus de calcul.
Pour un calcul très gourmand en métagénomique quantitative
"l'assemblage", nous (l'INRA) avons du acquérir une machine de 768Go, ce
qui nous a permis de faire passer le temps de calcul de une semaine à
quelques heures. Ce n'était pas une question de puissance de calcul, les
processeurs étaient même inférieurs à nos autres calculateurs, c'était
juste un problème de gestion de mémoire par rapport à la taille des
données nécessaires à un moment donné.
Il faut trouver l'équilibre entre le nombre de processus qui permettent
à ceux-ci de s'exécuter pendant les temps d'entrée/sortie disques.
Trop de processus : ils vont attendre, pas assez : le cpu sera sous
utilisé.
Ce a quoi tu as répondu que oui les prix
avaient baissé mais que pour être "secure" il en fallait deux en RAID 1.
Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà avec
les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.

Je préfère acheté des disques lents 5400t/m les gérer en RAID5 plutôt
que d'acheter un disque à 10000T/M et tout planter.
Quand aux SSD ils sont dans des fermes de disques en caches des grappes
de disques classiques.
Certes nous sommes loin de l'ordi de tout le monde, mais j'ai équipé mon
serveur de deux disques en RAID1 pour le système et six mois plus tard
un des disques à défunté. S'il avait été seul j'aurai tout perdu.
Donc désolé j'applique des méthodes plus riches car le vrai sujet ce
sont les données.
Soit dit en passant, même pour un serveur H24, les disques système ne se
supportent pas une charge d'écriture si élevée que ça : pour eux, des
bons SSD grand-public (genre Samsung Pro) suffisent sans doute largement.

Ah bien voilà enfin une bonne remarque. Sur l'accès de la partie système
de l'information, en effet elle n'est pas si "réclamée" que cela. Une
fois les applications chargées tu as besoin du swap (à calculer) et de
l'accès aux données.
Mais lorsque tu fais de la gestion d'infrastructure, tu dois le faire
avec les utilisateurs pour connaître les impératifs en terme de calcul,
d'espace de stockage, d'espace de sauvegarde et de transfert sur le réseau.
Pierre Léonard
Avatar
DuboisP
Le 17/07/2018 à 15:52, Pierre Léonard a écrit :
Bonjour à toutes et à tous,
Le 17/07/2018 à 09:25, pehache a écrit :
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :

La journalisation a apporté beaucoup apporté de sécurité pour les
SGF. Mais ne résout pas tout. Même en journalisation tu peux perdre
des données, car seul les informations structurelles sont
mémorisées,  pas les données des fichiers.

Les tables de fichiers sont bien de l'ordre des informations
structurelles.

Qu'est-ce qu'une table de fichier pour toi ?
Si c'est le contenu du fichier : la réponse est non !
Si c'est un ensemble d'information décrivant le fichier à un instant
donné : la réponse est oui !
Il est bon de revenir au départ de cette discussion sur les SSD :

L'origine de la discussion ne concernait pas le SSD mais le swap et les
navigateurs.
il
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.

Oups, mélange de genre, le swap est nécessaire suivant les contextes de
calculs. relecture mes posts précédents, mais je peux reprendre :
C'est une question de ratio entre la mémoire disponible le nombre de
processus et la mémoire qu'ils requièrent.
Sur des machines avec 128Go il étaient impossible de lancer plus de 10
processus de calcul.
Pour un calcul très gourmand en métagénomique quantitative
"l'assemblage", nous (l'INRA) avons du acquérir une machine de 768Go, ce
qui nous a permis de faire passer le temps de calcul de une semaine à
quelques heures. Ce n'était pas une question de puissance de calcul, les
processeurs étaient même inférieurs à nos autres calculateurs, c'était
juste un problème de gestion de mémoire par rapport à la taille des
données nécessaires à un moment donné.
Il faut trouver l'équilibre entre le nombre de processus qui permettent
à ceux-ci de s'exécuter pendant les temps d'entrée/sortie disques.
Trop de processus : ils vont attendre, pas assez : le cpu sera sous
utilisé.
Ce a quoi tu as répondu que oui les prix
avaient baissé mais que pour être "secure" il en fallait deux en RAID
1. Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà
avec les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.

Je préfère acheté des disques lents 5400t/m les gérer en RAID5 plutôt
que d'acheter un disque à 10000T/M et tout planter.
Quand aux SSD ils sont dans des fermes de disques en caches des grappes
de disques classiques.
Certes nous sommes loin de l'ordi de tout le monde, mais j'ai équipé mon
serveur de deux disques en RAID1 pour le système et six mois plus tard
un des disques à défunté. S'il avait été seul j'aurai tout perdu.
Donc désolé j'applique des méthodes plus riches car le vrai sujet ce
sont les données.
Soit dit en passant, même pour un serveur H24, les disques système ne
se supportent pas une charge d'écriture si élevée que ça : pour eux,
des bons SSD grand-public (genre Samsung Pro) suffisent sans doute
largement.

Ah bien voilà enfin une bonne remarque. Sur l'accès de la partie système
de l'information, en effet elle n'est pas si "réclamée" que cela. Une
fois les applications chargées tu as besoin du swap (à calculer) et de
l'accès aux données.
Mais lorsque tu fais de la gestion d'infrastructure, tu dois le faire
avec les utilisateurs pour connaître les impératifs en terme de calcul,
d'espace de stockage, d'espace de sauvegarde et de transfert sur le réseau.
Pierre Léonard

il est vrai que tous mes serveurs ont été en RAID5 ou
System en RAID1 et Data en RAID5
à la maison, mon NAS est en RAID5 (5 disques)
on dort bien :-)
Avatar
Denis Beauregard
Le Thu, 28 Jun 2018 09:24:47 -0400, Denis Beauregard
écrivait dans
fr.comp.infosystemes.www.navigateurs:
Les navigateurs sont de moins en moins utilisables. C'est devenu une
plaie de naviguer avec Firefox ou Chrome par exemple.

J'ai fini par trouver la solution par hasard.
Si on fait about:memory dans certains navigateurs, on peut
faire un nettoyage de la mémoire (GC pour Garbage Collection).
Il y a aussi un site qui explique ce que les navigateurs font:
un nouveau processus pour isoler les onglets l'une de l'autre.
Le résultat, c'est que cela finit par occuper toute la mémoire.
Et j'ai l'habitude de lancer beaucoup de processus. Par exemple,
je consulte une base de données et pour afficher un résultat,
j'ouvre un onglet. J'utilise les données dans un autre logiciel
et dois garder l'onglet un certain temps. J'ai alors 10 à 20
onglets.
Une solution proposée est l'application OneTab qui est disponible
avec Chrome et Firefox. En cliquant sur son icône, on place tous
les onglets dans un seul. La mémoire est libérée tant que je n'ai
pas besoin du contenu de l'onglet. J'ai découvert cela ce matin mais
cela s'annonce déjà comme une nette amélioration.
Denis
Avatar
zeLittle
Le Thu, 16 Aug 2018 16:18:41 +0200, Denis Beauregard
a écrit:
Une solution proposée est l'application OneTab qui est disponible
avec Chrome et Firefox. En cliquant sur son icône, on place tous
les onglets dans un seul. La mémoire est libérée tant q ue je n'ai
pas besoin du contenu de l'onglet. J'ai découvert cela ce matin m ais
cela s'annonce déjà comme une nette amélioration.
Denis

+1.
J'ai regardé avec le gestionnaire de ressources: OneTab n'est absol ument
pas un gadget. De la RAM est bien libérée quand tous les ongle ts sont
concaténés en "un seul OnTab", et elle ré-augmente à chaque réification
d'un onglet depuis l'onglet "OnTab" jusqu'à remonter à son niv eau
ante-clic sur "un seul OnTab".
2 3 4 5 6