Bonjour à toutes et tous,W2K n'a pas été utilisé en familial, sauf besoins spécifiques.
ma boîte l'a utilisé sur de nombreuses machines, en bureautique,
longtemps, sans problème.
peut-être nos équipes étaient-elles plus compétentes que celles d'EDF :-)
Non !
C'est plus simple que cela : lorsque tu as des dizaines de milliers de
postes à mettre à jours tu y réfléchit à deux fois. et il vaut mieux
sauter une version juger trop gourmande et comme cela a été dit avec des
problèmes de pilotes afin de ne pas générer des insatisfactions et du
travail en plus. C'est une question d'échelle.
Bonjour à toutes et tous,
W2K n'a pas été utilisé en familial, sauf besoins spécifiques.
ma boîte l'a utilisé sur de nombreuses machines, en bureautique,
longtemps, sans problème.
peut-être nos équipes étaient-elles plus compétentes que celles d'EDF :-)
Non !
C'est plus simple que cela : lorsque tu as des dizaines de milliers de
postes à mettre à jours tu y réfléchit à deux fois. et il vaut mieux
sauter une version juger trop gourmande et comme cela a été dit avec des
problèmes de pilotes afin de ne pas générer des insatisfactions et du
travail en plus. C'est une question d'échelle.
Bonjour à toutes et tous,W2K n'a pas été utilisé en familial, sauf besoins spécifiques.
ma boîte l'a utilisé sur de nombreuses machines, en bureautique,
longtemps, sans problème.
peut-être nos équipes étaient-elles plus compétentes que celles d'EDF :-)
Non !
C'est plus simple que cela : lorsque tu as des dizaines de milliers de
postes à mettre à jours tu y réfléchit à deux fois. et il vaut mieux
sauter une version juger trop gourmande et comme cela a été dit avec des
problèmes de pilotes afin de ne pas générer des insatisfactions et du
travail en plus. C'est une question d'échelle.
Le 10/07/2018 à 10:22, Pierre Léonard a écrit :=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
=) les répertoires sont placés dans le cache dans les systèmes de type
Unix,
Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers contenus
dans les répertoires ?
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.
? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.
Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.
Le 10/07/2018 à 10:22, Pierre Léonard a écrit :
=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
=) les répertoires sont placés dans le cache dans les systèmes de type
Unix,
Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers contenus
dans les répertoires ?
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.
? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.
Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.
Le 10/07/2018 à 10:22, Pierre Léonard a écrit :=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
=) les répertoires sont placés dans le cache dans les systèmes de type
Unix,
Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers contenus
dans les répertoires ?
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.
? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.
Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.
Le 10/07/2018 à 12:31, pehache a écrit :Le 10/07/2018 à 10:22, Pierre Léonard a écrit :=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
Je vais supposé alors que tu sais ce qu'est un répertoire.
Les
répertoire sont dans le cache dans les sytème de type Unix et Linux,
mais pas dans windows.Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?
sous unix oui, avec windows non.
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.
? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.
C'est en effet une bonne question. J'ai ce portable depuis quatre ans et
s'il en est arrivé là c'est qu'il y a un problème quelque part dans le
système.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.
Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.
si tu achètes des "optanes" chez intel je n'en doute pas, mais la
facture ne sera pas la même.
Le 10/07/2018 à 12:31, pehache a écrit :
Le 10/07/2018 à 10:22, Pierre Léonard a écrit :
=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
Je vais supposé alors que tu sais ce qu'est un répertoire.
Les
répertoire sont dans le cache dans les sytème de type Unix et Linux,
mais pas dans windows.
Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?
sous unix oui, avec windows non.
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.
? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.
C'est en effet une bonne question. J'ai ce portable depuis quatre ans et
s'il en est arrivé là c'est qu'il y a un problème quelque part dans le
système.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.
Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.
si tu achètes des "optanes" chez intel je n'en doute pas, mais la
facture ne sera pas la même.
Le 10/07/2018 à 12:31, pehache a écrit :Le 10/07/2018 à 10:22, Pierre Léonard a écrit :=) lorsqu'un processus écrit dans un fichier, seule le cache est
affecté, il n'y a pas d'écriture sur le disque. Cette écriture est
reporté dans un cycle régulier qui dépend du système, ce qui permet de
ne pas bloquer le processus et permet au système de classer les
opérations de lecture/écriture en suivant l’algorithme de l'ascenseur
afin de gagner du temps. Algorithme qui a été chagé dans le noyau linux
version 4 afin de donner un priorité aux lectures qui elles sont
bloquantes ;
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
Je vais supposé alors que tu sais ce qu'est un répertoire.
Les
répertoire sont dans le cache dans les sytème de type Unix et Linux,
mais pas dans windows.Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?
sous unix oui, avec windows non.
Je viens de démarrer un
portable en windows 10 et il a pris 2 minutes pour défragmenter le
fichiers pagefile.sys et la placé au milieu du disque.
? ? ?
La bonne question c'est comment es-tu arrivé à un fichier pagefile
fragmenté... Le seul cas où ça peut arriver c'est quand on créé le
fichier pagefile alors que le disque est déjà trop fragmenté.
C'est en effet une bonne question. J'ai ce portable depuis quatre ans et
s'il en est arrivé là c'est qu'il y a un problème quelque part dans le
système.
Je ne m'y suis jamais aventuré en production. et tous les installations
avec des SSD étaient en RAID1, Et même celle que j'ai réalisé avec de
disques SAS étaient en raid1, il rien de plus agaçant d'avoir à arrêter
un système en production pour réinstaller un système complèt et
l'ensemble des logiciel métiers.
Certainement, mais ça n'a rien de spécifique aux SSD, contrairement à ce
que tu laissais entendre.
si tu achètes des "optanes" chez intel je n'en doute pas, mais la
facture ne sera pas la même.
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
Je vais supposé alors que tu sais ce qu'est un répertoire.
Monsieur est trop bon :-)
Les répertoire sont dans le cache dans les sytème de type Unix et
Linux, mais pas dans windows.Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?
sous unix oui, avec windows non.
OK.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas de
serveurs occupés H24 que je prendrais du SLC : mais si la continuité de
service est requise, il faut de toutes façons faire du RAID 1 (ou plus)
même avec des HDD.
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
Je vais supposé alors que tu sais ce qu'est un répertoire.
Monsieur est trop bon :-)
Les répertoire sont dans le cache dans les sytème de type Unix et
Linux, mais pas dans windows.
Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?
sous unix oui, avec windows non.
OK.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas de
serveurs occupés H24 que je prendrais du SLC : mais si la continuité de
service est requise, il faut de toutes façons faire du RAID 1 (ou plus)
même avec des HDD.
je sais ce qu'est un cache, mais ma question portait spécifiquement sur
"répertoire en cache"
Je vais supposé alors que tu sais ce qu'est un répertoire.
Monsieur est trop bon :-)
Les répertoire sont dans le cache dans les sytème de type Unix et
Linux, mais pas dans windows.Mais encore ? Qu'est-ce qui est en cache ? Les tables de fichiers
contenus
dans les répertoires ?
sous unix oui, avec windows non.
OK.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas de
serveurs occupés H24 que je prendrais du SLC : mais si la continuité de
service est requise, il faut de toutes façons faire du RAID 1 (ou plus)
même avec des HDD.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas
de serveurs occupés H24 que je prendrais du SLC : mais si la
continuité de service est requise, il faut de toutes façons faire du
RAID 1 (ou plus) même avec des HDD.
Tous les serveurs que j'ai installés tournent en H24 365/365. Le système
est systématiquement en RAID1. les données sont en grappes de RAID5
assemblées en volume afin de fournir des espaces de plusieurs Po.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas
de serveurs occupés H24 que je prendrais du SLC : mais si la
continuité de service est requise, il faut de toutes façons faire du
RAID 1 (ou plus) même avec des HDD.
Tous les serveurs que j'ai installés tournent en H24 365/365. Le système
est systématiquement en RAID1. les données sont en grappes de RAID5
assemblées en volume afin de fournir des espaces de plusieurs Po.
J'en reviens alors à ma question : la journalisation n'est-elle pas
justement la réponse aux problèmes d'incohérences entre le contenu du
disque et le cache en cas de crash ?
La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
La fiabilité des SSD actuels est très bonne, même les modèles grand
public à base de cellules MLC ou TLC. Il n'y a quère que dans le cas
de serveurs occupés H24 que je prendrais du SLC : mais si la
continuité de service est requise, il faut de toutes façons faire du
RAID 1 (ou plus) même avec des HDD.
Tous les serveurs que j'ai installés tournent en H24 365/365. Le système
est systématiquement en RAID1. les données sont en grappes de RAID5
assemblées en volume afin de fournir des espaces de plusieurs Po.
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
Les tables de fichiers sont bien de l'ordre des informations structurelles.
Il est bon de revenir au départ de cette discussion sur les SSD :
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.
avaient baissé mais que pour être "secure" il en fallait deux en RAID 1.
Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà avec
les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Soit dit en passant, même pour un serveur H24, les disques système ne se
supportent pas une charge d'écriture si élevée que ça : pour eux, des
bons SSD grand-public (genre Samsung Pro) suffisent sans doute largement.
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :
La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
Les tables de fichiers sont bien de l'ordre des informations structurelles.
Il est bon de revenir au départ de cette discussion sur les SSD :
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.
avaient baissé mais que pour être "secure" il en fallait deux en RAID 1.
Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà avec
les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Soit dit en passant, même pour un serveur H24, les disques système ne se
supportent pas une charge d'écriture si élevée que ça : pour eux, des
bons SSD grand-public (genre Samsung Pro) suffisent sans doute largement.
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :La journalisation a apporté beaucoup apporté de sécurité pour les SGF.
Mais ne résout pas tout. Même en journalisation tu peux perdre des
données, car seul les informations structurelles sont mémorisées, pas
les données des fichiers.
Les tables de fichiers sont bien de l'ordre des informations structurelles.
Il est bon de revenir au départ de cette discussion sur les SSD :
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.
avaient baissé mais que pour être "secure" il en fallait deux en RAID 1.
Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà avec
les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Soit dit en passant, même pour un serveur H24, les disques système ne se
supportent pas une charge d'écriture si élevée que ça : pour eux, des
bons SSD grand-public (genre Samsung Pro) suffisent sans doute largement.
Bonjour à toutes et à tous,
Le 17/07/2018 à 09:25, pehache a écrit :Le 16/07/2018 à 13:11, Pierre Léonard a écrit :La journalisation a apporté beaucoup apporté de sécurité pour les
SGF. Mais ne résout pas tout. Même en journalisation tu peux perdre
des données, car seul les informations structurelles sont
mémorisées, pas les données des fichiers.
Les tables de fichiers sont bien de l'ordre des informations
structurelles.
Qu'est-ce qu'une table de fichier pour toi ?
Si c'est le contenu du fichier : la réponse est non !
Si c'est un ensemble d'information décrivant le fichier à un instant
donné : la réponse est oui !Il est bon de revenir au départ de cette discussion sur les SSD :
L'origine de la discussion ne concernait pas le SSD mais le swap et les
navigateurs.
ils'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.
Oups, mélange de genre, le swap est nécessaire suivant les contextes de
calculs. relecture mes posts précédents, mais je peux reprendre :
C'est une question de ratio entre la mémoire disponible le nombre de
processus et la mémoire qu'ils requièrent.
Sur des machines avec 128Go il étaient impossible de lancer plus de 10
processus de calcul.
Pour un calcul très gourmand en métagénomique quantitative
"l'assemblage", nous (l'INRA) avons du acquérir une machine de 768Go, ce
qui nous a permis de faire passer le temps de calcul de une semaine à
quelques heures. Ce n'était pas une question de puissance de calcul, les
processeurs étaient même inférieurs à nos autres calculateurs, c'était
juste un problème de gestion de mémoire par rapport à la taille des
données nécessaires à un moment donné.
Il faut trouver l'équilibre entre le nombre de processus qui permettent
à ceux-ci de s'exécuter pendant les temps d'entrée/sortie disques.
Trop de processus : ils vont attendre, pas assez : le cpu sera sous
utilisé.
Ce a quoi tu as répondu que oui les prixavaient baissé mais que pour être "secure" il en fallait deux en RAID
1. Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà
avec les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Je préfère acheté des disques lents 5400t/m les gérer en RAID5 plutôt
que d'acheter un disque à 10000T/M et tout planter.
Quand aux SSD ils sont dans des fermes de disques en caches des grappes
de disques classiques.
Certes nous sommes loin de l'ordi de tout le monde, mais j'ai équipé mon
serveur de deux disques en RAID1 pour le système et six mois plus tard
un des disques à défunté. S'il avait été seul j'aurai tout perdu.
Donc désolé j'applique des méthodes plus riches car le vrai sujet ce
sont les données.Soit dit en passant, même pour un serveur H24, les disques système ne
se supportent pas une charge d'écriture si élevée que ça : pour eux,
des bons SSD grand-public (genre Samsung Pro) suffisent sans doute
largement.
Ah bien voilà enfin une bonne remarque. Sur l'accès de la partie système
de l'information, en effet elle n'est pas si "réclamée" que cela. Une
fois les applications chargées tu as besoin du swap (à calculer) et de
l'accès aux données.
Mais lorsque tu fais de la gestion d'infrastructure, tu dois le faire
avec les utilisateurs pour connaître les impératifs en terme de calcul,
d'espace de stockage, d'espace de sauvegarde et de transfert sur le réseau.
Pierre Léonard
Bonjour à toutes et à tous,
Le 17/07/2018 à 09:25, pehache a écrit :
Le 16/07/2018 à 13:11, Pierre Léonard a écrit :
La journalisation a apporté beaucoup apporté de sécurité pour les
SGF. Mais ne résout pas tout. Même en journalisation tu peux perdre
des données, car seul les informations structurelles sont
mémorisées, pas les données des fichiers.
Les tables de fichiers sont bien de l'ordre des informations
structurelles.
Qu'est-ce qu'une table de fichier pour toi ?
Si c'est le contenu du fichier : la réponse est non !
Si c'est un ensemble d'information décrivant le fichier à un instant
donné : la réponse est oui !
Il est bon de revenir au départ de cette discussion sur les SSD :
L'origine de la discussion ne concernait pas le SSD mais le swap et les
navigateurs.
il
s'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.
Oups, mélange de genre, le swap est nécessaire suivant les contextes de
calculs. relecture mes posts précédents, mais je peux reprendre :
C'est une question de ratio entre la mémoire disponible le nombre de
processus et la mémoire qu'ils requièrent.
Sur des machines avec 128Go il étaient impossible de lancer plus de 10
processus de calcul.
Pour un calcul très gourmand en métagénomique quantitative
"l'assemblage", nous (l'INRA) avons du acquérir une machine de 768Go, ce
qui nous a permis de faire passer le temps de calcul de une semaine à
quelques heures. Ce n'était pas une question de puissance de calcul, les
processeurs étaient même inférieurs à nos autres calculateurs, c'était
juste un problème de gestion de mémoire par rapport à la taille des
données nécessaires à un moment donné.
Il faut trouver l'équilibre entre le nombre de processus qui permettent
à ceux-ci de s'exécuter pendant les temps d'entrée/sortie disques.
Trop de processus : ils vont attendre, pas assez : le cpu sera sous
utilisé.
Ce a quoi tu as répondu que oui les prix
avaient baissé mais que pour être "secure" il en fallait deux en RAID
1. Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà
avec les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Je préfère acheté des disques lents 5400t/m les gérer en RAID5 plutôt
que d'acheter un disque à 10000T/M et tout planter.
Quand aux SSD ils sont dans des fermes de disques en caches des grappes
de disques classiques.
Certes nous sommes loin de l'ordi de tout le monde, mais j'ai équipé mon
serveur de deux disques en RAID1 pour le système et six mois plus tard
un des disques à défunté. S'il avait été seul j'aurai tout perdu.
Donc désolé j'applique des méthodes plus riches car le vrai sujet ce
sont les données.
Soit dit en passant, même pour un serveur H24, les disques système ne
se supportent pas une charge d'écriture si élevée que ça : pour eux,
des bons SSD grand-public (genre Samsung Pro) suffisent sans doute
largement.
Ah bien voilà enfin une bonne remarque. Sur l'accès de la partie système
de l'information, en effet elle n'est pas si "réclamée" que cela. Une
fois les applications chargées tu as besoin du swap (à calculer) et de
l'accès aux données.
Mais lorsque tu fais de la gestion d'infrastructure, tu dois le faire
avec les utilisateurs pour connaître les impératifs en terme de calcul,
d'espace de stockage, d'espace de sauvegarde et de transfert sur le réseau.
Pierre Léonard
Bonjour à toutes et à tous,
Le 17/07/2018 à 09:25, pehache a écrit :Le 16/07/2018 à 13:11, Pierre Léonard a écrit :La journalisation a apporté beaucoup apporté de sécurité pour les
SGF. Mais ne résout pas tout. Même en journalisation tu peux perdre
des données, car seul les informations structurelles sont
mémorisées, pas les données des fichiers.
Les tables de fichiers sont bien de l'ordre des informations
structurelles.
Qu'est-ce qu'une table de fichier pour toi ?
Si c'est le contenu du fichier : la réponse est non !
Si c'est un ensemble d'information décrivant le fichier à un instant
donné : la réponse est oui !Il est bon de revenir au départ de cette discussion sur les SSD :
L'origine de la discussion ne concernait pas le SSD mais le swap et les
navigateurs.
ils'agissait de dire qu'avec leurs performances le swap éventuel n'était
plus un problème handicapant.
Oups, mélange de genre, le swap est nécessaire suivant les contextes de
calculs. relecture mes posts précédents, mais je peux reprendre :
C'est une question de ratio entre la mémoire disponible le nombre de
processus et la mémoire qu'ils requièrent.
Sur des machines avec 128Go il étaient impossible de lancer plus de 10
processus de calcul.
Pour un calcul très gourmand en métagénomique quantitative
"l'assemblage", nous (l'INRA) avons du acquérir une machine de 768Go, ce
qui nous a permis de faire passer le temps de calcul de une semaine à
quelques heures. Ce n'était pas une question de puissance de calcul, les
processeurs étaient même inférieurs à nos autres calculateurs, c'était
juste un problème de gestion de mémoire par rapport à la taille des
données nécessaires à un moment donné.
Il faut trouver l'équilibre entre le nombre de processus qui permettent
à ceux-ci de s'exécuter pendant les temps d'entrée/sortie disques.
Trop de processus : ils vont attendre, pas assez : le cpu sera sous
utilisé.
Ce a quoi tu as répondu que oui les prixavaient baissé mais que pour être "secure" il en fallait deux en RAID
1. Et maintenant tu dis que tu faisais systématiquement du RAID 1 déjà
avec les HDD. Donc HDD ou SSD ça ne change rien : quand on veut de la
continuité de service on fait du RAID 1, et en dehors du contexte d'un
serveur pro H24, la fiabilité des SSD grand-public est largement
suffisante pour qu'ils vivent plus longtemps que la machine elle-même.
Je préfère acheté des disques lents 5400t/m les gérer en RAID5 plutôt
que d'acheter un disque à 10000T/M et tout planter.
Quand aux SSD ils sont dans des fermes de disques en caches des grappes
de disques classiques.
Certes nous sommes loin de l'ordi de tout le monde, mais j'ai équipé mon
serveur de deux disques en RAID1 pour le système et six mois plus tard
un des disques à défunté. S'il avait été seul j'aurai tout perdu.
Donc désolé j'applique des méthodes plus riches car le vrai sujet ce
sont les données.Soit dit en passant, même pour un serveur H24, les disques système ne
se supportent pas une charge d'écriture si élevée que ça : pour eux,
des bons SSD grand-public (genre Samsung Pro) suffisent sans doute
largement.
Ah bien voilà enfin une bonne remarque. Sur l'accès de la partie système
de l'information, en effet elle n'est pas si "réclamée" que cela. Une
fois les applications chargées tu as besoin du swap (à calculer) et de
l'accès aux données.
Mais lorsque tu fais de la gestion d'infrastructure, tu dois le faire
avec les utilisateurs pour connaître les impératifs en terme de calcul,
d'espace de stockage, d'espace de sauvegarde et de transfert sur le réseau.
Pierre Léonard
Les navigateurs sont de moins en moins utilisables. C'est devenu une
plaie de naviguer avec Firefox ou Chrome par exemple.
Les navigateurs sont de moins en moins utilisables. C'est devenu une
plaie de naviguer avec Firefox ou Chrome par exemple.
Les navigateurs sont de moins en moins utilisables. C'est devenu une
plaie de naviguer avec Firefox ou Chrome par exemple.
Une solution proposée est l'application OneTab qui est disponible
avec Chrome et Firefox. En cliquant sur son icône, on place tous
les onglets dans un seul. La mémoire est libérée tant q ue je n'ai
pas besoin du contenu de l'onglet. J'ai découvert cela ce matin m ais
cela s'annonce déjà comme une nette amélioration.
Denis
Une solution proposée est l'application OneTab qui est disponible
avec Chrome et Firefox. En cliquant sur son icône, on place tous
les onglets dans un seul. La mémoire est libérée tant q ue je n'ai
pas besoin du contenu de l'onglet. J'ai découvert cela ce matin m ais
cela s'annonce déjà comme une nette amélioration.
Denis
Une solution proposée est l'application OneTab qui est disponible
avec Chrome et Firefox. En cliquant sur son icône, on place tous
les onglets dans un seul. La mémoire est libérée tant q ue je n'ai
pas besoin du contenu de l'onglet. J'ai découvert cela ce matin m ais
cela s'annonce déjà comme une nette amélioration.
Denis