--
Car avec beaucoup de science, il y a beaucoup de chagrin ; et celui qui
accroît sa science, accroît sa douleur.
[Ecclésiaste, 1-18]
MELMOTH - souffrant
Mon disque principal a bientôt 3 ans. Pense pas l'avoir défragmenté une seule fois...
Didier
trop troll....remplaçons le double clic par un simple clic, c'est écolo.... et l'écran par des plaques solaires, et aussi supprimons le pavé numérique et la barre d'espace...
-- Car avec beaucoup de science, il y a beaucoup de chagrin ; et celui qui accroît sa science, accroît sa douleur. [Ecclésiaste, 1-18] MELMOTH - souffrant
trop troll....remplaçons le double clic par un simple clic, c'est écolo....
et l'écran par des plaques solaires, et aussi supprimons le pavé numérique
et la barre d'espace...
"MELMOTH" <theo@free.fr> a écrit dans le message de news:
mn.ec907d942949a5b5.12355@free.fr...
--
Car avec beaucoup de science, il y a beaucoup de chagrin ; et celui qui
accroît sa science, accroît sa douleur.
[Ecclésiaste, 1-18]
MELMOTH - souffrant
trop troll....remplaçons le double clic par un simple clic, c'est écolo.... et l'écran par des plaques solaires, et aussi supprimons le pavé numérique et la barre d'espace...
-- Car avec beaucoup de science, il y a beaucoup de chagrin ; et celui qui accroît sa science, accroît sa douleur. [Ecclésiaste, 1-18] MELMOTH - souffrant
Il doivent avoir des instruments de mesure plutôt précis !
La défragmentation optimise les accès c'est à dire que le mouvement de têtes de lecture est réduit et la lecture et le transfert de données d'un fichier en une seule opération est favorisé. Pour quantifier puis modéliser le résultat ils doivent très forts ou très intéressés.
Et ... si on utilisait des systèmes de fichiers qui fragmentent peu, le résultat pourrait être atteint sans dépenser plus.
Il doivent avoir des instruments de mesure plutôt précis !
La défragmentation optimise les accès c'est à dire que le mouvement de têtes
de lecture est réduit et la lecture et le transfert de données d'un fichier
en une seule opération est favorisé. Pour quantifier puis modéliser le
résultat ils doivent très forts ou très intéressés.
Et ... si on utilisait des systèmes de fichiers qui fragmentent peu, le
résultat pourrait être atteint sans dépenser plus.
Il doivent avoir des instruments de mesure plutôt précis !
La défragmentation optimise les accès c'est à dire que le mouvement de têtes de lecture est réduit et la lecture et le transfert de données d'un fichier en une seule opération est favorisé. Pour quantifier puis modéliser le résultat ils doivent très forts ou très intéressés.
Et ... si on utilisait des systèmes de fichiers qui fragmentent peu, le résultat pourrait être atteint sans dépenser plus.
Oh ça se peut logiquement. Bien que le défragmentation fait de l'exercise au disque donc consomme de l'energie, inutilement dans un sens, si les bienfaits dudite défragmentation reduisent le travail du disque dur ensuite alors il peut avoir gain.
Ceci dit, c'est un peu osé de Diskkeeper Co, au moins du point de vue de l'utitisateur moyen, mais peut-être c'est valable pour les sociétés avec des milliasses de PCs où un petit économie sur chaque peut compter globalement.
Oh ça se peut logiquement. Bien que le défragmentation fait de
l'exercise au disque donc consomme de l'energie, inutilement dans un
sens, si les bienfaits dudite défragmentation reduisent le travail du
disque dur ensuite alors il peut avoir gain.
Ceci dit, c'est un peu osé de Diskkeeper Co, au moins du point de vue de
l'utitisateur moyen, mais peut-être c'est valable pour les sociétés avec
des milliasses de PCs où un petit économie sur chaque peut compter
globalement.
Oh ça se peut logiquement. Bien que le défragmentation fait de l'exercise au disque donc consomme de l'energie, inutilement dans un sens, si les bienfaits dudite défragmentation reduisent le travail du disque dur ensuite alors il peut avoir gain.
Ceci dit, c'est un peu osé de Diskkeeper Co, au moins du point de vue de l'utitisateur moyen, mais peut-être c'est valable pour les sociétés avec des milliasses de PCs où un petit économie sur chaque peut compter globalement.
Pourriez-vous être plus précis ? Quels systèmes et comment limitent-ils la fragmentation ?
La série des extXfs sous linux par exemple. Et ils utilisent un principe simple : prendre le premier espace libre de "bonne" taille disponible pour écrire un fichier et non le premier espace libre...
On 04/05/2009 10:35, Aboli Bibelot wrote:
"jp willm"<nicole.jeanpaul.willm@wanadoo.fr> a écrit dans le message de
news: 49f9cfe2$0$17069$ba4acef3@news.orange.fr...
Hello,
Sergio a écrit :
Déjà qu'en NTFS, la fragmentation est limitée... Sans parler des geeks
qui passent plus de temps à défragementer leurs disques qu'à les
utiliser...
Pourriez-vous être plus précis ? Quels systèmes et comment limitent-ils la
fragmentation ?
La série des extXfs sous linux par exemple. Et ils utilisent un principe
simple : prendre le premier espace libre de "bonne" taille disponible
pour écrire un fichier et non le premier espace libre...
Pourriez-vous être plus précis ? Quels systèmes et comment limitent-ils la fragmentation ?
La série des extXfs sous linux par exemple. Et ils utilisent un principe simple : prendre le premier espace libre de "bonne" taille disponible pour écrire un fichier et non le premier espace libre...