Oh, linux fragmente. Tiens donc, je ne le savais pas. Et quand fsck m'indiquait il y a bien longtemps (3.4% non-contiguous), qu'est-ce qu'il voulait bien me dire là.
Bon, je viens de faire un test avec un système de fichiers vieux de 4 ans en ext3 et aujourd'hui en ext4. Il n'arrête pas de bouger de manière intensive puisque j'y mets mes sauvegardes temporaires, mes espaces de travail, mes espaces de compilation et qu'il est régulièrement à 100%. Aujourd'hui il est à environ 80% et j'obtiens : 220000 fichiers dont 11500 sont fragmentés, soit 5,5% après 4 ans.
[ data]# fsck -nfv /dev/sdb6 fsck 1.41.3 (12-Oct-2008) e2fsck 1.41.3 (12-Oct-2008) Avertissement ! /dev/sdb6 est monté. Avertissement : saute la récupération du journal puisque l'on procède à l'examen d'un système de fichiers en lecture seule. Passe 1 : vérification des i-noeuds, des blocs et des tailles Passe 2 : vérification de la structure des répertoires Passe 3 : vérification de la connectivité des répertoires Passe 4 : vérification des compteurs de référence Passe 5 : vérification de l'information du sommaire de groupe
221593 inodes used (0.43%) 12617 non-contiguous inodes (5.7%) nombre d'i-noeuds avec des blocs ind/dind/tind : 21144/2491/3 Histogramme des profondeurs d'extents : 98667/222/11 40812186 blocks used (78.32%) 0 bad blocks 13 large files
204004 regular files 16806 directories 9 character device files 0 block device files 2 fifos 1 link 753 symbolic links (743 fast symbolic links) 10 sockets -------- 221585 files
Mon PC professionnel sous NTFS a déjà subi 2 defragmentations en 1 an car il avoisinait les 25% de fragmentation sans avoir dépassé 75% de remplissage et tout cela sans être mon disque de données.
Donc quand on dit que Linux ne fragmente pas, cela a un sens car il ne sert à rien de défragmenter sauf gagner des pouillèmes en général.
-- Stéphan Peccini Les photos : <URL:http://photonature.fr> Les Pyrénées : <URL:http://photonature.fr/pyrenees> Le blog : <URL:http://pyrenees.peccini.fr>
Le Thu, 27 Nov 2008 20:23:47 +0100, Olivier F a écrit :
Oh, linux fragmente. Tiens donc, je ne le savais pas. Et quand fsck
m'indiquait il y a bien longtemps (3.4% non-contiguous), qu'est-ce qu'il
voulait bien me dire là.
Bon, je viens de faire un test avec un système de fichiers vieux de 4 ans
en ext3 et aujourd'hui en ext4. Il n'arrête pas de bouger de manière
intensive puisque j'y mets mes sauvegardes temporaires, mes espaces de
travail, mes espaces de compilation et qu'il est régulièrement à 100%.
Aujourd'hui il est à environ 80% et j'obtiens : 220000 fichiers dont
11500 sont fragmentés, soit 5,5% après 4 ans.
[root@kulta data]# fsck -nfv /dev/sdb6
fsck 1.41.3 (12-Oct-2008)
e2fsck 1.41.3 (12-Oct-2008)
Avertissement ! /dev/sdb6 est monté.
Avertissement : saute la récupération du journal puisque l'on
procède à l'examen d'un système de fichiers en lecture seule.
Passe 1 : vérification des i-noeuds, des blocs et des tailles
Passe 2 : vérification de la structure des répertoires
Passe 3 : vérification de la connectivité des répertoires
Passe 4 : vérification des compteurs de référence
Passe 5 : vérification de l'information du sommaire de groupe
221593 inodes used (0.43%)
12617 non-contiguous inodes (5.7%)
nombre d'i-noeuds avec des blocs ind/dind/tind : 21144/2491/3
Histogramme des profondeurs d'extents : 98667/222/11
40812186 blocks used (78.32%)
0 bad blocks
13 large files
204004 regular files
16806 directories
9 character device files
0 block device files
2 fifos
1 link
753 symbolic links (743 fast symbolic links)
10 sockets
--------
221585 files
Mon PC professionnel sous NTFS a déjà subi 2 defragmentations en 1 an car
il avoisinait les 25% de fragmentation sans avoir dépassé 75% de
remplissage et tout cela sans être mon disque de données.
Donc quand on dit que Linux ne fragmente pas, cela a un sens car il ne
sert à rien de défragmenter sauf gagner des pouillèmes en général.
--
Stéphan Peccini
Les photos : <URL:http://photonature.fr>
Les Pyrénées : <URL:http://photonature.fr/pyrenees>
Le blog : <URL:http://pyrenees.peccini.fr>
Oh, linux fragmente. Tiens donc, je ne le savais pas. Et quand fsck m'indiquait il y a bien longtemps (3.4% non-contiguous), qu'est-ce qu'il voulait bien me dire là.
Bon, je viens de faire un test avec un système de fichiers vieux de 4 ans en ext3 et aujourd'hui en ext4. Il n'arrête pas de bouger de manière intensive puisque j'y mets mes sauvegardes temporaires, mes espaces de travail, mes espaces de compilation et qu'il est régulièrement à 100%. Aujourd'hui il est à environ 80% et j'obtiens : 220000 fichiers dont 11500 sont fragmentés, soit 5,5% après 4 ans.
[ data]# fsck -nfv /dev/sdb6 fsck 1.41.3 (12-Oct-2008) e2fsck 1.41.3 (12-Oct-2008) Avertissement ! /dev/sdb6 est monté. Avertissement : saute la récupération du journal puisque l'on procède à l'examen d'un système de fichiers en lecture seule. Passe 1 : vérification des i-noeuds, des blocs et des tailles Passe 2 : vérification de la structure des répertoires Passe 3 : vérification de la connectivité des répertoires Passe 4 : vérification des compteurs de référence Passe 5 : vérification de l'information du sommaire de groupe
221593 inodes used (0.43%) 12617 non-contiguous inodes (5.7%) nombre d'i-noeuds avec des blocs ind/dind/tind : 21144/2491/3 Histogramme des profondeurs d'extents : 98667/222/11 40812186 blocks used (78.32%) 0 bad blocks 13 large files
204004 regular files 16806 directories 9 character device files 0 block device files 2 fifos 1 link 753 symbolic links (743 fast symbolic links) 10 sockets -------- 221585 files
Mon PC professionnel sous NTFS a déjà subi 2 defragmentations en 1 an car il avoisinait les 25% de fragmentation sans avoir dépassé 75% de remplissage et tout cela sans être mon disque de données.
Donc quand on dit que Linux ne fragmente pas, cela a un sens car il ne sert à rien de défragmenter sauf gagner des pouillèmes en général.
-- Stéphan Peccini Les photos : <URL:http://photonature.fr> Les Pyrénées : <URL:http://photonature.fr/pyrenees> Le blog : <URL:http://pyrenees.peccini.fr>
T'as déjà un peu regardé le taux de fragmentation des deux ? Un Linux tourne entre 1 et 3% de fichiers non contigus, et c'est à peu près constant sur la durée, un Windows, j'en ai jamais vu à moins de 20% sans défragmentation régulière, et j'en ai pas non plus vus à 0% APRES défragmentation...
Alors que les deux fragmentent, certes c'est clair, mais les deux n'ont pas réellement le même besoin de défragmentation régulière.
T'as déjà un peu regardé le taux de fragmentation des deux ?
Un Linux tourne entre 1 et 3% de fichiers non contigus, et c'est à peu
près constant sur la durée, un Windows, j'en ai jamais vu à moins de 20%
sans défragmentation régulière, et j'en ai pas non plus vus à 0% APRES
défragmentation...
Alors que les deux fragmentent, certes c'est clair, mais les deux n'ont
pas réellement le même besoin de défragmentation régulière.
T'as déjà un peu regardé le taux de fragmentation des deux ? Un Linux tourne entre 1 et 3% de fichiers non contigus, et c'est à peu près constant sur la durée, un Windows, j'en ai jamais vu à moins de 20% sans défragmentation régulière, et j'en ai pas non plus vus à 0% APRES défragmentation...
Alors que les deux fragmentent, certes c'est clair, mais les deux n'ont pas réellement le même besoin de défragmentation régulière.
Stéphane CARPENTIER
Jonathan ROTH wrote:
Alors que les deux fragmentent, certes c'est clair, mais les deux n'ont pas réellement le même besoin de défragmentation régulière.
Vous êtes prétentieux Stéphan et toi. Vous croyez que vous aller réussir à lui faire comprendre quelque chose de technique.
-- Stéphane
Pour me répondre, traduire gratuit en anglais et virer le .invalid. http://stef.carpentier.free.fr/
Jonathan ROTH wrote:
Alors que les deux fragmentent, certes c'est clair, mais les deux n'ont
pas réellement le même besoin de défragmentation régulière.
Vous êtes prétentieux Stéphan et toi. Vous croyez que vous aller réussir à
lui faire comprendre quelque chose de technique.
--
Stéphane
Pour me répondre, traduire gratuit en anglais et virer le .invalid.
http://stef.carpentier.free.fr/
Le 27.11.2008 21:56, Stéphane CARPENTIER s'exprima:
Jonathan ROTH wrote:
Alors que les deux fragmentent, certes c'est clair, mais les deux n'ont pas réellement le même besoin de défragmentation régulière.
Vous êtes prétentieux Stéphan et toi. Vous croyez que vous aller réussir à lui faire comprendre quelque chose de technique.
Simple manière de penser pour moi: "Ne jamais renoncer sans avoir essayé"
Pascal Hambourg
Salut,
Stephan Peccini a écrit :
Oh, linux fragmente. Tiens donc, je ne le savais pas. Et quand fsck m'indiquait il y a bien longtemps (3.4% non-contiguous), qu'est-ce qu'il voulait bien me dire là.
Tiens, puisqu'on en parle, vous ne trouvez pas que c'est un peu bidon cette façon d'exprimer le degré de fragmentation en pourcentage de fichiers classés en fonction d'une métrique binaire fragmenté/contigu ?
Avec cette métrique, un même pourcentage peut recouvrir des réalités très différentes, selon que chaque fichier est divisé en fragments proches les uns des autres ou éparpillés aux quatres coins du disque (si on peut parler ainsi) nécessitant plus ou moins de déplacements des têtes.
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
Salut,
Stephan Peccini a écrit :
Oh, linux fragmente. Tiens donc, je ne le savais pas. Et quand fsck
m'indiquait il y a bien longtemps (3.4% non-contiguous), qu'est-ce qu'il
voulait bien me dire là.
Tiens, puisqu'on en parle, vous ne trouvez pas que c'est un peu bidon
cette façon d'exprimer le degré de fragmentation en pourcentage de
fichiers classés en fonction d'une métrique binaire fragmenté/contigu ?
Avec cette métrique, un même pourcentage peut recouvrir des réalités
très différentes, selon que chaque fichier est divisé en fragments
proches les uns des autres ou éparpillés aux quatres coins du disque (si
on peut parler ainsi) nécessitant plus ou moins de déplacements des têtes.
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une
métrique telle que la distance totale entre les fragments, ou plus
simplement le nombre de fragments ?
Oh, linux fragmente. Tiens donc, je ne le savais pas. Et quand fsck m'indiquait il y a bien longtemps (3.4% non-contiguous), qu'est-ce qu'il voulait bien me dire là.
Tiens, puisqu'on en parle, vous ne trouvez pas que c'est un peu bidon cette façon d'exprimer le degré de fragmentation en pourcentage de fichiers classés en fonction d'une métrique binaire fragmenté/contigu ?
Avec cette métrique, un même pourcentage peut recouvrir des réalités très différentes, selon que chaque fichier est divisé en fragments proches les uns des autres ou éparpillés aux quatres coins du disque (si on peut parler ainsi) nécessitant plus ou moins de déplacements des têtes.
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
Jonathan ROTH
Le 28.11.2008 00:22, Pascal Hambourg s'exprima:
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
C'est certes une idée interessante, mais celà induirait forcément le besoin de calculer ces distances, donc d'utiliser de la puissance pour afficher un chiffre auquel, personnellement, je ne fais guère attention (et je suis convaincu que c'est le cas pour beaucoup d'utilisateurs de Linux/Unix).
Le 28.11.2008 00:22, Pascal Hambourg s'exprima:
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une
métrique telle que la distance totale entre les fragments, ou plus
simplement le nombre de fragments ?
C'est certes une idée interessante, mais celà induirait forcément le
besoin de calculer ces distances, donc d'utiliser de la puissance pour
afficher un chiffre auquel, personnellement, je ne fais guère attention
(et je suis convaincu que c'est le cas pour beaucoup d'utilisateurs de
Linux/Unix).
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
C'est certes une idée interessante, mais celà induirait forcément le besoin de calculer ces distances, donc d'utiliser de la puissance pour afficher un chiffre auquel, personnellement, je ne fais guère attention (et je suis convaincu que c'est le cas pour beaucoup d'utilisateurs de Linux/Unix).
Stephan Peccini
Le Fri, 28 Nov 2008 00:22:33 +0100, Pascal Hambourg a écrit :
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
Très sûrement, mais, sauf erreur de ma part, c'est la même mesure que celle qui est utilisée par Windows. Cela permet d'avoir une référence commune. Sinon, la fragmentation sous Linux ne m'émeut pas plus que ça, alors que sous Windows ...
-- Stéphan Peccini Les photos : <URL:http://photonature.fr> Les Pyrénées : <URL:http://photonature.fr/pyrenees> Le blog : <URL:http://pyrenees.peccini.fr>
Le Fri, 28 Nov 2008 00:22:33 +0100, Pascal Hambourg a écrit :
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une
métrique telle que la distance totale entre les fragments, ou plus
simplement le nombre de fragments ?
Très sûrement, mais, sauf erreur de ma part, c'est la même mesure que
celle qui est utilisée par Windows. Cela permet d'avoir une référence
commune. Sinon, la fragmentation sous Linux ne m'émeut pas plus que ça,
alors que sous Windows ...
--
Stéphan Peccini
Les photos : <URL:http://photonature.fr>
Les Pyrénées : <URL:http://photonature.fr/pyrenees>
Le blog : <URL:http://pyrenees.peccini.fr>
Le Fri, 28 Nov 2008 00:22:33 +0100, Pascal Hambourg a écrit :
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
Très sûrement, mais, sauf erreur de ma part, c'est la même mesure que celle qui est utilisée par Windows. Cela permet d'avoir une référence commune. Sinon, la fragmentation sous Linux ne m'émeut pas plus que ça, alors que sous Windows ...
-- Stéphan Peccini Les photos : <URL:http://photonature.fr> Les Pyrénées : <URL:http://photonature.fr/pyrenees> Le blog : <URL:http://pyrenees.peccini.fr>
Stephane TOUGARD
Stephan Peccini wrote:
Très sûrement, mais, sauf erreur de ma part, c'est la même mesure que celle qui est utilisée par Windows. Cela permet d'avoir une référence commune. Sinon, la fragmentation sous Linux ne m'émeut pas plus que ça, alors que sous Windows ...
La fragmentation, c'est vraiment un non probleme en soit. C'est un peu comme les bogomips : on s'en fout.
Partant de la, depenser des ressources pour pondre du code qui va pomper du CPU et du disque pour sortir un chiffre dont tout le monde se fout ... on dirait une logique a la Windows.
Stephan Peccini wrote:
Très sûrement, mais, sauf erreur de ma part, c'est la même mesure que
celle qui est utilisée par Windows. Cela permet d'avoir une référence
commune. Sinon, la fragmentation sous Linux ne m'émeut pas plus que ça,
alors que sous Windows ...
La fragmentation, c'est vraiment un non probleme en soit. C'est un peu
comme les bogomips : on s'en fout.
Partant de la, depenser des ressources pour pondre du code qui va
pomper du CPU et du disque pour sortir un chiffre dont tout le monde se
fout ... on dirait une logique a la Windows.
Très sûrement, mais, sauf erreur de ma part, c'est la même mesure que celle qui est utilisée par Windows. Cela permet d'avoir une référence commune. Sinon, la fragmentation sous Linux ne m'émeut pas plus que ça, alors que sous Windows ...
La fragmentation, c'est vraiment un non probleme en soit. C'est un peu comme les bogomips : on s'en fout.
Partant de la, depenser des ressources pour pondre du code qui va pomper du CPU et du disque pour sortir un chiffre dont tout le monde se fout ... on dirait une logique a la Windows.
Toxico Nimbus
Pascal Hambourg a écrit :
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
Quelle distance. On peut essayer de calculer une distance congrue au temps d'accès d'une donnée à l'autre, mais alors il faudrait tenir compte de la géométrie du disque ou de la matrice (RAID ou autre). Or comme la plupart des disques durs ne déclarent pas leur géométrie physique mais une géométrie logique souvent différente (beaucoup de disques ne déclarent que 2 têtes alors qu'ils en ont 4 ou 8). La difficulté est encore augmentée par les caches divers et variés qui "faussent" les temps d'accès. A mon avis, le bête pourcentage est suffisant. Au pire, on peut toujours pondérer avec la fréquence d'accès aux dits fichiers.
Pascal Hambourg a écrit :
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une
métrique telle que la distance totale entre les fragments, ou plus
simplement le nombre de fragments ?
Quelle distance. On peut essayer de calculer une distance congrue au
temps d'accès d'une donnée à l'autre, mais alors il faudrait tenir
compte de la géométrie du disque ou de la matrice (RAID ou autre). Or
comme la plupart des disques durs ne déclarent pas leur géométrie
physique mais une géométrie logique souvent différente (beaucoup de
disques ne déclarent que 2 têtes alors qu'ils en ont 4 ou 8). La
difficulté est encore augmentée par les caches divers et variés qui
"faussent" les temps d'accès. A mon avis, le bête pourcentage est
suffisant. Au pire, on peut toujours pondérer avec la fréquence d'accès
aux dits fichiers.
Ne serait-il pas plus pertinent d'utiliser pour chaque fichier une métrique telle que la distance totale entre les fragments, ou plus simplement le nombre de fragments ?
Quelle distance. On peut essayer de calculer une distance congrue au temps d'accès d'une donnée à l'autre, mais alors il faudrait tenir compte de la géométrie du disque ou de la matrice (RAID ou autre). Or comme la plupart des disques durs ne déclarent pas leur géométrie physique mais une géométrie logique souvent différente (beaucoup de disques ne déclarent que 2 têtes alors qu'ils en ont 4 ou 8). La difficulté est encore augmentée par les caches divers et variés qui "faussent" les temps d'accès. A mon avis, le bête pourcentage est suffisant. Au pire, on peut toujours pondérer avec la fréquence d'accès aux dits fichiers.
Pascal Hambourg
Stephan Peccini a écrit :
Bon, je viens de faire un test avec un système de fichiers vieux de 4 ans en ext3 et aujourd'hui en ext4. Il n'arrête pas de bouger de manière intensive puisque j'y mets mes sauvegardes temporaires, mes espaces de travail, mes espaces de compilation et qu'il est régulièrement à 100%. Aujourd'hui il est à environ 80% et j'obtiens : 220000 fichiers dont 11500 sont fragmentés, soit 5,5% après 4 ans.
[...]
Mon PC professionnel sous NTFS a déjà subi 2 defragmentations en 1 an car il avoisinait les 25% de fragmentation sans avoir dépassé 75% de remplissage et tout cela sans être mon disque de données.
Donc quand on dit que Linux ne fragmente pas, cela a un sens car il ne sert à rien de défragmenter sauf gagner des pouillèmes en général.
Allez, une autre réflexion. On a coutume de dire que Windows fragmente (beaucoup) et Linux non (ou peu). Mais est-ce qu'un volume FAT ou NTFS monté sous Linux fragmente, et est-ce qu'un volume ext2/3 monté sous Windows fragmente ? Autrement dit, le gène de la fragmentation est-il dans la structure du système de fichiers ou seulement dans la façon de l'utiliser ?
Stephan Peccini a écrit :
Bon, je viens de faire un test avec un système de fichiers vieux de 4 ans
en ext3 et aujourd'hui en ext4. Il n'arrête pas de bouger de manière
intensive puisque j'y mets mes sauvegardes temporaires, mes espaces de
travail, mes espaces de compilation et qu'il est régulièrement à 100%.
Aujourd'hui il est à environ 80% et j'obtiens : 220000 fichiers dont
11500 sont fragmentés, soit 5,5% après 4 ans.
[...]
Mon PC professionnel sous NTFS a déjà subi 2 defragmentations en 1 an car
il avoisinait les 25% de fragmentation sans avoir dépassé 75% de
remplissage et tout cela sans être mon disque de données.
Donc quand on dit que Linux ne fragmente pas, cela a un sens car il ne
sert à rien de défragmenter sauf gagner des pouillèmes en général.
Allez, une autre réflexion. On a coutume de dire que Windows fragmente
(beaucoup) et Linux non (ou peu). Mais est-ce qu'un volume FAT ou NTFS
monté sous Linux fragmente, et est-ce qu'un volume ext2/3 monté sous
Windows fragmente ? Autrement dit, le gène de la fragmentation est-il
dans la structure du système de fichiers ou seulement dans la façon de
l'utiliser ?
Bon, je viens de faire un test avec un système de fichiers vieux de 4 ans en ext3 et aujourd'hui en ext4. Il n'arrête pas de bouger de manière intensive puisque j'y mets mes sauvegardes temporaires, mes espaces de travail, mes espaces de compilation et qu'il est régulièrement à 100%. Aujourd'hui il est à environ 80% et j'obtiens : 220000 fichiers dont 11500 sont fragmentés, soit 5,5% après 4 ans.
[...]
Mon PC professionnel sous NTFS a déjà subi 2 defragmentations en 1 an car il avoisinait les 25% de fragmentation sans avoir dépassé 75% de remplissage et tout cela sans être mon disque de données.
Donc quand on dit que Linux ne fragmente pas, cela a un sens car il ne sert à rien de défragmenter sauf gagner des pouillèmes en général.
Allez, une autre réflexion. On a coutume de dire que Windows fragmente (beaucoup) et Linux non (ou peu). Mais est-ce qu'un volume FAT ou NTFS monté sous Linux fragmente, et est-ce qu'un volume ext2/3 monté sous Windows fragmente ? Autrement dit, le gène de la fragmentation est-il dans la structure du système de fichiers ou seulement dans la façon de l'utiliser ?