Les systèmes de fichiers utilisés sous Linux, ne demandent pas de
défragmentation, ou ce n'est pas conseillé.
J'ai lu que cela dépendait du systéme de fichiers : par exemple avec
ext3fs, les données sont découpées en blocs ...
Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne
sont pas côte-à-côte physiquement sur le disque dur, l'un vers le centre
et l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les
blocs se touchaient physiquement en raison du mouvement du bras
d'écriture. Cela peut arriver par exemple si l'on supprime des fichiers
entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces
vides sur les disques où un système de fichier ne pourrait écrire s'il
ne divise pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les
performances en accés disque si les blocs sont placés intelligemment par
rapport à leur utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
--
Remplaçez INVALID par swissinfo pour m'envoyer un mail.
Utilisateur de Linux n°342916 enregistré sur http:\\counter.li.org
Pourquoi avoir développé l'Informatique : pour gagner de l'argent ou
pour s'aider dans l'accomplissement de certaines tâches ?
"Billiob" a écrit dans le message de news:c5eoov$7ts$
Bonjour.
Les systèmes de fichiers utilisés sous Linux, ne demandent pas de défragmentation, ou ce n'est pas conseillé. J'ai lu que cela dépendait du systéme de fichiers : par exemple avec ext3fs, les données sont découpées en blocs ... Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne sont pas côte-à-côte physiquement sur le disque dur, l'un vers le centre et l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les blocs se touchaient physiquement en raison du mouvement du bras d'écriture. Cela peut arriver par exemple si l'on supprime des fichiers entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces vides sur les disques où un système de fichier ne pourrait écrire s'il ne divise pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les performances en accés disque si les blocs sont placés intelligemment par rapport à leur utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
En réalité ce n'est pas les fichiers qui sont découpés en blocs mais bien
l'espace de stockage, c'est pour celà que les formats de fichier ext2,ext3, et ceux conçut sur ce modèle, ne fragmentent pratiquement pas.
Le lecteur ignore absoluement ce qu'est un fichier. Il est renseigné par un volume fixe de données (appelé bloc) et l'endroit où il doit l'écrire (pour vulgariser). En fait, si on imagine un système (tout à fait concevable) pour avoir les données d'un même fichier concaténées sur le disque, la taille d'un fichier n'étant pas fixe, on aurait justement un maximum de fragmentation dans la mesure ou le lecteur est absoluement incapable d'écrire un octet à la fois.
Pour finir, il me semble que l'outil de défragmentation est une caractèristique de Windows, mais je peux me tromper.
++
"Billiob" <billiob@INVALID.org> a écrit dans le message de
news:c5eoov$7ts$1@news-reader5.wanadoo.fr...
Bonjour.
Les systèmes de fichiers utilisés sous Linux, ne demandent pas de
défragmentation, ou ce n'est pas conseillé.
J'ai lu que cela dépendait du systéme de fichiers : par exemple avec
ext3fs, les données sont découpées en blocs ...
Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne
sont pas côte-à-côte physiquement sur le disque dur, l'un vers le centre
et l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les
blocs se touchaient physiquement en raison du mouvement du bras
d'écriture. Cela peut arriver par exemple si l'on supprime des fichiers
entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces
vides sur les disques où un système de fichier ne pourrait écrire s'il
ne divise pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les
performances en accés disque si les blocs sont placés intelligemment par
rapport à leur utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
En réalité ce n'est pas les fichiers qui sont découpés en blocs mais bien
l'espace de stockage, c'est pour celà que les formats de fichier ext2,ext3,
et ceux conçut sur ce modèle, ne fragmentent pratiquement pas.
Le lecteur ignore absoluement ce qu'est un fichier. Il est renseigné par un
volume fixe de données (appelé bloc) et l'endroit où il doit l'écrire (pour
vulgariser). En fait, si on imagine un système (tout à fait concevable) pour
avoir les données d'un même fichier concaténées sur le disque, la taille
d'un fichier n'étant pas fixe, on aurait justement un maximum de
fragmentation dans la mesure ou le lecteur est absoluement incapable
d'écrire un octet à la fois.
Pour finir, il me semble que l'outil de défragmentation est une
caractèristique de Windows, mais je peux me tromper.
"Billiob" a écrit dans le message de news:c5eoov$7ts$
Bonjour.
Les systèmes de fichiers utilisés sous Linux, ne demandent pas de défragmentation, ou ce n'est pas conseillé. J'ai lu que cela dépendait du systéme de fichiers : par exemple avec ext3fs, les données sont découpées en blocs ... Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne sont pas côte-à-côte physiquement sur le disque dur, l'un vers le centre et l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les blocs se touchaient physiquement en raison du mouvement du bras d'écriture. Cela peut arriver par exemple si l'on supprime des fichiers entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces vides sur les disques où un système de fichier ne pourrait écrire s'il ne divise pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les performances en accés disque si les blocs sont placés intelligemment par rapport à leur utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
En réalité ce n'est pas les fichiers qui sont découpés en blocs mais bien
l'espace de stockage, c'est pour celà que les formats de fichier ext2,ext3, et ceux conçut sur ce modèle, ne fragmentent pratiquement pas.
Le lecteur ignore absoluement ce qu'est un fichier. Il est renseigné par un volume fixe de données (appelé bloc) et l'endroit où il doit l'écrire (pour vulgariser). En fait, si on imagine un système (tout à fait concevable) pour avoir les données d'un même fichier concaténées sur le disque, la taille d'un fichier n'étant pas fixe, on aurait justement un maximum de fragmentation dans la mesure ou le lecteur est absoluement incapable d'écrire un octet à la fois.
Pour finir, il me semble que l'outil de défragmentation est une caractèristique de Windows, mais je peux me tromper.
++
Jerome Lambert
Le Tue, 13 Apr 2004 00:22:25 +0200, Tiscali a écrit :
(Snip la description qui montre qu'un bon système de fichiers fragmente peu...)
Pour finir, il me semble que l'outil de défragmentation est une caractèristique de Windows, mais je peux me tromper.
Il existe un outil:
http://linux.maruhn.com/sec/defrag.html
D'après ce que j'ai pu en lire, certains y ont laissé leur partition. A bon entendeur...
Le Tue, 13 Apr 2004 00:22:25 +0200, Tiscali a écrit :
(Snip la description qui montre qu'un bon système de fichiers fragmente
peu...)
Pour finir, il me semble que l'outil de défragmentation est une
caractèristique de Windows, mais je peux me tromper.
Il existe un outil:
http://linux.maruhn.com/sec/defrag.html
D'après ce que j'ai pu en lire, certains y ont laissé leur partition.
A bon entendeur...
Le Tue, 13 Apr 2004 00:22:25 +0200, Tiscali a écrit :
(Snip la description qui montre qu'un bon système de fichiers fragmente peu...)
Pour finir, il me semble que l'outil de défragmentation est une caractèristique de Windows, mais je peux me tromper.
Il existe un outil:
http://linux.maruhn.com/sec/defrag.html
D'après ce que j'ai pu en lire, certains y ont laissé leur partition. A bon entendeur...
OL
Billiob a formulé la demande :
Bonjour.
Les systèmes de fichiers utilisés sous Linux, ne demandent pas de défragmentation, ou ce n'est pas conseillé. J'ai lu que cela dépendait du systéme de fichiers : par exemple avec ext3fs, les données sont découpées en blocs ... Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne sont pas côte-à-côte physiquement sur le disque dur, l'un vers le centre et l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les blocs se touchaient physiquement en raison du mouvement du bras d'écriture. Cela peut arriver par exemple si l'on supprime des fichiers entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces vides sur les disques où un système de fichier ne pourrait écrire s'il ne divise pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les performances en accés disque si les blocs sont placés intelligemment par rapport à leur utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
Ce qui est certain, c'est qu'il n'y a pas de système de fichiers qui ne fragmentent pas ou qui se défragmentent tout seul...
MS a raconté pendant des années que NTFS ne fragmentait pas simplmement parce qu'il n'avait pas eu le temps de mettre le défragmenteur dans NT 4
Aujourd'hui, MS recommande de fragmenter ;>)
Donc dans Linux, on défragmentera dans 10 ans !
OL
-- Ceci est une signature automatique de MesNews. Site : http://mesnews.no-ip.com
Billiob a formulé la demande :
Bonjour.
Les systèmes de fichiers utilisés sous Linux, ne demandent pas de
défragmentation, ou ce n'est pas conseillé.
J'ai lu que cela dépendait du systéme de fichiers : par exemple avec ext3fs,
les données sont découpées en blocs ...
Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne sont
pas côte-à-côte physiquement sur le disque dur, l'un vers le centre et
l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les blocs se
touchaient physiquement en raison du mouvement du bras d'écriture. Cela peut
arriver par exemple si l'on supprime des fichiers entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces vides
sur les disques où un système de fichier ne pourrait écrire s'il ne divise
pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les performances en
accés disque si les blocs sont placés intelligemment par rapport à leur
utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
Ce qui est certain, c'est qu'il n'y a pas de système de fichiers qui ne
fragmentent pas ou qui se défragmentent tout seul...
MS a raconté pendant des années que NTFS ne fragmentait pas simplmement
parce qu'il n'avait pas eu le temps de mettre le défragmenteur dans NT
4
Aujourd'hui, MS recommande de fragmenter ;>)
Donc dans Linux, on défragmentera dans 10 ans !
OL
--
Ceci est une signature automatique de MesNews.
Site : http://mesnews.no-ip.com
Les systèmes de fichiers utilisés sous Linux, ne demandent pas de défragmentation, ou ce n'est pas conseillé. J'ai lu que cela dépendait du systéme de fichiers : par exemple avec ext3fs, les données sont découpées en blocs ... Puisque les disques durs sont cylindriques, si deux blocs de fichiers ne sont pas côte-à-côte physiquement sur le disque dur, l'un vers le centre et l'autre à l'extèrieur, l'accés n'est pas aussi rapide que si les blocs se touchaient physiquement en raison du mouvement du bras d'écriture. Cela peut arriver par exemple si l'on supprime des fichiers entre deux autres fichiers.
Est-ce qu'une défragmentation n'est utile que pour éviter des espaces vides sur les disques où un système de fichier ne pourrait écrire s'il ne divise pas les fichiers ?
Une défragmentation intelligente n'améliorerait-elle pas les performances en accés disque si les blocs sont placés intelligemment par rapport à leur utilisation ?
Merci pour tous les renseignements que vous pourrez m'apporter.
Billiob
Ce qui est certain, c'est qu'il n'y a pas de système de fichiers qui ne fragmentent pas ou qui se défragmentent tout seul...
MS a raconté pendant des années que NTFS ne fragmentait pas simplmement parce qu'il n'avait pas eu le temps de mettre le défragmenteur dans NT 4
Aujourd'hui, MS recommande de fragmenter ;>)
Donc dans Linux, on défragmentera dans 10 ans !
OL
-- Ceci est une signature automatique de MesNews. Site : http://mesnews.no-ip.com
george
OL , dans le message , a écrit :
Ce qui est certain, c'est qu'il n'y a pas de système de fichiers qui ne fragmentent pas ou qui se défragmentent tout seul...
Tu as des certitudes bien étranges.
OL , dans le message <mesnews.755e7d44.7adea17f.99.4631@freesurf.ch>, a
écrit :
Ce qui est certain, c'est qu'il n'y a pas de système de fichiers qui ne
fragmentent pas ou qui se défragmentent tout seul...
Oups, une histoire de 1993 qui parle de DOS 1.X avant qu'il aie des répertoires ;>))
Très intéressant, mais dépassé
Et puis NTFS n'a rien à voir avec du fat >;)
Quelque chose de plus actuel ?
OL
-- Ceci est une signature automatique de MesNews. Site : http://mesnews.no-ip.com
Richard Delorme
Benjamin FRANCOIS a exprimé avec précision :
OL s'est exprimé en ces termes:
Oui, quel système de fichiers ne fragmente pas ?
http://www.aplawrence.com/Bofcusm/142.html
Oups, une histoire de 1993 qui parle de DOS 1.X avant qu'il aie des répertoires ;>))
Ça parle aussi de FFS et de sa conception visant à réduire la fragmentation.
Très intéressant, mais dépassé Quelque chose de plus actuel ?
Des définitions sur la fragmentation et des outils pour la mesurer : http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/
Une interview avec les concepteurs de JFS, ReiserFS et XFS. Une question porte sur la fragmentation et donne quelques indications de base sur les techniques utilisées pour réduire la fragmentation : http://www.osnews.com/story.php?news_idi
Des articles de Keith Smith qui expliquent les problèmes de fragmentations, en particulier sur FFS : http://www.eecs.harvard.edu/~vino/fs-perf/
En résumé : - la FAT était un système pourri qui fragmentait beaucoup. - FFS et ces successeurs (NTFS, XFS, ...) sont des systèmes conçus pour réduire la fragmentation le plus possible en amont (lors de la création des fichiers). - Malgré tout ces systèmes fragmentent encore, c'est pourquoi ils ont des outils de défragmentation, et s'il n'en ont pas, c'est parce qu'il s'agit d'un problème considéré secondaire.
-- Richard
Benjamin FRANCOIS a exprimé avec précision :
OL s'est exprimé en ces termes:
Oui, quel système de fichiers ne fragmente pas ?
http://www.aplawrence.com/Bofcusm/142.html
Oups, une histoire de 1993 qui parle de DOS 1.X avant qu'il aie des
répertoires ;>))
Ça parle aussi de FFS et de sa conception visant à réduire la fragmentation.
Très intéressant, mais dépassé
Quelque chose de plus actuel ?
Des définitions sur la fragmentation et des outils pour la mesurer :
http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/
Une interview avec les concepteurs de JFS, ReiserFS et XFS. Une question
porte sur la fragmentation et donne quelques indications de base sur les
techniques utilisées pour réduire la fragmentation :
http://www.osnews.com/story.php?news_idi
Des articles de Keith Smith qui expliquent les problèmes de
fragmentations, en particulier sur FFS :
http://www.eecs.harvard.edu/~vino/fs-perf/
En résumé :
- la FAT était un système pourri qui fragmentait beaucoup.
- FFS et ces successeurs (NTFS, XFS, ...) sont des systèmes conçus pour
réduire la fragmentation le plus possible en amont (lors de la création
des fichiers).
- Malgré tout ces systèmes fragmentent encore, c'est pourquoi ils ont
des outils de défragmentation, et s'il n'en ont pas, c'est parce qu'il
s'agit d'un problème considéré secondaire.
Oups, une histoire de 1993 qui parle de DOS 1.X avant qu'il aie des répertoires ;>))
Ça parle aussi de FFS et de sa conception visant à réduire la fragmentation.
Très intéressant, mais dépassé Quelque chose de plus actuel ?
Des définitions sur la fragmentation et des outils pour la mesurer : http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/
Une interview avec les concepteurs de JFS, ReiserFS et XFS. Une question porte sur la fragmentation et donne quelques indications de base sur les techniques utilisées pour réduire la fragmentation : http://www.osnews.com/story.php?news_idi
Des articles de Keith Smith qui expliquent les problèmes de fragmentations, en particulier sur FFS : http://www.eecs.harvard.edu/~vino/fs-perf/
En résumé : - la FAT était un système pourri qui fragmentait beaucoup. - FFS et ces successeurs (NTFS, XFS, ...) sont des systèmes conçus pour réduire la fragmentation le plus possible en amont (lors de la création des fichiers). - Malgré tout ces systèmes fragmentent encore, c'est pourquoi ils ont des outils de défragmentation, et s'il n'en ont pas, c'est parce qu'il s'agit d'un problème considéré secondaire.