JKDefrag fait très bien les choses dans cet esprit ! http://www.jkdefrag.fr/
-- Bien cordialement, Georges Aide toi le ciel t'aidera : http://papynet.mvps.org/Forums.htm Pour prendre contact : http://minilien.com/?1xjHkMIEp0 Pages XP : http://papynet.mvps.org/XP/XP.htm Vista : http://papynet.mvps.org/Vista/Vista.htm
JKDefrag fait très bien les choses dans cet esprit !
http://www.jkdefrag.fr/
--
Bien cordialement, Georges
Aide toi le ciel t'aidera : http://papynet.mvps.org/Forums.htm
Pour prendre contact : http://minilien.com/?1xjHkMIEp0
Pages XP : http://papynet.mvps.org/XP/XP.htm Vista :
http://papynet.mvps.org/Vista/Vista.htm
JKDefrag fait très bien les choses dans cet esprit ! http://www.jkdefrag.fr/
-- Bien cordialement, Georges Aide toi le ciel t'aidera : http://papynet.mvps.org/Forums.htm Pour prendre contact : http://minilien.com/?1xjHkMIEp0 Pages XP : http://papynet.mvps.org/XP/XP.htm Vista : http://papynet.mvps.org/Vista/Vista.htm
Sabrem JORAM
[MS-MVP] a écrit :
Hello Sabrem JORAM !
L'idéal serait donc un outil qui laisserait quelques clusters de libre à la suite des données les plus souvent modifiées : j'ignore s'il existe.
JKDefrag fait très bien les choses dans cet esprit ! http://www.jkdefrag.fr/
Bonjour Georges,
Ça me semble sur le papier faire tout ce que je veux. En outre, il ne s'installe pas et travaille sur toutes les versions.
Et mon idée n'était donc pas mauvaise :
"Un ordinateur crée et supprime des fichiers temporaires sans se préoccuper de l'avenir. Si le disque dur était complètement optimisé, le seul emplacement disponible pour les nouveaux fichiers temporaires serait situé après toutes les autres données. Ce qui serait très lent. JkDefrag conserve donc une zone libre de 1% de l'espace disque total entre la zone 1 (répertoires) et la zone 2 (fichiers standards), ainsi qu'entre la zone 2 et la zone 3 (fichiers de stockage)."
L'idéal serait donc un outil qui laisserait quelques clusters de libre à la
suite des données les plus souvent modifiées : j'ignore s'il existe.
JKDefrag fait très bien les choses dans cet esprit !
http://www.jkdefrag.fr/
Bonjour Georges,
Ça me semble sur le papier faire tout ce que je veux. En outre, il ne
s'installe pas et travaille sur toutes les versions.
Et mon idée n'était donc pas mauvaise :
"Un ordinateur crée et supprime des fichiers temporaires sans se
préoccuper de l'avenir. Si le disque dur était complètement optimisé,
le seul emplacement disponible pour les nouveaux fichiers temporaires
serait situé après toutes les autres données. Ce qui serait très lent.
JkDefrag conserve donc une zone libre de 1% de l'espace disque total
entre la zone 1 (répertoires) et la zone 2 (fichiers standards), ainsi
qu'entre la zone 2 et la zone 3 (fichiers de stockage)."
L'idéal serait donc un outil qui laisserait quelques clusters de libre à la suite des données les plus souvent modifiées : j'ignore s'il existe.
JKDefrag fait très bien les choses dans cet esprit ! http://www.jkdefrag.fr/
Bonjour Georges,
Ça me semble sur le papier faire tout ce que je veux. En outre, il ne s'installe pas et travaille sur toutes les versions.
Et mon idée n'était donc pas mauvaise :
"Un ordinateur crée et supprime des fichiers temporaires sans se préoccuper de l'avenir. Si le disque dur était complètement optimisé, le seul emplacement disponible pour les nouveaux fichiers temporaires serait situé après toutes les autres données. Ce qui serait très lent. JkDefrag conserve donc une zone libre de 1% de l'espace disque total entre la zone 1 (répertoires) et la zone 2 (fichiers standards), ainsi qu'entre la zone 2 et la zone 3 (fichiers de stockage)."
Ça me semble sur le papier faire tout ce que je veux. En outre, il ne s'installe pas et travaille sur toutes les versions.
Il utilise des API de Windows !
Et mon idée n'était donc pas mauvaise :
"Un ordinateur crée et supprime des fichiers temporaires sans se préoccuper de l'avenir. Si le disque dur était complètement optimisé, le seul emplacement disponible pour les nouveaux fichiers temporaires serait situé après toutes les autres données. Ce qui serait très lent. JkDefrag conserve donc une zone libre de 1% de l'espace disque total entre la zone 1 (répertoires) et la zone 2 (fichiers standards), ainsi qu'entre la zone 2 et la zone 3 (fichiers de stockage)."
Depuis 2 jours, j'utilise JKDefrag sur 3 PC. J'ai bien sur désactivé les défragmentations automatiques programmées dans Vista. J'ai d'abord fait la défragmentation totale et automatique qui a été assez longue. Je l'ai laissé tourné la nuit Ensuite j'ai fait une procédure avec l'option rapide et sur un 500 Go réparti en 7 partitions, le temps a été de 6'. Le rapport que j'ai généré pour chaque partition fait apparaître les fichiers non défragmentés parce que "bloqués" par le système. J'ai pas encore fait l'essai en mode sans echec, pour voir la différence
En ce qui concerne les fichiers temporaires, j'ai fait une partition en fat32 sur laquelle je mets le fichier de pagination (de longueur fixe), le cache internet, et les dossiers temp (ces derniers sont systèmatiquement effacés au démarrage). J'ai limité aussi l'espace de restauration pour n'avoir qu'un dizaine de PR.
Ce que j'ai cherché c'est surtout de ne pas laisser les defragmenteurs reclasser systèmatiquement les fichiers au début du disque. JKdefrag en méthode rapide ne fait que défragmenter les fichiers. Lorsque j'aurais un plus de recul, je ne le ferais que sur les partitions pour lesquelles la défragmentation peut apporter qq chose. Avec ce découpage il n'est pas prouvé que la partition OS le soit !
Si cela t'intéresse je peux te passer mon paquet cadeau, produit fini à qq réglages à faire, comme retirer les partitions !
-- Bien cordialement, Georges Aide toi le ciel t'aidera : http://papynet.mvps.org/Forums.htm Pour prendre contact : http://minilien.com/?1xjHkMIEp0 Pages XP : http://papynet.mvps.org/XP/XP.htm Vista : http://papynet.mvps.org/Vista/Vista.htm
Hello Sabrem JORAM !
Ça me semble sur le papier faire tout ce que je veux. En outre, il ne
s'installe pas et travaille sur toutes les versions.
Il utilise des API de Windows !
Et mon idée n'était donc pas mauvaise :
"Un ordinateur crée et supprime des fichiers temporaires sans se préoccuper
de l'avenir. Si le disque dur était complètement optimisé, le seul
emplacement disponible pour les nouveaux fichiers temporaires serait situé
après toutes les autres données. Ce qui serait très lent. JkDefrag conserve
donc une zone libre de 1% de l'espace disque total entre la zone 1
(répertoires) et la zone 2 (fichiers standards), ainsi qu'entre la zone 2 et
la zone 3 (fichiers de stockage)."
Depuis 2 jours, j'utilise JKDefrag sur 3 PC.
J'ai bien sur désactivé les défragmentations automatiques programmées
dans Vista.
J'ai d'abord fait la défragmentation totale et automatique qui a été
assez longue. Je l'ai laissé tourné la nuit
Ensuite j'ai fait une procédure avec l'option rapide et sur un 500 Go
réparti en 7 partitions, le temps a été de 6'. Le rapport que j'ai
généré pour chaque partition fait apparaître les fichiers non
défragmentés parce que "bloqués" par le système. J'ai pas encore fait
l'essai en mode sans echec, pour voir la différence
En ce qui concerne les fichiers temporaires, j'ai fait une partition en
fat32 sur laquelle je mets le fichier de pagination (de longueur fixe),
le cache internet, et les dossiers temp (ces derniers sont
systèmatiquement effacés au démarrage). J'ai limité aussi l'espace de
restauration pour n'avoir qu'un dizaine de PR.
Ce que j'ai cherché c'est surtout de ne pas laisser les defragmenteurs
reclasser systèmatiquement les fichiers au début du disque. JKdefrag en
méthode rapide ne fait que défragmenter les fichiers. Lorsque j'aurais
un plus de recul, je ne le ferais que sur les partitions pour
lesquelles la défragmentation peut apporter qq chose. Avec ce découpage
il n'est pas prouvé que la partition OS le soit !
Si cela t'intéresse je peux te passer mon paquet cadeau, produit fini à
qq réglages à faire, comme retirer les partitions !
--
Bien cordialement, Georges
Aide toi le ciel t'aidera : http://papynet.mvps.org/Forums.htm
Pour prendre contact : http://minilien.com/?1xjHkMIEp0
Pages XP : http://papynet.mvps.org/XP/XP.htm Vista :
http://papynet.mvps.org/Vista/Vista.htm
Ça me semble sur le papier faire tout ce que je veux. En outre, il ne s'installe pas et travaille sur toutes les versions.
Il utilise des API de Windows !
Et mon idée n'était donc pas mauvaise :
"Un ordinateur crée et supprime des fichiers temporaires sans se préoccuper de l'avenir. Si le disque dur était complètement optimisé, le seul emplacement disponible pour les nouveaux fichiers temporaires serait situé après toutes les autres données. Ce qui serait très lent. JkDefrag conserve donc une zone libre de 1% de l'espace disque total entre la zone 1 (répertoires) et la zone 2 (fichiers standards), ainsi qu'entre la zone 2 et la zone 3 (fichiers de stockage)."
Depuis 2 jours, j'utilise JKDefrag sur 3 PC. J'ai bien sur désactivé les défragmentations automatiques programmées dans Vista. J'ai d'abord fait la défragmentation totale et automatique qui a été assez longue. Je l'ai laissé tourné la nuit Ensuite j'ai fait une procédure avec l'option rapide et sur un 500 Go réparti en 7 partitions, le temps a été de 6'. Le rapport que j'ai généré pour chaque partition fait apparaître les fichiers non défragmentés parce que "bloqués" par le système. J'ai pas encore fait l'essai en mode sans echec, pour voir la différence
En ce qui concerne les fichiers temporaires, j'ai fait une partition en fat32 sur laquelle je mets le fichier de pagination (de longueur fixe), le cache internet, et les dossiers temp (ces derniers sont systèmatiquement effacés au démarrage). J'ai limité aussi l'espace de restauration pour n'avoir qu'un dizaine de PR.
Ce que j'ai cherché c'est surtout de ne pas laisser les defragmenteurs reclasser systèmatiquement les fichiers au début du disque. JKdefrag en méthode rapide ne fait que défragmenter les fichiers. Lorsque j'aurais un plus de recul, je ne le ferais que sur les partitions pour lesquelles la défragmentation peut apporter qq chose. Avec ce découpage il n'est pas prouvé que la partition OS le soit !
Si cela t'intéresse je peux te passer mon paquet cadeau, produit fini à qq réglages à faire, comme retirer les partitions !
-- Bien cordialement, Georges Aide toi le ciel t'aidera : http://papynet.mvps.org/Forums.htm Pour prendre contact : http://minilien.com/?1xjHkMIEp0 Pages XP : http://papynet.mvps.org/XP/XP.htm Vista : http://papynet.mvps.org/Vista/Vista.htm
MCI \(ex do ré Mi chel la si do\) [MVP]
Bonsoir !
J'ai deux cas, où le défragmentation joue (un peu) : - lorsqu'on utilise des bases de données, et que l'on a des traitements qui parcourent les bases ; - lorsqu'on a beaucoup de gros fichiers vivants (qui changent), et que l'on réalise régulièrement des sauvegardes de ces fichiers.
Pour autant, il est inutile de défragmenter trop souvent. Heureusement, on peut analyser la défragmentation (option -a), pour savoir si ça vaut le coup
Autre chose : la vitesse de défragmentation (defrag.exe) dépend aussi du service VSS, pour son optimisation.
@-salutations
Michel Claveau
Bonsoir !
J'ai deux cas, où le défragmentation joue (un peu) :
- lorsqu'on utilise des bases de données, et que l'on a des
traitements qui parcourent les bases ;
- lorsqu'on a beaucoup de gros fichiers vivants (qui changent), et que
l'on réalise régulièrement des sauvegardes de ces fichiers.
Pour autant, il est inutile de défragmenter trop souvent. Heureusement,
on peut analyser la défragmentation (option -a), pour savoir si ça vaut
le coup
Autre chose : la vitesse de défragmentation (defrag.exe) dépend aussi du
service VSS, pour son optimisation.
J'ai deux cas, où le défragmentation joue (un peu) : - lorsqu'on utilise des bases de données, et que l'on a des traitements qui parcourent les bases ; - lorsqu'on a beaucoup de gros fichiers vivants (qui changent), et que l'on réalise régulièrement des sauvegardes de ces fichiers.
Pour autant, il est inutile de défragmenter trop souvent. Heureusement, on peut analyser la défragmentation (option -a), pour savoir si ça vaut le coup
Autre chose : la vitesse de défragmentation (defrag.exe) dépend aussi du service VSS, pour son optimisation.
@-salutations
Michel Claveau
mdnews
Sat, 23 Aug 2008 18:05:00 +0200, MELMOTH >>
Et n'ai constaté AUCUNE DIFFÉRENCE...Je dis bien *AUCUNE DIFFÉRENCE* entre avant et après la défragmentation
Tu n'as pas pris en compte la *température du disque* dur qui occasionne parfois des *plantages* et *erreurs d'écriture* (surtout sur les HD bas de gamme et|ou mal ventilés). Les mouvements mécaniques du bras du disque font souvent échauffer beaucoup ce dernier. En faisant une défragmentation, cet échauffement excessif ne se produira que pendant la défrag et beaucoup moins pendant le travail. En faisant une défragmentation une fois par semaine ou mois, celle-ci durera à peine quelques minutes (après la première qui est très longue) De plus un bon défrag permet la défragmentation au reboot et donc défragmente la pluspart des fichiers qui sont d'habitude verrouillés par le système.
Sat, 23 Aug 2008 18:05:00 +0200, MELMOTH <theomonk@free.fr> >>
Et n'ai constaté AUCUNE DIFFÉRENCE...Je dis bien *AUCUNE DIFFÉRENCE*
entre avant et après la défragmentation
Tu n'as pas pris en compte la *température du disque* dur qui
occasionne parfois des *plantages* et *erreurs d'écriture* (surtout
sur les HD bas de gamme et|ou mal ventilés).
Les mouvements mécaniques du bras du disque font souvent échauffer
beaucoup ce dernier.
En faisant une défragmentation, cet échauffement excessif ne se
produira que pendant la défrag et beaucoup moins pendant le travail.
En faisant une défragmentation une fois par semaine ou mois, celle-ci
durera à peine quelques minutes (après la première qui est très
longue)
De plus un bon défrag permet la défragmentation au reboot et donc
défragmente la pluspart des fichiers qui sont d'habitude verrouillés
par le système.
Et n'ai constaté AUCUNE DIFFÉRENCE...Je dis bien *AUCUNE DIFFÉRENCE* entre avant et après la défragmentation
Tu n'as pas pris en compte la *température du disque* dur qui occasionne parfois des *plantages* et *erreurs d'écriture* (surtout sur les HD bas de gamme et|ou mal ventilés). Les mouvements mécaniques du bras du disque font souvent échauffer beaucoup ce dernier. En faisant une défragmentation, cet échauffement excessif ne se produira que pendant la défrag et beaucoup moins pendant le travail. En faisant une défragmentation une fois par semaine ou mois, celle-ci durera à peine quelques minutes (après la première qui est très longue) De plus un bon défrag permet la défragmentation au reboot et donc défragmente la pluspart des fichiers qui sont d'habitude verrouillés par le système.
mdnews
Mon, 25 Aug 2008 22:56:17 +0200, "MCI (ex do ré Mi chel la si do) [MVP]" >>
Bonsoir !
J'ai deux cas, où le défragmentation joue (un peu) : - lorsqu'on utilise des bases de données, et que l'on a des traitements qui parcourent les bases ;
Ca dépend de la base de donnée: certains SGBDR utilisent un espace contigu pour toute la base. Cet espace est défini à l'initialisation par le DBA. Effectivement dans ce cas là on a un intérêt à faire un défrag (en mode "free space") mais *avant l'installation de la base* pour disposer d'un espace libre le plus grand possible. Un fois la base en fonction, plus besoin de défragmenter.
- lorsqu'on a beaucoup de gros fichiers vivants (qui changent), et que l'on réalise régulièrement des sauvegardes de ces fichiers.
Oui++ Surtout si on supprime souvent des petits fichiers. (Penser à faire un Cclener ou autre avant défragmentation: on gagne du temps)
Pour autant, il est inutile de défragmenter trop souvent. Heureusement, on peut analyser la défragmentation (option -a), pour savoir si ça vaut le coup
Techniquement, seule la première défragmentation est très longue. Sur une de mes machines, (120 Go de données sur un HD de 400Go) le premier défrag a duré 1H30, les suivantes (hebdo durent environ 10 min). Pourtant c'est une machine de "crash test" qui subie installations et désinstallation de gros programmes.
Mon, 25 Aug 2008 22:56:17 +0200, "MCI (ex do ré Mi chel la si do)
[MVP]" <enleverlesO.OmcO@OmclaveauO.com> >>
Bonsoir !
J'ai deux cas, où le défragmentation joue (un peu) :
- lorsqu'on utilise des bases de données, et que l'on a des
traitements qui parcourent les bases ;
Ca dépend de la base de donnée: certains SGBDR utilisent un espace
contigu pour toute la base. Cet espace est défini à l'initialisation
par le DBA.
Effectivement dans ce cas là on a un intérêt à faire un défrag (en
mode "free space") mais *avant l'installation de la base* pour
disposer d'un espace libre le plus grand possible.
Un fois la base en fonction, plus besoin de défragmenter.
- lorsqu'on a beaucoup de gros fichiers vivants (qui changent), et que
l'on réalise régulièrement des sauvegardes de ces fichiers.
Oui++
Surtout si on supprime souvent des petits fichiers.
(Penser à faire un Cclener ou autre avant défragmentation: on gagne du
temps)
Pour autant, il est inutile de défragmenter trop souvent. Heureusement,
on peut analyser la défragmentation (option -a), pour savoir si ça vaut
le coup
Techniquement, seule la première défragmentation est très longue. Sur
une de mes machines, (120 Go de données sur un HD de 400Go) le premier
défrag a duré 1H30, les suivantes (hebdo durent environ 10 min).
Pourtant c'est une machine de "crash test" qui subie installations et
désinstallation de gros programmes.
Mon, 25 Aug 2008 22:56:17 +0200, "MCI (ex do ré Mi chel la si do) [MVP]" >>
Bonsoir !
J'ai deux cas, où le défragmentation joue (un peu) : - lorsqu'on utilise des bases de données, et que l'on a des traitements qui parcourent les bases ;
Ca dépend de la base de donnée: certains SGBDR utilisent un espace contigu pour toute la base. Cet espace est défini à l'initialisation par le DBA. Effectivement dans ce cas là on a un intérêt à faire un défrag (en mode "free space") mais *avant l'installation de la base* pour disposer d'un espace libre le plus grand possible. Un fois la base en fonction, plus besoin de défragmenter.
- lorsqu'on a beaucoup de gros fichiers vivants (qui changent), et que l'on réalise régulièrement des sauvegardes de ces fichiers.
Oui++ Surtout si on supprime souvent des petits fichiers. (Penser à faire un Cclener ou autre avant défragmentation: on gagne du temps)
Pour autant, il est inutile de défragmenter trop souvent. Heureusement, on peut analyser la défragmentation (option -a), pour savoir si ça vaut le coup
Techniquement, seule la première défragmentation est très longue. Sur une de mes machines, (120 Go de données sur un HD de 400Go) le premier défrag a duré 1H30, les suivantes (hebdo durent environ 10 min). Pourtant c'est une machine de "crash test" qui subie installations et désinstallation de gros programmes.
MCI \(ex do ré Mi chel la si do\) [MVP]
Re !
Ca dépend de la base de donnée: certains SGBDR utilisent un espace contigu pour toute la base. Cet espace est défini à l'initialisation
par le DBA.
Oui, ça dépend des bases. Mais, il arrive aussi que ces bases utilisent une partie contiguë, plus une partie non contiguë. C'est, par exemple le cas d'Oracle (avec les journaux). Et certaines bases alloue dynamiquement (et automatiquement) de grands blocs d'espaces (comme SQL-serveur) ; seulement, on maîtrise mal quand l'allocation va se produire. Et le problème des journaux reste. De plus, les sauvegardes des bases utilise souvent des DUMP des tables/bases. Ce sont ces DUMP qui sont ensuite vraiment sauvegardés. Avec un doute sur la défragmentation au passage...
Techniquement, seule la première défragmentation est très longue. Sur une de mes machines, (120 Go de données sur un HD de 400Go) le premier défrag a duré 1H30, les suivantes (hebdo durent environ 10 min).
Ok... Le dernière grosse défragmentation que j'ai lancée a durée plus de 8 heures (sur un serveur avec Oracle-XE, SQL-serveur-2000, Paradox, Chata, etc.) Mais, bon, c'est un cas à part.
@-salutations -- Michel Claveau
Re !
Ca dépend de la base de donnée: certains SGBDR utilisent un espace
contigu pour toute la base. Cet espace est défini à l'initialisation
par le DBA.
Oui, ça dépend des bases. Mais, il arrive aussi que ces bases utilisent
une partie contiguë, plus une partie non contiguë. C'est, par exemple le
cas d'Oracle (avec les journaux). Et certaines bases alloue
dynamiquement (et automatiquement) de grands blocs d'espaces (comme
SQL-serveur) ; seulement, on maîtrise mal quand l'allocation va se
produire. Et le problème des journaux reste.
De plus, les sauvegardes des bases utilise souvent des DUMP des
tables/bases. Ce sont ces DUMP qui sont ensuite vraiment sauvegardés.
Avec un doute sur la défragmentation au passage...
Techniquement, seule la première défragmentation est très longue. Sur
une de mes machines, (120 Go de données sur un HD de 400Go) le premier
défrag a duré 1H30, les suivantes (hebdo durent environ 10 min).
Ok... Le dernière grosse défragmentation que j'ai lancée a durée plus
de 8 heures (sur un serveur avec Oracle-XE, SQL-serveur-2000, Paradox,
Chata, etc.)
Mais, bon, c'est un cas à part.
Ca dépend de la base de donnée: certains SGBDR utilisent un espace contigu pour toute la base. Cet espace est défini à l'initialisation
par le DBA.
Oui, ça dépend des bases. Mais, il arrive aussi que ces bases utilisent une partie contiguë, plus une partie non contiguë. C'est, par exemple le cas d'Oracle (avec les journaux). Et certaines bases alloue dynamiquement (et automatiquement) de grands blocs d'espaces (comme SQL-serveur) ; seulement, on maîtrise mal quand l'allocation va se produire. Et le problème des journaux reste. De plus, les sauvegardes des bases utilise souvent des DUMP des tables/bases. Ce sont ces DUMP qui sont ensuite vraiment sauvegardés. Avec un doute sur la défragmentation au passage...
Techniquement, seule la première défragmentation est très longue. Sur une de mes machines, (120 Go de données sur un HD de 400Go) le premier défrag a duré 1H30, les suivantes (hebdo durent environ 10 min).
Ok... Le dernière grosse défragmentation que j'ai lancée a durée plus de 8 heures (sur un serveur avec Oracle-XE, SQL-serveur-2000, Paradox, Chata, etc.) Mais, bon, c'est un cas à part.