[Q] Défragmentation continue en tâche de fond ? vraiment nécessaire
7 réponses
T0M
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits
dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de
performance réside dans la defragmentation permanente en tache de fond,
qui permet de prévenir la formation d’une nouvelle fragmentation. "
Est-il vraiment nécessaire d'utiliser cette solution plutôt qu'une
defragmentation lancée manuellement ? Voit-on vraiment la différence
maintenant avec des disques durs dont les accès sont bien plus rapides ?
Bref, je me pose surtout la question d'avoir une application chargée en
mémoire et qui doit consommer un peu quand même pour un supposer gain de
temps...
Merci d'avance pour vos avis et vos retour d'expérience.
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
docanski
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d’une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur progressive d'un système, elle en est néanmoins la cause la plus importante. De là à créer une tâche de fond pour défragmenter systématiquement un système, il y a un pas car cette tâche de fond risque d'être aussi "invalidante" que la fragmentation elle-même.
La défragmentation manuelle est de loin préférable car elle peut s'effectuer en dehors des temps de travail sur la machine.
Bref, je me pose surtout la question d'avoir une application chargée en mémoire et qui doit consommer un peu quand même pour un supposer gain de temps...
La bonne question à se poser est la suivante : existe-t'il des systèmes qui n'ont pas ce défaut ? La réponse est : oui. Faut-il nécessairement subir des lenteurs parce qu'un système est tellement mal foutu qu'il provoque une fragmentation des disques ? La réponse est : non. Subsidiairement : puis-je trouver dans un autre système les applications qui me sont nécessaires ? La réponse est : oui dans la toute grande majorité des cas.
Merci d'avance pour vos avis et vos retour d'expérience.
Perso, j'utilise depuis belle lurette des distributions Linux sur mes machines : jamais besoin de défragmentation, aucune lenteur de celles-ci par rapport à l'origine de l'installation, même après plusieurs années de fonctionnement.
Cordialement, -- docanski
Portail et annuaire du nord-Bretagne : http://armorance.free.fr/ Guide des champignons d'Europe : http://mycorance.free.fr/ La vallée de la Rance maritime : http://valderance.free.fr/ Les côtes du nord de la Bretagne : http://docarmor.free.fr/
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits
dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de
performance réside dans la defragmentation permanente en tache de fond,
qui permet de prévenir la formation d’une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la
lenteur progressive d'un système, elle en est néanmoins la cause la plus
importante.
De là à créer une tâche de fond pour défragmenter systématiquement un
système, il y a un pas car cette tâche de fond risque d'être aussi
"invalidante" que la fragmentation elle-même.
La défragmentation manuelle est de loin préférable car elle peut
s'effectuer en dehors des temps de travail sur la machine.
Bref, je me pose surtout la question d'avoir une application chargée en
mémoire et qui doit consommer un peu quand même pour un supposer gain de
temps...
La bonne question à se poser est la suivante : existe-t'il des systèmes
qui n'ont pas ce défaut ?
La réponse est : oui.
Faut-il nécessairement subir des lenteurs parce qu'un système est
tellement mal foutu qu'il provoque une fragmentation des disques ?
La réponse est : non.
Subsidiairement : puis-je trouver dans un autre système les applications
qui me sont nécessaires ?
La réponse est : oui dans la toute grande majorité des cas.
Merci d'avance pour vos avis et vos retour d'expérience.
Perso, j'utilise depuis belle lurette des distributions Linux sur mes
machines : jamais besoin de défragmentation, aucune lenteur de celles-ci
par rapport à l'origine de l'installation, même après plusieurs années
de fonctionnement.
Cordialement,
--
docanski
Portail et annuaire du nord-Bretagne : http://armorance.free.fr/
Guide des champignons d'Europe : http://mycorance.free.fr/
La vallée de la Rance maritime : http://valderance.free.fr/
Les côtes du nord de la Bretagne : http://docarmor.free.fr/
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d’une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur progressive d'un système, elle en est néanmoins la cause la plus importante. De là à créer une tâche de fond pour défragmenter systématiquement un système, il y a un pas car cette tâche de fond risque d'être aussi "invalidante" que la fragmentation elle-même.
La défragmentation manuelle est de loin préférable car elle peut s'effectuer en dehors des temps de travail sur la machine.
Bref, je me pose surtout la question d'avoir une application chargée en mémoire et qui doit consommer un peu quand même pour un supposer gain de temps...
La bonne question à se poser est la suivante : existe-t'il des systèmes qui n'ont pas ce défaut ? La réponse est : oui. Faut-il nécessairement subir des lenteurs parce qu'un système est tellement mal foutu qu'il provoque une fragmentation des disques ? La réponse est : non. Subsidiairement : puis-je trouver dans un autre système les applications qui me sont nécessaires ? La réponse est : oui dans la toute grande majorité des cas.
Merci d'avance pour vos avis et vos retour d'expérience.
Perso, j'utilise depuis belle lurette des distributions Linux sur mes machines : jamais besoin de défragmentation, aucune lenteur de celles-ci par rapport à l'origine de l'installation, même après plusieurs années de fonctionnement.
Cordialement, -- docanski
Portail et annuaire du nord-Bretagne : http://armorance.free.fr/ Guide des champignons d'Europe : http://mycorance.free.fr/ La vallée de la Rance maritime : http://valderance.free.fr/ Les côtes du nord de la Bretagne : http://docarmor.free.fr/
Alain Naigeon
"docanski" a écrit dans le message de news: i537n8$2d3c$
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d'une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur progressive d'un système, elle en est néanmoins la cause la plus importante.
Salut !
Là j'ai des doutes, il faut vraiment une machine peu entretenue, non défragmentée depuis plusieurs mois au bas mot. Je fais cela au pif de temps à autre, mais certainement au moins une fois par mois (ce qui a l'avantage de durer peu de temps), et je n'ai jamais remarqué d'amélioration juste après. Par contre une mémoire trop juste entraînant un swapping important, surtout si de nombreux programmes et services utilisés rarement sont chargés en permanence, alors ça, oui, c'est très pénalisant ! Juste mon humble avis (basé sur mon expérience, quand même).
La défragmentation manuelle est de loin préférable car elle peut s'effectuer en dehors des temps de travail sur la machine.
Tout à fait d'accord : car en plus, personnellement, je ne fais *jamais* de défrag avant d'avoir une sauvegarde 100% à jour ! (c'est vrai qu'on peut sans doute insérer tout cela dans un script, mais bon...)
--
Français *==> "Musique renaissance" <==* English midi - facsimiles - ligatures - mensuration http://anaigeon.free.fr | http://www.medieval.org/emfaq/anaigeon/ Alain Naigeon - - Oberhoffen/Moder, France http://fr.youtube.com/user/AlainNaigeon
"docanski" <docanski_morauspam@euphonynet.be.invalid> a écrit dans le
message de news: i537n8$2d3c$1@obelix.gegeweb.org...
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M
ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits
dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de
performance réside dans la defragmentation permanente en tache de fond,
qui permet de prévenir la formation d'une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur
progressive d'un système, elle en est néanmoins la cause la plus
importante.
Salut !
Là j'ai des doutes, il faut vraiment une machine peu entretenue,
non défragmentée depuis plusieurs mois au bas mot. Je fais cela
au pif de temps à autre, mais certainement au moins une fois par
mois (ce qui a l'avantage de durer peu de temps), et je n'ai jamais
remarqué d'amélioration juste après.
Par contre une mémoire trop juste entraînant un swapping important,
surtout si de nombreux programmes et services utilisés rarement
sont chargés en permanence, alors ça, oui, c'est très pénalisant !
Juste mon humble avis (basé sur mon expérience, quand même).
La défragmentation manuelle est de loin préférable car elle peut
s'effectuer en dehors des temps de travail sur la machine.
Tout à fait d'accord : car en plus, personnellement, je ne fais
*jamais* de défrag avant d'avoir une sauvegarde 100% à jour !
(c'est vrai qu'on peut sans doute insérer tout cela dans un script,
mais bon...)
--
Français *==> "Musique renaissance" <==* English
midi - facsimiles - ligatures - mensuration
http://anaigeon.free.fr | http://www.medieval.org/emfaq/anaigeon/
Alain Naigeon - anaigeon@free.fr - Oberhoffen/Moder, France
http://fr.youtube.com/user/AlainNaigeon
"docanski" a écrit dans le message de news: i537n8$2d3c$
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d'une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur progressive d'un système, elle en est néanmoins la cause la plus importante.
Salut !
Là j'ai des doutes, il faut vraiment une machine peu entretenue, non défragmentée depuis plusieurs mois au bas mot. Je fais cela au pif de temps à autre, mais certainement au moins une fois par mois (ce qui a l'avantage de durer peu de temps), et je n'ai jamais remarqué d'amélioration juste après. Par contre une mémoire trop juste entraînant un swapping important, surtout si de nombreux programmes et services utilisés rarement sont chargés en permanence, alors ça, oui, c'est très pénalisant ! Juste mon humble avis (basé sur mon expérience, quand même).
La défragmentation manuelle est de loin préférable car elle peut s'effectuer en dehors des temps de travail sur la machine.
Tout à fait d'accord : car en plus, personnellement, je ne fais *jamais* de défrag avant d'avoir une sauvegarde 100% à jour ! (c'est vrai qu'on peut sans doute insérer tout cela dans un script, mais bon...)
--
Français *==> "Musique renaissance" <==* English midi - facsimiles - ligatures - mensuration http://anaigeon.free.fr | http://www.medieval.org/emfaq/anaigeon/ Alain Naigeon - - Oberhoffen/Moder, France http://fr.youtube.com/user/AlainNaigeon
"T0M" <vieprivé a écrit dans le message de groupe de discussion :
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d'une nouvelle fragmentation. "
Est-il vraiment nécessaire d'utiliser cette solution plutôt qu'une defragmentation lancée manuellement ? Voit-on vraiment la différence maintenant avec des disques durs dont les accès sont bien plus rapides ? Bref, je me pose surtout la question d'avoir une application chargée en mémoire et qui doit consommer un peu quand même pour un supposer gain de temps...
Merci d'avance pour vos avis et vos retour d'expérience.
La défragmentation n'est jamais une urgence. Jamais observé de différences significatives en vitesse avant comme après. Ceci dit ce n'est pas forcément inutile, mais aucune raison de bloquer le PC avec ça. Ce qui est important c'est que le fichier d'échange, lui, ne soit pas fragmenté. Donc il est sage de lui réserver une petite partition douillette rien qu'à lui. D'autre part si on est en multiboot (bien le diable si on a pas gardé un XP Pro pour ses vieilles applis et ses périfs incompatibles comme les scanners en plus d'un Seven 64 de la mort) il est préférable de défragmenter l'autre système (inactif) car certains fichiers systèmes sont intouchables.
"T0M" <vieprivée@fra.invalid> a écrit dans le message de groupe de
discussion : vjn9761ftii86aru9k7j8d16uqn7icvns0@4ax.com...
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits
dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de
performance réside dans la defragmentation permanente en tache de fond,
qui permet de prévenir la formation d'une nouvelle fragmentation. "
Est-il vraiment nécessaire d'utiliser cette solution plutôt qu'une
defragmentation lancée manuellement ? Voit-on vraiment la différence
maintenant avec des disques durs dont les accès sont bien plus rapides ?
Bref, je me pose surtout la question d'avoir une application chargée en
mémoire et qui doit consommer un peu quand même pour un supposer gain de
temps...
Merci d'avance pour vos avis et vos retour d'expérience.
La défragmentation n'est jamais une urgence. Jamais observé de
différences significatives en vitesse avant comme après. Ceci dit ce n'est
pas forcément inutile, mais aucune raison de bloquer le PC avec ça. Ce qui
est important c'est que le fichier d'échange, lui, ne soit pas fragmenté.
Donc il est sage de lui réserver une petite partition douillette rien qu'à
lui. D'autre part si on est en multiboot (bien le diable si on a pas gardé
un XP Pro pour ses vieilles applis et ses périfs incompatibles comme les
scanners en plus d'un Seven 64 de la mort) il est préférable de défragmenter
l'autre système (inactif) car certains fichiers systèmes sont intouchables.
"T0M" <vieprivé a écrit dans le message de groupe de discussion :
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d'une nouvelle fragmentation. "
Est-il vraiment nécessaire d'utiliser cette solution plutôt qu'une defragmentation lancée manuellement ? Voit-on vraiment la différence maintenant avec des disques durs dont les accès sont bien plus rapides ? Bref, je me pose surtout la question d'avoir une application chargée en mémoire et qui doit consommer un peu quand même pour un supposer gain de temps...
Merci d'avance pour vos avis et vos retour d'expérience.
La défragmentation n'est jamais une urgence. Jamais observé de différences significatives en vitesse avant comme après. Ceci dit ce n'est pas forcément inutile, mais aucune raison de bloquer le PC avec ça. Ce qui est important c'est que le fichier d'échange, lui, ne soit pas fragmenté. Donc il est sage de lui réserver une petite partition douillette rien qu'à lui. D'autre part si on est en multiboot (bien le diable si on a pas gardé un XP Pro pour ses vieilles applis et ses périfs incompatibles comme les scanners en plus d'un Seven 64 de la mort) il est préférable de défragmenter l'autre système (inactif) car certains fichiers systèmes sont intouchables.
denewton
docanski a écrit :
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d’une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur progressive d'un système, elle en est néanmoins la cause la plus importante. De là à créer une tâche de fond pour défragmenter systématiquement un système, il y a un pas car cette tâche de fond risque d'être aussi "invalidante" que la fragmentation elle-même.
La défragmentation manuelle est de loin préférable car elle peut s'effectuer en dehors des temps de travail sur la machine.
Bref, je me pose surtout la question d'avoir une application chargée en mémoire et qui doit consommer un peu quand même pour un supposer gain de temps...
La bonne question à se poser est la suivante : existe-t'il des systèmes qui n'ont pas ce défaut ? La réponse est : oui. Faut-il nécessairement subir des lenteurs parce qu'un système est tellement mal foutu qu'il provoque une fragmentation des disques ? La réponse est : non. Subsidiairement : puis-je trouver dans un autre système les applications qui me sont nécessaires ? La réponse est : oui dans la toute grande majorité des cas.
Merci d'avance pour vos avis et vos retour d'expérience.
Perso, j'utilise depuis belle lurette des distributions Linux sur mes machines : jamais besoin de défragmentation, aucune lenteur de celles-ci par rapport à l'origine de l'installation, même après plusieurs années de fonctionnement.
Cordialement,
Bonjour, le système Unix (ou probablement linux sur les petites machines), si mes souvenirs sont bons, a l'avantage de ne pas avoir besoin de défragmentation (la réutilisation des zones libérées et la réorganisation des zones utilisée est quasi instentanée : genre de défragmentation en continue) et le désavantage d'avoir peu de recours en cas d'effacement intempestif de fichiers. Sous Windows on peut éventuellement récupérer des fichiers, même sortis de la corbeille. Avec Unix, il n'y avait pas de corbeille, il y avait des sauvegardes régulières en fin de journées faites par l'administrateur de la machine, sauvegardes aux quelles on pouvait avoir accès donc pour la version stockée dans la dernière sauvegarde (en générale sauvegarde différentielle pour que ça ne prenne ni trop de place ni trop de temps). Je suppose qu'avec Linux il faut être aussi systématiques, à moins que les distributions n'aient installé une corbeille de laquelle on peut restaurer le fichier effacé par inadvertance. Personnellement, sous Windows, je fais mes sauvegardes si irrégulièrement que je me fais peur quand la machine a un hoquet. (mauvais exemple...) Cordialement Bertrand
docanski a écrit :
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne,
T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits
dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de
performance réside dans la defragmentation permanente en tache de fond,
qui permet de prévenir la formation d’une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la
lenteur progressive d'un système, elle en est néanmoins la cause la plus
importante.
De là à créer une tâche de fond pour défragmenter systématiquement un
système, il y a un pas car cette tâche de fond risque d'être aussi
"invalidante" que la fragmentation elle-même.
La défragmentation manuelle est de loin préférable car elle peut
s'effectuer en dehors des temps de travail sur la machine.
Bref, je me pose surtout la question d'avoir une application chargée en
mémoire et qui doit consommer un peu quand même pour un supposer gain de
temps...
La bonne question à se poser est la suivante : existe-t'il des systèmes
qui n'ont pas ce défaut ?
La réponse est : oui.
Faut-il nécessairement subir des lenteurs parce qu'un système est
tellement mal foutu qu'il provoque une fragmentation des disques ?
La réponse est : non.
Subsidiairement : puis-je trouver dans un autre système les applications
qui me sont nécessaires ?
La réponse est : oui dans la toute grande majorité des cas.
Merci d'avance pour vos avis et vos retour d'expérience.
Perso, j'utilise depuis belle lurette des distributions Linux sur mes
machines : jamais besoin de défragmentation, aucune lenteur de celles-ci
par rapport à l'origine de l'installation, même après plusieurs années
de fonctionnement.
Cordialement,
Bonjour,
le système Unix (ou probablement linux sur les petites machines), si mes
souvenirs sont bons, a l'avantage de ne pas avoir besoin de
défragmentation (la réutilisation des zones libérées et la
réorganisation des zones utilisée est quasi instentanée : genre de
défragmentation en continue) et le désavantage d'avoir peu de recours en
cas d'effacement intempestif de fichiers. Sous Windows on peut
éventuellement récupérer des fichiers, même sortis de la corbeille. Avec
Unix, il n'y avait pas de corbeille, il y avait des sauvegardes
régulières en fin de journées faites par l'administrateur de la machine,
sauvegardes aux quelles on pouvait avoir accès donc pour la version
stockée dans la dernière sauvegarde (en générale sauvegarde
différentielle pour que ça ne prenne ni trop de place ni trop de temps).
Je suppose qu'avec Linux il faut être aussi systématiques, à moins que
les distributions n'aient installé une corbeille de laquelle on peut
restaurer le fichier effacé par inadvertance.
Personnellement, sous Windows, je fais mes sauvegardes si
irrégulièrement que je me fais peur quand la machine a un hoquet.
(mauvais exemple...)
Cordialement
Bertrand
Alors que les eleveurs et agriculteurs polluent toujours la Bretagne, T0M ecrit ce qui suit en ce 25/08/2010 11:18 :
Bonjour,
Bonjour,
Je viens de lire sur le site d'une marque bien connue pour ses produits dont l'un de defragmenation, je cite :"La clé pour éviter toute perte de performance réside dans la defragmentation permanente en tache de fond, qui permet de prévenir la formation d’une nouvelle fragmentation. "
Si la fragmentation d'un disque n'est pas seule responsable de la lenteur progressive d'un système, elle en est néanmoins la cause la plus importante. De là à créer une tâche de fond pour défragmenter systématiquement un système, il y a un pas car cette tâche de fond risque d'être aussi "invalidante" que la fragmentation elle-même.
La défragmentation manuelle est de loin préférable car elle peut s'effectuer en dehors des temps de travail sur la machine.
Bref, je me pose surtout la question d'avoir une application chargée en mémoire et qui doit consommer un peu quand même pour un supposer gain de temps...
La bonne question à se poser est la suivante : existe-t'il des systèmes qui n'ont pas ce défaut ? La réponse est : oui. Faut-il nécessairement subir des lenteurs parce qu'un système est tellement mal foutu qu'il provoque une fragmentation des disques ? La réponse est : non. Subsidiairement : puis-je trouver dans un autre système les applications qui me sont nécessaires ? La réponse est : oui dans la toute grande majorité des cas.
Merci d'avance pour vos avis et vos retour d'expérience.
Perso, j'utilise depuis belle lurette des distributions Linux sur mes machines : jamais besoin de défragmentation, aucune lenteur de celles-ci par rapport à l'origine de l'installation, même après plusieurs années de fonctionnement.
Cordialement,
Bonjour, le système Unix (ou probablement linux sur les petites machines), si mes souvenirs sont bons, a l'avantage de ne pas avoir besoin de défragmentation (la réutilisation des zones libérées et la réorganisation des zones utilisée est quasi instentanée : genre de défragmentation en continue) et le désavantage d'avoir peu de recours en cas d'effacement intempestif de fichiers. Sous Windows on peut éventuellement récupérer des fichiers, même sortis de la corbeille. Avec Unix, il n'y avait pas de corbeille, il y avait des sauvegardes régulières en fin de journées faites par l'administrateur de la machine, sauvegardes aux quelles on pouvait avoir accès donc pour la version stockée dans la dernière sauvegarde (en générale sauvegarde différentielle pour que ça ne prenne ni trop de place ni trop de temps). Je suppose qu'avec Linux il faut être aussi systématiques, à moins que les distributions n'aient installé une corbeille de laquelle on peut restaurer le fichier effacé par inadvertance. Personnellement, sous Windows, je fais mes sauvegardes si irrégulièrement que je me fais peur quand la machine a un hoquet. (mauvais exemple...) Cordialement Bertrand
Nicolas George
denewton , dans le message <i5b8i4$d7s$, a écrit :
le système Unix (ou probablement linux sur les petites machines), si mes souvenirs sont bons, a l'avantage de ne pas avoir besoin de défragmentation (la réutilisation des zones libérées et la réorganisation des zones utilisée est quasi instentanée : genre de défragmentation en continue) et le désavantage d'avoir peu de recours en cas d'effacement intempestif de fichiers. Sous Windows on peut éventuellement récupérer des fichiers, même sortis de la corbeille. Avec Unix, il n'y avait pas de corbeille
Tu confonds deux choses, ça obscurcit ton discours.
D'une part, la possibilité de récupérer un fichier qui a été effacé. C'est le bon vieux undelete de DOS. Les systèmes Unix, dont Linux, possèdent des outils de ce genre. Mais bien évidemment, plus les systèmes de fichiers deviennent complexes, moins ces outils marchent fiablement. C'est vrai sous Unix, ça l'est aussi probablement sous windows.
D'autre part, la corbeille. La corbeille, c'est juste l'interface graphique qui ment à l'utilisateur : quand l'utilisateur demande « effacer », l'interface graphique fait en fait « déplacer dans un répertoire caché appelé corbeille ». À peu près toutes les interfaces graphiques actuellement ont une fonction de ce genre. À la rigueur, on peut presque s'en faire une pour la ligne de commande Unix avec quelque chose du genre :
rm () { mv "$@" ~/.Trash }
denewton , dans le message <i5b8i4$d7s$1@speranza.aioe.org>, a écrit :
le système Unix (ou probablement linux sur les petites machines), si mes
souvenirs sont bons, a l'avantage de ne pas avoir besoin de
défragmentation (la réutilisation des zones libérées et la
réorganisation des zones utilisée est quasi instentanée : genre de
défragmentation en continue) et le désavantage d'avoir peu de recours en
cas d'effacement intempestif de fichiers. Sous Windows on peut
éventuellement récupérer des fichiers, même sortis de la corbeille. Avec
Unix, il n'y avait pas de corbeille
Tu confonds deux choses, ça obscurcit ton discours.
D'une part, la possibilité de récupérer un fichier qui a été effacé. C'est
le bon vieux undelete de DOS. Les systèmes Unix, dont Linux, possèdent des
outils de ce genre. Mais bien évidemment, plus les systèmes de fichiers
deviennent complexes, moins ces outils marchent fiablement. C'est vrai sous
Unix, ça l'est aussi probablement sous windows.
D'autre part, la corbeille. La corbeille, c'est juste l'interface graphique
qui ment à l'utilisateur : quand l'utilisateur demande « effacer »,
l'interface graphique fait en fait « déplacer dans un répertoire caché
appelé corbeille ». À peu près toutes les interfaces graphiques actuellement
ont une fonction de ce genre. À la rigueur, on peut presque s'en faire une
pour la ligne de commande Unix avec quelque chose du genre :
denewton , dans le message <i5b8i4$d7s$, a écrit :
le système Unix (ou probablement linux sur les petites machines), si mes souvenirs sont bons, a l'avantage de ne pas avoir besoin de défragmentation (la réutilisation des zones libérées et la réorganisation des zones utilisée est quasi instentanée : genre de défragmentation en continue) et le désavantage d'avoir peu de recours en cas d'effacement intempestif de fichiers. Sous Windows on peut éventuellement récupérer des fichiers, même sortis de la corbeille. Avec Unix, il n'y avait pas de corbeille
Tu confonds deux choses, ça obscurcit ton discours.
D'une part, la possibilité de récupérer un fichier qui a été effacé. C'est le bon vieux undelete de DOS. Les systèmes Unix, dont Linux, possèdent des outils de ce genre. Mais bien évidemment, plus les systèmes de fichiers deviennent complexes, moins ces outils marchent fiablement. C'est vrai sous Unix, ça l'est aussi probablement sous windows.
D'autre part, la corbeille. La corbeille, c'est juste l'interface graphique qui ment à l'utilisateur : quand l'utilisateur demande « effacer », l'interface graphique fait en fait « déplacer dans un répertoire caché appelé corbeille ». À peu près toutes les interfaces graphiques actuellement ont une fonction de ce genre. À la rigueur, on peut presque s'en faire une pour la ligne de commande Unix avec quelque chose du genre :
rm () { mv "$@" ~/.Trash }
David D.
A noter le logiciel Diskeeper 2010 qui prévient (en partie) la fragmentation via un logiciel résident.
Je l'ai testé, cela fonctionne vraiment !.
A noter le logiciel Diskeeper 2010 qui prévient (en partie) la
fragmentation via un logiciel résident.