Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

RE: Brrrrr... (Fragmentation)

280 réponses
Avatar
Laszlo Lebrun
je viens de faire (comme tous les mois) la defrag de mes deux machines
Windows.
pour la pire, (la mienne) ca donne ca:

Partition C: Windows (139.638 files pour environ 37 GB utilisés)
Defraggler:
-------------------------------------

Avant la defrag:

1838 Fragmented Files
7.899 Total Fragments
16% Fragmentation

Après la defrag:

8 Fragmented Files
36 Total Fragments
12% Fragmentation
------------------------------------
Comme ca au premier coup d'oeil: avant 16% , après 12%.
Pas terrible...

A y regarder de plus près: d'ou viennent ces pourcentages?
En gros
- avant ~140 000 fichiers, dont 8 000 sont fragmentés. (ca fait pas 16%
ca ???)
- après ~140 000 fichiers, dont 36 sont fragmentés. (ca fait pas 12% ca
???)

Si je compare maintenant a OSX (snow-leopard) dont je me sers plutot
rarement et qui a beaucoup moins de logiciels et que j'ai testé il y a
quelques jours:

Partition OSX
hfsdebug-lite -s
-------------------------------------
# Volume Summary Information
files = 346206
folders = 89708
aliases = 1
hard links = 1830
symbolic links = 10708
invisible files = 54
empty files = 2463
# Data Forks
non-zero data forks = 343573
fragmented data forks = 23864
allocation blocks used = 5486045
allocated storage = 22470840320 bytes
(21944180.00 KB/21429.86 MB/20.93 GB)
actual usage = 21565315056 bytes
(21059877.98 KB/20566.29 MB/20.08 GB)
total extent records = 343591
total extent descriptors = 344217
overflow extent records = 18
------------------------------------

1re constation: le nombre total de fichiers d'OSX (hors fragmentation)
est plus du double (~345 000) pour seulement 21 GB utilisés.
2e constatation: le nombre de fragments OSX est 3 fois plus elevé (~24
000) que mon Windows non-défragmenté.
3e constatation: une vraie defrag sort al a fin: 8 fichiers non
fragmentés avec 36 fragments au total, comme ca, les doigts dans le nez,
sans reboot.
4e constation: la defrag on s'en fout quand on a un SSD. (mais j'en ai pas).
5e constatation: quand on a un SSD, la défrag automatique d'OSX réduit
inutilement la durée de vie de la mémoire: vaut mieux pas avoir de
défrag du tout sur le SSD.
Ne pas oublier d'installer TRIM enabler si vous z'avez un SSD pas d'Apple.
http://osxdaily.com/2012/01/03/enable-trim-all-ssd-mac-os-x-lion/


Mes conclusions
- OSX est déja d'avantage "fragmenté" que Windows (en nombre de fichiers)
- Il fragmente peut être naturellement peu, mais rien ne vaut une
_vraie_ défrag chaque mois.
- Apple vous le dit pas, mais bouzille joyeusement vos SSD rajoutés.






--
One computer and three operating systems, not the other way round.
One wife and many hotels, not the other way round ! ;-)

10 réponses

Avatar
jdd
Le 27/10/2012 13:11, Stephane Legras-Decussy a écrit :

c'est pas du tout ma spécialité l'info système mais
j'ai toujours été dubitatif devant le remplissage de trou
sans fragmenter ...




de mémoire, etx4 a des trous de taille variable, ce qui fait que la
réutilisation trouve presque toujours la bonne taille (en simplifiant)

au pire un fichier se fragmente mais se défragmente tout seul à
l'écriture suivante

jdd

--
http://dodin.org
Avatar
jdd
Le 27/10/2012 15:09, £g a écrit :

Et si vous ne croyez pas celle-la, je peux toujours réfléchir à une
autre, plus * énorme *.




ouiiiiiiiiii celle-là est déjà très bien

jdd

--
http://dodin.org
Avatar
jdd
Le 27/10/2012 15:39, Erwan David a écrit :
Laszlo Lebrun écrivait :


En fait le problème avec Linux esr résolu différement.
Persque personne ne garde une distro aussi longtemps. ;-)



Foutaise.



ben c'est rare, quand même, vu que le changement est gratuit.

mais j'ai eu un serveur qui a gardé la sienne 7 ans... et jamais fragmenté

jdd

--
http://dodin.org
Avatar
Ascadix
Après mûre réflexion, YouDontNeedToKnowButItsNoëlle a écrit :
Le 27/10/12 17:58, Ascadix a écrit :

rien que pour le swap, ça semble à peu disproportionné, et vu les prix
est-ce réélement rentable ?


Ça dépend du contexte.
Comme je disais, si ta machine est saturée coté RAM, tu peux penser au swap
ssd pour lui donner une nouvelle jeunesse.



Mouaip ..bon, ça restera quand même sérieusement en retrait par rapport
à un ajout ou à n'importe quelle méthode permetant de limiter le swap.

Si tiger pouvait gérer le ssd, (c'est dommage, mais non),



Tiger ... C'est quand même pas plus vieux que XP ?
Avec XP, fuat jsute veilelr à choisir un SSD fourni avec un soft gérant
le TRIM (non intégré à l'OS) et ajuster qq point de config pas bien
sorcier.

à la place du DD
40 gigas dans mon petit ibook minimal 640M0 pour 70 ¤ je mettrais 60 gigas de
ssd. Ce qui transformerais un portable fonctionnel, mais trop peu puissant
pour PS par exemple, en portable rapide tout en augmentant un tout petit peu
la mémoire de stockage dispo interne.
Un bout pour le système et les applications. Un bout pour le swap.
Un bout pour servir de cache à un disque externe classique...

Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui.
C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut
prévoir ample coté mémoire pour exécuter.



D'au autre coté, Adobe c'est unpeu le mètre-étalon du gaspillage de
ressource et de la contre-performance même sur des machines
sur-puissantes.

D'autre part, si PS Mac gére ses accés disques comem le PS Win (et j'ai
lu des articles coté Mac qui me laisse penser que c'est le cas), les
produits la daube sont vraiment pas adaptés pour bosser en réseau ni
sur un SSD.
(pour le détail technique, Adobde semble un adpte de la multiplication
des micro-requetes pour faire ses I/O plutot qu'utiliser moins de
requettes contenants plus de données, domage car l'inverse qu'il faut
faire pour bien tirer parti des matos (même pas forcement récent) et
aviter de gaspiller de la puissance.)



Bien souvent, on peut commencer par mettre un peu les pattes dans la
config, virer un tas de trucs obsolétes,


Ça m'accèlère nullement l'exécution, ça...D'autant qu'en général, les soft
obsolètes sont remplacés par leurs homologues encore plus goinfres.



Et si tu lis "obsoléte" comme "soft dont je me sert plus mais qui
encombre encopre la machine, et en autorun en plus", ça te semble plus
interessant ?
:-)

et éventuellement adapter ses
habitudes comme par ex choisir des softs moin gaspilleur de ressources,
réduire le multi-tâche ...


Et fermer les robinets qui gouttent...En général on choisit ses softs pour ce
qu'ils font, et ce qu'ils font bien, pas pour des raisons morales.



Je te parle pas de moral, là les ressources dont je parle, c'est la
RAM, le CPU et le DD, par ex, si 2 softs font +/- la même chose qmais
que l'und es 2 bouffe moitié moin de RAM, il est plus interessant.

J'utilise
la CS ; sur une machine très musclée. Sur une machine petitement
dimensionnée, utiliser PS est une sacrée affaire.



Y a quand même pas que ces glutes de CS/PS pour le traitement
d'image/photo de m'sieur/m'dame tout le monde ???

Y a 3 trucs qui collent +/- à ton idée si je t'ai bien suivit:

- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou
pkoi un p'tit SSD)


La mémoire flash est rapide mais le usb, même 3, ça fait goulot
d'étranglement.



Là, on s'en fout un peu, en USB2, le pb n'est pas le débit soutenu,
mais surtout le temps d'accés, et une clef USB même en USB2 colle une
bonne claque aux DD mécaniques

Et en USB3, aec 800 M/s même le débit soutenu est gigantesque par
rapport aux besoin.

SSD donc mais plutôt directement sur une nappe, si on veut
accélerer l'execution, imho.
Je vais regarder ce qu'est readyboost.

- les disques hybrides


Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.



ça fait un moment que ça existe, mais ça à du mal à décoller.
à mon avis, ça ne décollera que lorsqu'il y aura un support pour une
interaction intelligente avec l'OS (un peu comme les SSD cache vu à
coté, masi tout dans une seule coque) pour bien identifier les donénes
interessantesà cacher et éviter les autres, ce que l'algo intégré au
DD sans interaction avec l'OS à beaucoup de mal à évaluer.

- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant
de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO
(http://www.nvelo.com/dataplex)


Bien sûr : là, je parlais d'ajouter ça à une config existante saturée pour la
dynamiser.

Pour les hybrides, y a un p'tit comparatif là:
http://www.jmax-hardware.com/tests/comparatif-hdd-hybrid-ssd.html

Coté Windows, le daemon s'appele ReadyBoost et il existe déjà.

Coté disque hybride, il me semble que c'est indépendant de l'OS, ça
parle pas de driver spécifique ou autres subtilité soft.


normal.

Coté SSD en mode cache, le soft marche avec 7 et 8 fenêtres, pas les
plumes ni les pommes.


Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà un
gain interessant.



échanger le DD par un SSD, tant que c'est le DD le point faible, ça
colle un énorme coup de boost.
Par contre, si t'es cours en RAM, CPU ..c'est beaucoup moin grand comme
gain.

Dommage pour le mode cache disque alors ! J'en suis quand
même très surprise, je compte changer de félin bientôt (sur ma machine fixe)
et je vais regarder ce qu'il en est.

Noëlle Adam



--
@+
Ascadix
adresse @mail valide, mais ajoutez "sesame" dans l'objet pour que ça
arrive.
Avatar
albert
"abc abc" a écrit :

Avec 16G de ram, ca fait plein de memoire libre, que l'OS peut utiliser
comme cache pour les accès disque. L'amelioration apportée par le SSD se
fait donc moins sentir dans ce cas.




Exactement, tu résumes ce que je viens de dire. Actuellement c'est la
meilleure solution et cela marche très bien. Ce qui m'impressionne, c'est
que dans quelques années les téléphones portables seront capables de faire
du gigapixel sans qu'on s'en rende compte. Je trouve cette évolution de la
technologie extraordinaire. Elle dépasse largement ce que les humains sont
capables de faire, et de suivre en qualité.

Il y a bien des domaines où on se fout des performances, cela se passe
ailleurs. Mais actuellement la technologie prend une telle place dans
l'esprit des gens, qu'ils arrivent difficilement à suivre leurs idées. Je
sens ici un grand danger. Qu'il y ait beaucoup de technologie mais qu'il n'y
ait plus d'idées, cela veut dire que seuls les modèles proposés seront
valables. J'ai peur de la suite.

Amitiés,
albert
----------------------------------------------------------
Photographies imaginaires
http://photo.imaginaire.free.fr
----------------------------------------------------------
Avatar
jdd
Le 27/10/2012 17:35, YouDontNeedToKnowButItsNoëlle a écrit :

(genre les slots sont tous occupés) en collant dedans un SSD rien que
pour le swap. Même un petit peut faire de l'effet. Avec un peu plus



j'avais pensé à ça, mais c'est très discuté. Certains prétendent qu'un
ssd n'est intéressant qu'en lecture et que le mettre en swap le tue
rapidement

jdd


--
http://dodin.org
Avatar
jdd
Le 27/10/2012 17:36, Ascadix a écrit :

fichier en entier, au lieu de le découper en petits morceaux pour
remplir plusieurs petits trous. Il ne sera découpé que s'il ne reste
pas de trou assez grand, c'est à dire quand la partition approche de
la saturation.



Et quand tu ajoute des données au bout d'un fichier existant alors qu'il
n'y a pas de cluster contigu dispo ?

Tu fais quoi ?




en fait ça dépends si c'est un fichier à lecture continue (secteur après
secteur) ou directe. Si tu enregistre 50 photos dans le même fichier, tu
sais où sont les photos, la fragmentation n'a aucune conséquence. Si tu
enregistre les mêmes photos dans une archive et qu'il te faut extraire
tout de l'archive à chaque fois, là oui. il faut réécrire tout le
fichier ailleurs.

C'est pourquoi, selon l'usage, certains systèmes de fichiers sont plus
adaptés. certains vont mieux pour les gros fichiers (dans le temps on
disait xfs) d'autre pour des petits (reiserfs avec son tri en base de
donnée)

jdd

--
http://dodin.org
Avatar
Ascadix
Laszlo Lebrun a émis l'idée suivante :
On 27.10.2012 18:06, Richard wrote:
Stacker marchait comme ça à l'époque de MS DOS 5 / Win 3.1



Ah... Stacker ! Un outil merveilleux pour l'époque.
Nostalgie.....



et je ne sais plus comment ca s'appellait, mais y'avait un machin qui
permettait de monter les diskettes jusqu'à 2,4 Mega-octets...



Le même, ou sa version racheté par MS "Double-Space"

Sinon, sans compression, en bidouillant hors-norme les nombre de
secteurs / pistes/etc des disquettes, on pouvait atteindre 1.8 Mo sur
une 1.44 avec FDFORMAT ou outils kifkif.

--
@+
Ascadix
adresse @mail valide, mais ajoutez "sesame" dans l'objet pour que ça
arrive.
Avatar
Erwan David
Ascadix écrivait :


Le même, ou sa version racheté par MS "Double-Space"



Pas rachetée, piratée. Mais MS a réussi à faire trainer le procès assez
longtemps pour que l'éditeur de Stacker fasse faillite, ce qui a arrêté
le procès...


--
Le travail n'est pas une bonne chose. Si ça l'était,
les riches l'auraient accaparé
Avatar
jdd
Le 27/10/2012 18:32, Ascadix a écrit :

Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même
conclusion



n'importe quoi.

Tous les systèmes de fichier linux annoncent la fragmentation lors de
leur initialisation lors du boot.

Je n'ai jamais vu plus de 5% (et encore)

j'aimerai en dire autant pour ntfs

jdd

--
http://dodin.org