je viens de faire (comme tous les mois) la defrag de mes deux machines
Windows.
pour la pire, (la mienne) ca donne ca:
Partition C: Windows (139.638 files pour environ 37 GB utilisés)
Defraggler:
-------------------------------------
Avant la defrag:
1838 Fragmented Files
7.899 Total Fragments
16% Fragmentation
Après la defrag:
8 Fragmented Files
36 Total Fragments
12% Fragmentation
------------------------------------
Comme ca au premier coup d'oeil: avant 16% , après 12%.
Pas terrible...
A y regarder de plus près: d'ou viennent ces pourcentages?
En gros
- avant ~140 000 fichiers, dont 8 000 sont fragmentés. (ca fait pas 16%
ca ???)
- après ~140 000 fichiers, dont 36 sont fragmentés. (ca fait pas 12% ca
???)
Si je compare maintenant a OSX (snow-leopard) dont je me sers plutot
rarement et qui a beaucoup moins de logiciels et que j'ai testé il y a
quelques jours:
Partition OSX
hfsdebug-lite -s
-------------------------------------
# Volume Summary Information
files = 346206
folders = 89708
aliases = 1
hard links = 1830
symbolic links = 10708
invisible files = 54
empty files = 2463
# Data Forks
non-zero data forks = 343573
fragmented data forks = 23864
allocation blocks used = 5486045
allocated storage = 22470840320 bytes
(21944180.00 KB/21429.86 MB/20.93 GB)
actual usage = 21565315056 bytes
(21059877.98 KB/20566.29 MB/20.08 GB)
total extent records = 343591
total extent descriptors = 344217
overflow extent records = 18
------------------------------------
1re constation: le nombre total de fichiers d'OSX (hors fragmentation)
est plus du double (~345 000) pour seulement 21 GB utilisés.
2e constatation: le nombre de fragments OSX est 3 fois plus elevé (~24
000) que mon Windows non-défragmenté.
3e constatation: une vraie defrag sort al a fin: 8 fichiers non
fragmentés avec 36 fragments au total, comme ca, les doigts dans le nez,
sans reboot.
4e constation: la defrag on s'en fout quand on a un SSD. (mais j'en ai pas).
5e constatation: quand on a un SSD, la défrag automatique d'OSX réduit
inutilement la durée de vie de la mémoire: vaut mieux pas avoir de
défrag du tout sur le SSD.
Ne pas oublier d'installer TRIM enabler si vous z'avez un SSD pas d'Apple.
http://osxdaily.com/2012/01/03/enable-trim-all-ssd-mac-os-x-lion/
Mes conclusions
- OSX est déja d'avantage "fragmenté" que Windows (en nombre de fichiers)
- Il fragmente peut être naturellement peu, mais rien ne vaut une
_vraie_ défrag chaque mois.
- Apple vous le dit pas, mais bouzille joyeusement vos SSD rajoutés.
--
One computer and three operating systems, not the other way round.
One wife and many hotels, not the other way round ! ;-)
ça dépend des defrag, coté Windows avec le défrag intégré par ex, il regroupe les fragments inférieurs à 64 Mo, mais une fois qu'il à des fragments de 64 Mo, il ne tente pas d'insister au motif que le temps de defrag serais disproportionné par rapport au gain apporté en accés ultérieurs à ces fichiers.
Il prend aussis en compte les stats d'accés/utilsiation aux fichier de façon bien plus fine que juste regarder la date de modif du fichier pour choisir lesquels il regroupe en début de disque pour accélérer le boot et l'utilisation de la machine.
d'après ce que tu dis, l'outil de défrag de W7 serait donc un bon produit ?
"Ascadix" <ascadix.ng@free.fr> a écrit
ça dépend des defrag, coté Windows avec le défrag intégré par ex, il regroupe
les fragments inférieurs à 64 Mo, mais une fois qu'il à des fragments de 64
Mo, il ne tente pas d'insister au motif que le temps de defrag serais
disproportionné par rapport au gain apporté en accés ultérieurs à ces
fichiers.
Il prend aussis en compte les stats d'accés/utilsiation aux fichier de façon
bien plus fine que juste regarder la date de modif du fichier pour choisir
lesquels il regroupe en début de disque pour accélérer le boot et
l'utilisation de la machine.
d'après ce que tu dis, l'outil de défrag de W7 serait donc un bon produit ?
ça dépend des defrag, coté Windows avec le défrag intégré par ex, il regroupe les fragments inférieurs à 64 Mo, mais une fois qu'il à des fragments de 64 Mo, il ne tente pas d'insister au motif que le temps de defrag serais disproportionné par rapport au gain apporté en accés ultérieurs à ces fichiers.
Il prend aussis en compte les stats d'accés/utilsiation aux fichier de façon bien plus fine que juste regarder la date de modif du fichier pour choisir lesquels il regroupe en début de disque pour accélérer le boot et l'utilisation de la machine.
d'après ce que tu dis, l'outil de défrag de W7 serait donc un bon produit ?
Laszlo Lebrun
On 27.10.2012 18:06, Richard wrote:
Stacker marchait comme ça à l'époque de MS DOS 5 / Win 3.1
Ah... Stacker ! Un outil merveilleux pour l'époque. Nostalgie.....
et je ne sais plus comment ca s'appellait, mais y'avait un machin qui permettait de monter les diskettes jusqu'à 2,4 Mega-octets...
-- One computer and three operating systems, not the other way round. One wife and many hotels, not the other way round ! ;-)
On 27.10.2012 18:06, Richard wrote:
Stacker marchait comme ça à l'époque de MS DOS 5 / Win 3.1
Ah... Stacker ! Un outil merveilleux pour l'époque.
Nostalgie.....
et je ne sais plus comment ca s'appellait, mais y'avait un machin qui
permettait de monter les diskettes jusqu'à 2,4 Mega-octets...
--
One computer and three operating systems, not the other way round.
One wife and many hotels, not the other way round ! ;-)
Stacker marchait comme ça à l'époque de MS DOS 5 / Win 3.1
Ah... Stacker ! Un outil merveilleux pour l'époque. Nostalgie.....
et je ne sais plus comment ca s'appellait, mais y'avait un machin qui permettait de monter les diskettes jusqu'à 2,4 Mega-octets...
-- One computer and three operating systems, not the other way round. One wife and many hotels, not the other way round ! ;-)
Laszlo Lebrun
On 27.10.2012 18:32, Ascadix wrote:
Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même conclusion et prendre les mêmes mesures, intégration de mécanismes de *dé*fragmentation dans l'implémentaiton du FS pour intervenir là ou les mécanismes de *prévention* de la fragmentation ont été insuffisants.
Mais OSX a la solution de la mort qui tue: on peut tout recopier apes une sauvegarde. Fut admettre que c'est pas si difficile...
-- One computer and three operating systems, not the other way round. One wife and many hotels, not the other way round ! ;-)
On 27.10.2012 18:32, Ascadix wrote:
Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même
conclusion et prendre les mêmes mesures, intégration de mécanismes de
*dé*fragmentation dans l'implémentaiton du FS pour intervenir là ou les
mécanismes de *prévention* de la fragmentation ont été insuffisants.
Mais OSX a la solution de la mort qui tue: on peut tout recopier apes
une sauvegarde.
Fut admettre que c'est pas si difficile...
--
One computer and three operating systems, not the other way round.
One wife and many hotels, not the other way round ! ;-)
Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même conclusion et prendre les mêmes mesures, intégration de mécanismes de *dé*fragmentation dans l'implémentaiton du FS pour intervenir là ou les mécanismes de *prévention* de la fragmentation ont été insuffisants.
Mais OSX a la solution de la mort qui tue: on peut tout recopier apes une sauvegarde. Fut admettre que c'est pas si difficile...
-- One computer and three operating systems, not the other way round. One wife and many hotels, not the other way round ! ;-)
albert
"Alf92"a écrit :
de toute manière le SSD n'est clairement pas une solution d'avenir.
Bonjour,
Un petit retour d'expérience sur un disque SSD pour une config essentiellement dédiée au traitement de l'image.
Quelques mois avant d'acquérir un SSD Intel 160 go, j'avais changé le matériel pour un processeur quadricore 3Ghz et Windows7 64 bits 16 Go de ram. L'apport de 16 go de ram opérationnels en 64 bits est spectaculaire dans Photoshop. Par contre charger une photo de plus de 10 go sortant du creuset d'Autopanopro était encore fastidieux. Bizarrement Autopano produit une photo, format .psb, de 10 go avec tous ses calques, mais une fois chargée dans photoshop, les calques un peu organisés, et enregistrée à nouveau, elle ne fait plus que 6 go. Je ne comprends pas pourquoi. Peut-être que PS gère mieux l'empilement des calques. Bon passons.
J'avais indiqué ici il y a peu l'intérêt supposé de me servir du SSD, outre pour le système d'exploitation et les programmes, aussi pour les fichiers temporaires de PS et de Autopano. Pour Autopano, aucun intérêt, pas de différence. Par contre pour Photoshop, c'est effectivement beaucoup plus rapide. Pour charger, pour traiter des opérations qui demandent beaucoup d'écriture, comme l'accentuation de la totalité de l'image, les déformations, etc... Mais dans le flux du travail, est-ce que cela en vaut la peine ? Je ne crois pas. Après deux mois, j'ai remis les fichiers de travail sur un autre disque, un USB3 quand même assez performant avec une 1ère partition dédiée. Parfois c'est un peu lent, mais cela n'a pas beaucoup d'importance, je fume un clope en rêvant à mon image sur deux mètres de long. Il ne faut pas oublier que là, je parle de très grosses images, ce qui reste exceptionnel pour la plupart des utilisateurs de photoshop, moi-même y compris.
Bon, on peut bouffer un SSD en un an, mais finalement, si la config est performante, avec surtout du 64 bits qui permet de gérer la totalité de la Ram, aujourd'hui j'estime que c'est suffisant.
Amitiés, albert ---------------------------------------------------------- Photographies imaginaires http://photo.imaginaire.free.fr ----------------------------------------------------------
"Alf92"a écrit :
de toute manière le SSD n'est clairement pas une solution d'avenir.
Bonjour,
Un petit retour d'expérience sur un disque SSD pour une config
essentiellement dédiée au traitement de l'image.
Quelques mois avant d'acquérir un SSD Intel 160 go, j'avais changé le
matériel pour un processeur quadricore 3Ghz et Windows7 64 bits 16 Go de
ram. L'apport de 16 go de ram opérationnels en 64 bits est spectaculaire
dans Photoshop. Par contre charger une photo de plus de 10 go sortant du
creuset d'Autopanopro était encore fastidieux. Bizarrement Autopano produit
une photo, format .psb, de 10 go avec tous ses calques, mais une fois
chargée dans photoshop, les calques un peu organisés, et enregistrée à
nouveau, elle ne fait plus que 6 go. Je ne comprends pas pourquoi. Peut-être
que PS gère mieux l'empilement des calques. Bon passons.
J'avais indiqué ici il y a peu l'intérêt supposé de me servir du SSD,
outre pour le système d'exploitation et les programmes, aussi pour les
fichiers temporaires de PS et de Autopano. Pour Autopano, aucun intérêt, pas
de différence. Par contre pour Photoshop, c'est effectivement beaucoup plus
rapide. Pour charger, pour traiter des opérations qui demandent beaucoup
d'écriture, comme l'accentuation de la totalité de l'image, les
déformations, etc... Mais dans le flux du travail, est-ce que cela en vaut
la peine ? Je ne crois pas. Après deux mois, j'ai remis les fichiers de
travail sur un autre disque, un USB3 quand même assez performant avec une
1ère partition dédiée. Parfois c'est un peu lent, mais cela n'a pas beaucoup
d'importance, je fume un clope en rêvant à mon image sur deux mètres de
long. Il ne faut pas oublier que là, je parle de très grosses images, ce qui
reste exceptionnel pour la plupart des utilisateurs de photoshop, moi-même y
compris.
Bon, on peut bouffer un SSD en un an, mais finalement, si la config est
performante, avec surtout du 64 bits qui permet de gérer la totalité de la
Ram, aujourd'hui j'estime que c'est suffisant.
Amitiés,
albert
----------------------------------------------------------
Photographies imaginaires
http://photo.imaginaire.free.fr
----------------------------------------------------------
de toute manière le SSD n'est clairement pas une solution d'avenir.
Bonjour,
Un petit retour d'expérience sur un disque SSD pour une config essentiellement dédiée au traitement de l'image.
Quelques mois avant d'acquérir un SSD Intel 160 go, j'avais changé le matériel pour un processeur quadricore 3Ghz et Windows7 64 bits 16 Go de ram. L'apport de 16 go de ram opérationnels en 64 bits est spectaculaire dans Photoshop. Par contre charger une photo de plus de 10 go sortant du creuset d'Autopanopro était encore fastidieux. Bizarrement Autopano produit une photo, format .psb, de 10 go avec tous ses calques, mais une fois chargée dans photoshop, les calques un peu organisés, et enregistrée à nouveau, elle ne fait plus que 6 go. Je ne comprends pas pourquoi. Peut-être que PS gère mieux l'empilement des calques. Bon passons.
J'avais indiqué ici il y a peu l'intérêt supposé de me servir du SSD, outre pour le système d'exploitation et les programmes, aussi pour les fichiers temporaires de PS et de Autopano. Pour Autopano, aucun intérêt, pas de différence. Par contre pour Photoshop, c'est effectivement beaucoup plus rapide. Pour charger, pour traiter des opérations qui demandent beaucoup d'écriture, comme l'accentuation de la totalité de l'image, les déformations, etc... Mais dans le flux du travail, est-ce que cela en vaut la peine ? Je ne crois pas. Après deux mois, j'ai remis les fichiers de travail sur un autre disque, un USB3 quand même assez performant avec une 1ère partition dédiée. Parfois c'est un peu lent, mais cela n'a pas beaucoup d'importance, je fume un clope en rêvant à mon image sur deux mètres de long. Il ne faut pas oublier que là, je parle de très grosses images, ce qui reste exceptionnel pour la plupart des utilisateurs de photoshop, moi-même y compris.
Bon, on peut bouffer un SSD en un an, mais finalement, si la config est performante, avec surtout du 64 bits qui permet de gérer la totalité de la Ram, aujourd'hui j'estime que c'est suffisant.
Amitiés, albert ---------------------------------------------------------- Photographies imaginaires http://photo.imaginaire.free.fr ----------------------------------------------------------
YouDontNeedToKnowButItsNoëlle
Le 27/10/12 17:58, Ascadix a écrit :
rien que pour le swap, ça semble à peu disproportionné, et vu les prix est-ce réélement rentable ?
Ça dépend du contexte. Comme je disais, si ta machine est saturée coté RAM, tu peux penser au swap ssd pour lui donner une nouvelle jeunesse. Si tiger pouvait gérer le ssd, (c'est dommage, mais non), à la place du DD 40 gigas dans mon petit ibook minimal 640M0 pour 70 € je mettrais 60 gigas de ssd. Ce qui transformerais un portable fonctionnel, mais trop peu puissant pour PS par exemple, en portable rapide tout en augmentant un tout petit peu la mémoire de stockage dispo interne. Un bout pour le système et les applications. Un bout pour le swap. Un bout pour servir de cache à un disque externe classique...
Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui. C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut prévoir ample coté mémoire pour exécuter.
Bien souvent, on peut commencer par mettre un peu les pattes dans la config, virer un tas de trucs obsolétes,
Ça m'accèlère nullement l'exécution, ça...D'autant qu'en général, les soft obsolètes sont remplacés par leurs homologues encore plus goinfres.
et éventuellement adapter ses
habitudes comme par ex choisir des softs moin gaspilleur de ressources, réduire le multi-tâche ...
Et fermer les robinets qui gouttent...En général on choisit ses softs pour ce qu'ils font, et ce qu'ils font bien, pas pour des raisons morales. J'utilise la CS ; sur une machine très musclée. Sur une machine petitement dimensionnée, utiliser PS est une sacrée affaire.
Y a 3 trucs qui collent +/- à ton idée si je t'ai bien suivit:
- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou pkoi un p'tit SSD)
La mémoire flash est rapide mais le usb, même 3, ça fait goulot d'étranglement. SSD donc mais plutôt directement sur une nappe, si on veut accélerer l'execution, imho. Je vais regarder ce qu'est readyboost.
- les disques hybrides
Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.
- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO (http://www.nvelo.com/dataplex)
Bien sûr : là, je parlais d'ajouter ça à une config existante saturée pour la dynamiser.
Pour les hybrides, y a un p'tit comparatif là: http://www.jmax-hardware.com/tests/comparatif-hdd-hybrid-ssd.html
Coté Windows, le daemon s'appele ReadyBoost et il existe déjà.
Coté disque hybride, il me semble que c'est indépendant de l'OS, ça parle pas de driver spécifique ou autres subtilité soft.
normal.
Coté SSD en mode cache, le soft marche avec 7 et 8 fenêtres, pas les plumes ni les pommes.
Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà un gain interessant. Dommage pour le mode cache disque alors ! J'en suis quand même très surprise, je compte changer de félin bientôt (sur ma machine fixe) et je vais regarder ce qu'il en est.
Noëlle Adam
Le 27/10/12 17:58, Ascadix a écrit :
rien que pour le swap, ça semble à peu disproportionné, et vu les prix
est-ce réélement rentable ?
Ça dépend du contexte.
Comme je disais, si ta machine est saturée coté RAM, tu peux penser au
swap ssd pour lui donner une nouvelle jeunesse.
Si tiger pouvait gérer le ssd, (c'est dommage, mais non), à la place
du DD 40 gigas dans mon petit ibook minimal 640M0 pour 70 € je mettrais
60 gigas de ssd. Ce qui transformerais un portable fonctionnel, mais
trop peu puissant pour PS par exemple, en portable rapide tout en
augmentant un tout petit peu la mémoire de stockage dispo interne.
Un bout pour le système et les applications. Un bout pour le swap.
Un bout pour servir de cache à un disque externe classique...
Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui.
C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut
prévoir ample coté mémoire pour exécuter.
Bien souvent, on peut commencer par mettre un peu les pattes dans la
config, virer un tas de trucs obsolétes,
Ça m'accèlère nullement l'exécution, ça...D'autant qu'en général, les
soft obsolètes sont remplacés par leurs homologues encore plus goinfres.
et éventuellement adapter ses
habitudes comme par ex choisir des softs moin gaspilleur de ressources,
réduire le multi-tâche ...
Et fermer les robinets qui gouttent...En général on choisit ses softs
pour ce qu'ils font, et ce qu'ils font bien, pas pour des raisons
morales. J'utilise la CS ; sur une machine très musclée. Sur une machine
petitement dimensionnée, utiliser PS est une sacrée affaire.
Y a 3 trucs qui collent +/- à ton idée si je t'ai bien suivit:
- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou
pkoi un p'tit SSD)
La mémoire flash est rapide mais le usb, même 3, ça fait goulot
d'étranglement. SSD donc mais plutôt directement sur une nappe, si on
veut accélerer l'execution, imho.
Je vais regarder ce qu'est readyboost.
- les disques hybrides
Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.
- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant
de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO
(http://www.nvelo.com/dataplex)
Bien sûr : là, je parlais d'ajouter ça à une config existante saturée
pour la dynamiser.
Pour les hybrides, y a un p'tit comparatif là:
http://www.jmax-hardware.com/tests/comparatif-hdd-hybrid-ssd.html
Coté Windows, le daemon s'appele ReadyBoost et il existe déjà.
Coté disque hybride, il me semble que c'est indépendant de l'OS, ça
parle pas de driver spécifique ou autres subtilité soft.
normal.
Coté SSD en mode cache, le soft marche avec 7 et 8 fenêtres, pas les
plumes ni les pommes.
Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà
un gain interessant. Dommage pour le mode cache disque alors ! J'en suis
quand même très surprise, je compte changer de félin bientôt (sur ma
machine fixe) et je vais regarder ce qu'il en est.
rien que pour le swap, ça semble à peu disproportionné, et vu les prix est-ce réélement rentable ?
Ça dépend du contexte. Comme je disais, si ta machine est saturée coté RAM, tu peux penser au swap ssd pour lui donner une nouvelle jeunesse. Si tiger pouvait gérer le ssd, (c'est dommage, mais non), à la place du DD 40 gigas dans mon petit ibook minimal 640M0 pour 70 € je mettrais 60 gigas de ssd. Ce qui transformerais un portable fonctionnel, mais trop peu puissant pour PS par exemple, en portable rapide tout en augmentant un tout petit peu la mémoire de stockage dispo interne. Un bout pour le système et les applications. Un bout pour le swap. Un bout pour servir de cache à un disque externe classique...
Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui. C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut prévoir ample coté mémoire pour exécuter.
Bien souvent, on peut commencer par mettre un peu les pattes dans la config, virer un tas de trucs obsolétes,
Ça m'accèlère nullement l'exécution, ça...D'autant qu'en général, les soft obsolètes sont remplacés par leurs homologues encore plus goinfres.
et éventuellement adapter ses
habitudes comme par ex choisir des softs moin gaspilleur de ressources, réduire le multi-tâche ...
Et fermer les robinets qui gouttent...En général on choisit ses softs pour ce qu'ils font, et ce qu'ils font bien, pas pour des raisons morales. J'utilise la CS ; sur une machine très musclée. Sur une machine petitement dimensionnée, utiliser PS est une sacrée affaire.
Y a 3 trucs qui collent +/- à ton idée si je t'ai bien suivit:
- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou pkoi un p'tit SSD)
La mémoire flash est rapide mais le usb, même 3, ça fait goulot d'étranglement. SSD donc mais plutôt directement sur une nappe, si on veut accélerer l'execution, imho. Je vais regarder ce qu'est readyboost.
- les disques hybrides
Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.
- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO (http://www.nvelo.com/dataplex)
Bien sûr : là, je parlais d'ajouter ça à une config existante saturée pour la dynamiser.
Pour les hybrides, y a un p'tit comparatif là: http://www.jmax-hardware.com/tests/comparatif-hdd-hybrid-ssd.html
Coté Windows, le daemon s'appele ReadyBoost et il existe déjà.
Coté disque hybride, il me semble que c'est indépendant de l'OS, ça parle pas de driver spécifique ou autres subtilité soft.
normal.
Coté SSD en mode cache, le soft marche avec 7 et 8 fenêtres, pas les plumes ni les pommes.
Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà un gain interessant. Dommage pour le mode cache disque alors ! J'en suis quand même très surprise, je compte changer de félin bientôt (sur ma machine fixe) et je vais regarder ce qu'il en est.
Ça explique bien pourquoi Windows fragmente bien plus qu'Unix.
Cet article est une fumisterie.
Déjà, confondre FAT et NTFS, c'est copieux.
Ensuite, faut être profondément débile ou ne rien comprendre au B.A.BA de l'utilisation d'un systéme info pour ignorer (délibérement ou par connerie) le cas des fichiers dont la tailel varie *APRES* leur création sur le FS.
C'est par exemple le cas de tous les fichiers de données sur lesquels on travail en plusieures fois, en ajoutant des données au bout à chaque fois.
Ce truc à du être rédigé par un fan-boy qui ne comprend pas le début de la moitié de ce qu'il à recopié comme un crétin.
Si ext était aussi performant, je ne crois pas que les dév qui se sont occupé de EXT4 auraient mis autant d'ardeur à intégrer enfin de vrai mécanismes de défragmentation dans EXT4.
Ben non, t'as juste une personne qui a decidé d'ameliorer ce point et proposer un patch. Si c'était vraiment genant ca fait longtemps que ca aurait été fait.
Je dis "enfin", parceque MS à fait la même connerie avec NT4 en considérant que les mécanismes de *prévention* de la fragmentation sur NTFS seraient suffisants à éviter toute fragmentation. C'est bien sur insuffisant, et même avec une trés bonne prévention de la fragmentation, il y aura quand même fragmentation, et il faut donc prévoir des mécanismes curatifs.
MS à réalisé sa bourde entre NT4 et 2000 et à intégré ces mécanismes curatifs dès Windows 2000 avec la fourniture des API de défragmentation sur NTFS et l'intégration d'un défragmenteur (même light) dans la distrib de l'OS.
Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même conclusion et prendre les mêmes mesures, intégration de mécanismes de *dé*fragmentation dans l'implémentaiton du FS pour intervenir là ou les mécanismes de *prévention* de la fragmentation ont été insuffisants.
On peut utiliser par exemple ca depuis longtemps : http://www.vleu.net/shake/
Sauf que en dehors de cas particuliers, ca sert à rien, donc pas grand monde l'utilise.
On 2012-10-27, Ascadix <ascadix.ng@free.fr> wrote:
Ça explique bien pourquoi Windows fragmente bien plus qu'Unix.
Cet article est une fumisterie.
Déjà, confondre FAT et NTFS, c'est copieux.
Ensuite, faut être profondément débile ou ne rien comprendre au B.A.BA
de l'utilisation d'un systéme info pour ignorer (délibérement ou par
connerie) le cas des fichiers dont la tailel varie *APRES* leur
création sur le FS.
C'est par exemple le cas de tous les fichiers de données sur lesquels
on travail en plusieures fois, en ajoutant des données au bout à chaque
fois.
Ce truc à du être rédigé par un fan-boy qui ne comprend pas le début de
la moitié de ce qu'il à recopié comme un crétin.
Si ext était aussi performant, je ne crois pas que les dév qui se sont
occupé de EXT4 auraient mis autant d'ardeur à intégrer enfin de vrai
mécanismes de défragmentation dans EXT4.
Ben non, t'as juste une personne qui a decidé d'ameliorer ce point et
proposer un patch. Si c'était vraiment genant ca fait longtemps que ca
aurait été fait.
Je dis "enfin", parceque MS à fait la même connerie avec NT4 en
considérant que les mécanismes de *prévention* de la fragmentation sur
NTFS seraient suffisants à éviter toute fragmentation. C'est bien sur
insuffisant, et même avec une trés bonne prévention de la
fragmentation, il y aura quand même fragmentation, et il faut donc
prévoir des mécanismes curatifs.
MS à réalisé sa bourde entre NT4 et 2000 et à intégré ces mécanismes
curatifs dès Windows 2000 avec la fourniture des API de défragmentation
sur NTFS et l'intégration d'un défragmenteur (même light) dans la
distrib de l'OS.
Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même
conclusion et prendre les mêmes mesures, intégration de mécanismes de
*dé*fragmentation dans l'implémentaiton du FS pour intervenir là ou les
mécanismes de *prévention* de la fragmentation ont été insuffisants.
On peut utiliser par exemple ca depuis longtemps :
http://www.vleu.net/shake/
Sauf que en dehors de cas particuliers, ca sert à rien, donc pas grand
monde l'utilise.
Ça explique bien pourquoi Windows fragmente bien plus qu'Unix.
Cet article est une fumisterie.
Déjà, confondre FAT et NTFS, c'est copieux.
Ensuite, faut être profondément débile ou ne rien comprendre au B.A.BA de l'utilisation d'un systéme info pour ignorer (délibérement ou par connerie) le cas des fichiers dont la tailel varie *APRES* leur création sur le FS.
C'est par exemple le cas de tous les fichiers de données sur lesquels on travail en plusieures fois, en ajoutant des données au bout à chaque fois.
Ce truc à du être rédigé par un fan-boy qui ne comprend pas le début de la moitié de ce qu'il à recopié comme un crétin.
Si ext était aussi performant, je ne crois pas que les dév qui se sont occupé de EXT4 auraient mis autant d'ardeur à intégrer enfin de vrai mécanismes de défragmentation dans EXT4.
Ben non, t'as juste une personne qui a decidé d'ameliorer ce point et proposer un patch. Si c'était vraiment genant ca fait longtemps que ca aurait été fait.
Je dis "enfin", parceque MS à fait la même connerie avec NT4 en considérant que les mécanismes de *prévention* de la fragmentation sur NTFS seraient suffisants à éviter toute fragmentation. C'est bien sur insuffisant, et même avec une trés bonne prévention de la fragmentation, il y aura quand même fragmentation, et il faut donc prévoir des mécanismes curatifs.
MS à réalisé sa bourde entre NT4 et 2000 et à intégré ces mécanismes curatifs dès Windows 2000 avec la fourniture des API de défragmentation sur NTFS et l'intégration d'un défragmenteur (même light) dans la distrib de l'OS.
Coté Linux, encore une fois, 10 ans de retard pour parvenirt à la même conclusion et prendre les mêmes mesures, intégration de mécanismes de *dé*fragmentation dans l'implémentaiton du FS pour intervenir là ou les mécanismes de *prévention* de la fragmentation ont été insuffisants.
On peut utiliser par exemple ca depuis longtemps : http://www.vleu.net/shake/
Sauf que en dehors de cas particuliers, ca sert à rien, donc pas grand monde l'utilise.
markorki
YouDontNeedToKnowButItsNoëlle a écrit :
Le 27/10/12 16:41, Olivier B. a écrit :
En fait, je me demande surtout pourquoi windows ne ferait pas comme unix, on est sur que cet article est juste ?
Métro de retard ? Ce qui existe sur les autres OS finit par atterrir dans windows. Mais les changements profonds qui touchent le comportement de la gestion disque, c'est moins facile que de copier le look d'une interface utilisateur. C'est plus utile par contre.
Au fait, ya un mwm chez Zindoz, maintenant ?
(window manager : process qui gère l'affichage pour tous les autres) Ce qui fait que même quand une appli calcule un truc très long, si on met une autre fenêtre par-dessus, on peut la voir réapparaitre rafraichie si on la remet au premier plan.
Ceci sur tous les linux-like depuis que le fenétrage existe chez les iX (milieu années 80?), et windows ?
Oui, je suis d'humeur trollesque aujourd'hui...
YouDontNeedToKnowButItsNoëlle a écrit :
Le 27/10/12 16:41, Olivier B. a écrit :
En fait, je me demande surtout pourquoi windows ne ferait pas comme
unix, on est sur que cet article est juste ?
Métro de retard ? Ce qui existe sur les autres OS finit par atterrir
dans windows. Mais les changements profonds qui touchent le comportement
de la gestion disque, c'est moins facile que de copier le look d'une
interface utilisateur. C'est plus utile par contre.
Au fait, ya un mwm chez Zindoz, maintenant ?
(window manager : process qui gère l'affichage pour tous les autres)
Ce qui fait que même quand une appli calcule un truc très long, si on
met une autre fenêtre par-dessus, on peut la voir réapparaitre
rafraichie si on la remet au premier plan.
Ceci sur tous les linux-like depuis que le fenétrage existe chez les iX
(milieu années 80?), et windows ?
En fait, je me demande surtout pourquoi windows ne ferait pas comme unix, on est sur que cet article est juste ?
Métro de retard ? Ce qui existe sur les autres OS finit par atterrir dans windows. Mais les changements profonds qui touchent le comportement de la gestion disque, c'est moins facile que de copier le look d'une interface utilisateur. C'est plus utile par contre.
Au fait, ya un mwm chez Zindoz, maintenant ?
(window manager : process qui gère l'affichage pour tous les autres) Ce qui fait que même quand une appli calcule un truc très long, si on met une autre fenêtre par-dessus, on peut la voir réapparaitre rafraichie si on la remet au premier plan.
Ceci sur tous les linux-like depuis que le fenétrage existe chez les iX (milieu années 80?), et windows ?
Oui, je suis d'humeur trollesque aujourd'hui...
Alf92
"YouDontNeedToKnowButItsNoëlle" a écrit
rien que pour le swap, ça semble à peu disproportionné, et vu les prix est-ce réélement rentable ?
Ça dépend du contexte. Comme je disais, si ta machine est saturée coté RAM, tu peux penser au swap ssd pour lui donner une nouvelle jeunesse.
non : comme déjà dit un SSD n'est pas fait pour ça.
Si tiger pouvait gérer le ssd, (c'est dommage, mais non), à la place du DD 40 gigas dans mon petit ibook minimal 640M0 pour 70 € je mettrais 60 gigas de ssd. Ce qui transformerais un portable fonctionnel
des pneus de 285 sur un twingo... super intelligent
mais trop peu puissant pour PS par exemple, en portable rapide tout en augmentant un tout petit peu la mémoire de stockage dispo interne. Un bout pour le système et les applications. Un bout pour le swap. Un bout pour servir de cache à un disque externe classique...
...
Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui. C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut prévoir ample coté mémoire pour exécuter.
change de machine. on ne va pas en Amérique en pédalo.
Bien souvent, on peut commencer par mettre un peu les pattes dans la config, virer un tas de trucs obsolétes,
Ça m'accèlère nullement l'exécution, ça...
biensur que si ! ça libère de la mémoire et donc ça limite le swap chronophage.
D'autant qu'en général, les soft obsolètes sont remplacés par leurs homologues encore plus goinfres.
bin c'est sûr que si tu décides de remettre d'autres merdes à la place...
- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou pkoi un p'tit SSD)
La mémoire flash est rapide mais le usb, même 3, ça fait goulot d'étranglement.
encore une connerie... USB3 : 600Mo/s SSD +/- 500Mo/s
- les disques hybrides
Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.
ça fait pas mal de temps que cette techno existe. elle ne s'est pourtant pas vraiment démocratisée.
- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO (http://www.nvelo.com/dataplex)
Bien sûr : là, je parlais d'ajouter ça à une config existante saturée pour la dynamiser.
dans ce cas il faut en faire le disque principal.
Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà un gain interessant. Dommage pour le mode cache disque alors ! J'en suis quand même très surprise, je compte changer de félin bientôt (sur ma machine fixe) et je vais regarder ce qu'il en est.
j'adoooooore le langage choisi des mac users
"YouDontNeedToKnowButItsNoëlle" <FautLaDemander@simple.org> a écrit
rien que pour le swap, ça semble à peu disproportionné, et vu les prix
est-ce réélement rentable ?
Ça dépend du contexte.
Comme je disais, si ta machine est saturée coté RAM, tu peux penser au swap
ssd pour lui donner une nouvelle jeunesse.
non : comme déjà dit un SSD n'est pas fait pour ça.
Si tiger pouvait gérer le ssd, (c'est dommage, mais non), à la place du DD 40
gigas dans mon petit ibook minimal 640M0 pour 70 € je mettrais 60 gigas de
ssd. Ce qui transformerais un portable fonctionnel
des pneus de 285 sur un twingo... super intelligent
mais trop peu puissant pour PS par exemple, en portable rapide tout en
augmentant un tout petit peu la mémoire de stockage dispo interne.
Un bout pour le système et les applications. Un bout pour le swap.
Un bout pour servir de cache à un disque externe classique...
...
Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui.
C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut prévoir
ample coté mémoire pour exécuter.
change de machine.
on ne va pas en Amérique en pédalo.
Bien souvent, on peut commencer par mettre un peu les pattes dans la
config, virer un tas de trucs obsolétes,
Ça m'accèlère nullement l'exécution, ça...
biensur que si !
ça libère de la mémoire et donc ça limite le swap chronophage.
D'autant qu'en général, les soft obsolètes sont remplacés par leurs homologues
encore plus goinfres.
bin c'est sûr que si tu décides de remettre d'autres merdes à la place...
- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou
pkoi un p'tit SSD)
La mémoire flash est rapide mais le usb, même 3, ça fait goulot
d'étranglement.
encore une connerie...
USB3 : 600Mo/s
SSD +/- 500Mo/s
- les disques hybrides
Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.
ça fait pas mal de temps que cette techno existe.
elle ne s'est pourtant pas vraiment démocratisée.
- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant
de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO
(http://www.nvelo.com/dataplex)
Bien sûr : là, je parlais d'ajouter ça à une config existante saturée pour la
dynamiser.
dans ce cas il faut en faire le disque principal.
Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà un
gain interessant. Dommage pour le mode cache disque alors ! J'en suis quand
même très surprise, je compte changer de félin bientôt (sur ma machine fixe)
et je vais regarder ce qu'il en est.
rien que pour le swap, ça semble à peu disproportionné, et vu les prix est-ce réélement rentable ?
Ça dépend du contexte. Comme je disais, si ta machine est saturée coté RAM, tu peux penser au swap ssd pour lui donner une nouvelle jeunesse.
non : comme déjà dit un SSD n'est pas fait pour ça.
Si tiger pouvait gérer le ssd, (c'est dommage, mais non), à la place du DD 40 gigas dans mon petit ibook minimal 640M0 pour 70 € je mettrais 60 gigas de ssd. Ce qui transformerais un portable fonctionnel
des pneus de 285 sur un twingo... super intelligent
mais trop peu puissant pour PS par exemple, en portable rapide tout en augmentant un tout petit peu la mémoire de stockage dispo interne. Un bout pour le système et les applications. Un bout pour le swap. Un bout pour servir de cache à un disque externe classique...
...
Bon, c'est pas possible dans le cas précis, mais des cas voisins, oui. C'aurait été super dans mon contexte. Avec les softs Adobe, hein, faut prévoir ample coté mémoire pour exécuter.
change de machine. on ne va pas en Amérique en pédalo.
Bien souvent, on peut commencer par mettre un peu les pattes dans la config, virer un tas de trucs obsolétes,
Ça m'accèlère nullement l'exécution, ça...
biensur que si ! ça libère de la mémoire et donc ça limite le swap chronophage.
D'autant qu'en général, les soft obsolètes sont remplacés par leurs homologues encore plus goinfres.
bin c'est sûr que si tu décides de remettre d'autres merdes à la place...
- le ReadyBoost de Vista/7 (avec un support flash, genre clef USB ou pkoi un p'tit SSD)
La mémoire flash est rapide mais le usb, même 3, ça fait goulot d'étranglement.
encore une connerie... USB3 : 600Mo/s SSD +/- 500Mo/s
- les disques hybrides
Je pense que bientôt tous les disques nouveaux seront hybrides, au minimum.
ça fait pas mal de temps que cette techno existe. elle ne s'est pourtant pas vraiment démocratisée.
- L'utilsiation d'un SSD comme cache, ça existe déjà, et les fabricant de SSD qui proposent ça utilisent souvent en fait le soft de chez NVELO (http://www.nvelo.com/dataplex)
Bien sûr : là, je parlais d'ajouter ça à une config existante saturée pour la dynamiser.
dans ce cas il faut en faire le disque principal.
Les pommes pas trop vieilles peuvent tout exécuter en ssd, ça fait déjà un gain interessant. Dommage pour le mode cache disque alors ! J'en suis quand même très surprise, je compte changer de félin bientôt (sur ma machine fixe) et je vais regarder ce qu'il en est.
j'adoooooore le langage choisi des mac users
abc abc
On 2012-10-27, Ascadix wrote:
François a pensé très fort :
Le 27/10/2012 13:11, Stephane Legras-Decussy a écrit :
c'est pas du tout ma spécialité l'info système mais j'ai toujours été dubitatif devant le remplissage de trou sans fragmenter ...
Le système recherche un trou de taille suffisante pour accueillir le fichier en entier, au lieu de le découper en petits morceaux pour remplir plusieurs petits trous. Il ne sera découpé que s'il ne reste pas de trou assez grand, c'est à dire quand la partition approche de la saturation.
Et quand tu ajoute des données au bout d'un fichier existant alors qu'il n'y a pas de cluster contigu dispo ?
Tu fais quoi ?
Tu fragmentes. Mais à moins d'avoir un disque quasiment plein, ca se produit rarement. Les fichiers sont répartis partout sur le disque de facon à laisser de l'espace à la fin de tous les fichiers. Après si t'as un fichier de 600M fragmenté en 2 c'est pas forcement dramatique, ca va pas changer grand chose aux performances. Ce qu'il faut eviter c'est d'avoir une majorité de fichiers fragmentés en 56 morcaux chacuns.
On 2012-10-27, Ascadix <ascadix.ng@free.fr> wrote:
François a pensé très fort :
Le 27/10/2012 13:11, Stephane Legras-Decussy a écrit :
c'est pas du tout ma spécialité l'info système mais
j'ai toujours été dubitatif devant le remplissage de trou
sans fragmenter ...
Le système recherche un trou de taille suffisante pour accueillir le fichier
en entier, au lieu de le découper en petits morceaux pour remplir plusieurs
petits trous. Il ne sera découpé que s'il ne reste pas de trou assez grand,
c'est à dire quand la partition approche de la saturation.
Et quand tu ajoute des données au bout d'un fichier existant alors
qu'il n'y a pas de cluster contigu dispo ?
Tu fais quoi ?
Tu fragmentes. Mais à moins d'avoir un disque quasiment plein, ca se
produit rarement. Les fichiers sont répartis partout sur le disque de
facon à laisser de l'espace à la fin de tous les fichiers. Après si
t'as un fichier de 600M fragmenté en 2 c'est pas forcement dramatique,
ca va pas changer grand chose aux performances. Ce qu'il faut eviter
c'est d'avoir une majorité de fichiers fragmentés en 56 morcaux chacuns.
Le 27/10/2012 13:11, Stephane Legras-Decussy a écrit :
c'est pas du tout ma spécialité l'info système mais j'ai toujours été dubitatif devant le remplissage de trou sans fragmenter ...
Le système recherche un trou de taille suffisante pour accueillir le fichier en entier, au lieu de le découper en petits morceaux pour remplir plusieurs petits trous. Il ne sera découpé que s'il ne reste pas de trou assez grand, c'est à dire quand la partition approche de la saturation.
Et quand tu ajoute des données au bout d'un fichier existant alors qu'il n'y a pas de cluster contigu dispo ?
Tu fais quoi ?
Tu fragmentes. Mais à moins d'avoir un disque quasiment plein, ca se produit rarement. Les fichiers sont répartis partout sur le disque de facon à laisser de l'espace à la fin de tous les fichiers. Après si t'as un fichier de 600M fragmenté en 2 c'est pas forcement dramatique, ca va pas changer grand chose aux performances. Ce qu'il faut eviter c'est d'avoir une majorité de fichiers fragmentés en 56 morcaux chacuns.
abc abc
On 2012-10-27, albert wrote:
"Alf92"a écrit :
de toute manière le SSD n'est clairement pas une solution d'avenir.
Bonjour,
Un petit retour d'expérience sur un disque SSD pour une config essentiellement dédiée au traitement de l'image.
Quelques mois avant d'acquérir un SSD Intel 160 go, j'avais changé le matériel pour un processeur quadricore 3Ghz et Windows7 64 bits 16 Go de ram. L'apport de 16 go de ram opérationnels en 64 bits est spectaculaire dans Photoshop. Par contre charger une photo de plus de 10 go sortant du creuset d'Autopanopro était encore fastidieux. Bizarrement Autopano produit une photo, format .psb, de 10 go avec tous ses calques, mais une fois chargée dans photoshop, les calques un peu organisés, et enregistrée à nouveau, elle ne fait plus que 6 go. Je ne comprends pas pourquoi. Peut-être que PS gère mieux l'empilement des calques. Bon passons.
J'avais indiqué ici il y a peu l'intérêt supposé de me servir du SSD, outre pour le système d'exploitation et les programmes, aussi pour les fichiers temporaires de PS et de Autopano. Pour Autopano, aucun intérêt, pas de différence. Par contre pour Photoshop, c'est effectivement beaucoup plus rapide. Pour charger, pour traiter des opérations qui demandent beaucoup d'écriture, comme l'accentuation de la totalité de l'image, les déformations, etc... Mais dans le flux du travail, est-ce que cela en vaut la peine ? Je ne crois pas. Après deux mois, j'ai remis les fichiers de
Avec 16G de ram, ca fait plein de memoire libre, que l'OS peut utiliser comme cache pour les accès disque. L'amelioration apportée par le SSD se fait donc moins sentir dans ce cas.
On 2012-10-27, albert <alphoto.nospam@wanadoo.fr> wrote:
"Alf92"a écrit :
de toute manière le SSD n'est clairement pas une solution d'avenir.
Bonjour,
Un petit retour d'expérience sur un disque SSD pour une config
essentiellement dédiée au traitement de l'image.
Quelques mois avant d'acquérir un SSD Intel 160 go, j'avais changé le
matériel pour un processeur quadricore 3Ghz et Windows7 64 bits 16 Go de
ram. L'apport de 16 go de ram opérationnels en 64 bits est spectaculaire
dans Photoshop. Par contre charger une photo de plus de 10 go sortant du
creuset d'Autopanopro était encore fastidieux. Bizarrement Autopano produit
une photo, format .psb, de 10 go avec tous ses calques, mais une fois
chargée dans photoshop, les calques un peu organisés, et enregistrée à
nouveau, elle ne fait plus que 6 go. Je ne comprends pas pourquoi. Peut-être
que PS gère mieux l'empilement des calques. Bon passons.
J'avais indiqué ici il y a peu l'intérêt supposé de me servir du SSD,
outre pour le système d'exploitation et les programmes, aussi pour les
fichiers temporaires de PS et de Autopano. Pour Autopano, aucun intérêt, pas
de différence. Par contre pour Photoshop, c'est effectivement beaucoup plus
rapide. Pour charger, pour traiter des opérations qui demandent beaucoup
d'écriture, comme l'accentuation de la totalité de l'image, les
déformations, etc... Mais dans le flux du travail, est-ce que cela en vaut
la peine ? Je ne crois pas. Après deux mois, j'ai remis les fichiers de
Avec 16G de ram, ca fait plein de memoire libre, que l'OS peut utiliser
comme cache pour les accès disque. L'amelioration apportée par le SSD se
fait donc moins sentir dans ce cas.
de toute manière le SSD n'est clairement pas une solution d'avenir.
Bonjour,
Un petit retour d'expérience sur un disque SSD pour une config essentiellement dédiée au traitement de l'image.
Quelques mois avant d'acquérir un SSD Intel 160 go, j'avais changé le matériel pour un processeur quadricore 3Ghz et Windows7 64 bits 16 Go de ram. L'apport de 16 go de ram opérationnels en 64 bits est spectaculaire dans Photoshop. Par contre charger une photo de plus de 10 go sortant du creuset d'Autopanopro était encore fastidieux. Bizarrement Autopano produit une photo, format .psb, de 10 go avec tous ses calques, mais une fois chargée dans photoshop, les calques un peu organisés, et enregistrée à nouveau, elle ne fait plus que 6 go. Je ne comprends pas pourquoi. Peut-être que PS gère mieux l'empilement des calques. Bon passons.
J'avais indiqué ici il y a peu l'intérêt supposé de me servir du SSD, outre pour le système d'exploitation et les programmes, aussi pour les fichiers temporaires de PS et de Autopano. Pour Autopano, aucun intérêt, pas de différence. Par contre pour Photoshop, c'est effectivement beaucoup plus rapide. Pour charger, pour traiter des opérations qui demandent beaucoup d'écriture, comme l'accentuation de la totalité de l'image, les déformations, etc... Mais dans le flux du travail, est-ce que cela en vaut la peine ? Je ne crois pas. Après deux mois, j'ai remis les fichiers de
Avec 16G de ram, ca fait plein de memoire libre, que l'OS peut utiliser comme cache pour les accès disque. L'amelioration apportée par le SSD se fait donc moins sentir dans ce cas.