OVH Cloud OVH Cloud

A l'aide S.V.P

22 réponses
Avatar
ABLAT
Bonjour,

Quelqu'un peut-il m'aider à résoudre le problème suivant :
J'ai un ami qui après avoir validé un message dont il ne se rappelle
plus la teneur exacte mais qui se terminait par la question
"Voulez-vous le rétablir ?" n'arrive plus à relancer son ordinateur.

Le disque dur est bien reconnu par le Bios au lancement de la machine
mais un message disant qu'il n'y a pas de système installé apparaît et
elle ne veut pas démarrer.

Après avoir lancé le système par une disquette de boot, l'accès au DD
est toujours refusé et la commande "Dir" forcément inopérante sur "C",
et la réinstallation de Windows est impossible

J'ai démonté le DD pour l'installer en esclave dans le rack de ma
machine afin de l'explorer.
Là, je vois apparaître deux DD, un nommé "D" et un nommé "G" qui
n'étant pas à moi semblent vouloir dire si je ne me trompe que son DD
est partitionné.

Dans le disque "G", je trouve ses fichiers, Windows (98), son dossier
"ProgramFile", et l'autoexec suivant :
@C:\PROGRA~1\NORTON~1\NAVDX.EXE /Startup
mode con codepage prepare=((850) C:\WINDOWS\COMMAND\ega.cpi)
mode con codepage select=850
keyb fr,,C:\WINDOWS\COMMAND\keyboard.sys
C:\WINDOWS\SYSTEM\setaudio /S

Quant au disque "D", j'obtiens le message :"D:\ n'est pas accessible …
un périphérique attaché au système ne fonctionne pas correctement"
Et si j'essaie de lancer Scandisk sur lui, il me met "Impossible de
vérifier ce lecteur. Il est verrouillé par un utilitaire de disque, ou
le disque n'est pas formaté correctement. Formatez le disque ou
attendez la fin de l'utilitaire, puis redémarrez Scandisk"

Quand je lance "Propriétés" sur D et G, j'obtiens:
Pour "D" .. Ne marque pas "FAT 32" mais seulement "FAT" tout court
Espace utilisé 0 Espace libre 0
Pour "G" FAT 32
Espace utilisé 2,88 Go Espace libre 15,7 Go
Capacité totale ..18,6 Go (20 010 500 096)

Or le DD est un disque de 20 Go

Comment faire pour lui récupérer l'utilisation de sa machine ?

Merci de votre aide et mille excuses si, pour tenter d'être clair,
j'ai été un peu long dans l'exposé du problème !

2 réponses

1 2 3
Avatar
Remy Moulin
Annie D. wrote:

vous ne vous offusquerez plus de voir que votre fichier occupant
un cluster de 4,096 Ko quand vous avez des blocs de stockage de
"4Ko";
^^

Merci de faire attention : on écrit 4,096 ko. Enfin, à ce niveau, moi
j'écrirais simplement 4069 octets.


Bonjour,

4096 est un peu long et c'est pas un nombre 'naturel' pour nous, humains,
alors que "4 Ko" est nettement plus facile à retenir...

Vous offusquez-vous de lire des approximations dans les tailles des
fichiers exprimées en unités binaires ? Moi non, et là c'est pareil.
Quand ça tombe juste, c'est un coup de pot.

Je prends un fichier quelconque de mon disque dur. Le système
m'affiche

Taille: 1,46 Mo (1 538 466 octets)
Taille sur le disque: 1,46 Mo (1 540 096 octets)

Dans les deux cas, 1,46 MiB est une approximation. En quoi est-elle
meilleure que 1,54 Mo ? Au moins je n'ai pas eu besoin de calculatrice
pour obtenir cette valeur.


Ces deux tailles n'expriment pas la même chose.

La première est la taille exacte en octet du fichier. C'est un nombre donc
parfaitement aléatoire en ce sens qu'un fichier pourrait avoir une taille
quelconque comprise entre zero et +infini (mais ce dernier cas n'est pas
réaliste). Ce nombre, exprimé en "K informatiques" ou en "k SI", (ou en M,
ou en G ...) n'a aucune raison de tomber sur un nombre entier...

Le second est la place qu'occupe le fichier. Et là, c'est une autre
histoire. Si je prends une FAT32 (j'ai pas trop regardé les autres
systèmes), le cluster, unité de stockage de base de Windows, est forcément
une taille découlant d'une puissance de 2.

Un cluster est un nombre (en puissance de 2, généralement 8 (2^3) ou plus)
de secteurs, et un secteur est trés généralement un bloc de 512 octets
(2^9). Sur les petits disques, le cluster fait 4096 octets (2^9*2^3=2^12).

Comme je l'expliquais dans mon "délire", 4096 n'est pas un nombre
remarquable dans notre système de notation décimal, mais traduit en hexa, on
voit apparaitre le nombre 1 000, soit bel et bien 1 k, façon SI, mais dans
une autre base.

Il faut s'y faire, un ordinateur binaire ne calcule pas en base 10,
la base 10 ne lui convient pas.

En informatique, pour tout ce qui est stockage, et uniquement ce qui
est stockage, les unités dérivées des puissances de 2 (1024=2^10)
donnent des nombres entiers plutôt que des nombres à virgules.


C'est faux pour la taille des disques durs, voir plus bas. C'est faux
pour la taille des objets stockés. Ça concerne essentiellement les
unités élémentaires de stockage (secteurs, clusters, pages). A partir
du moment où le nombre d'unités élémentaires, par essence non binaire
sauf pour la RAM, est grand devant la taille d'une unité, les tailles
résultantes n'ont plus grand chose de binaire. A partir du moment où,
par nécessité, on utilise pour exprimer ces tailles d'autres préfixes
que les préfixes qui conviennent aux unités élémentaires, les nombres
obtenus ne sont plus entiers. Pour preuve, reprenez l'exemple
précédent, sachant que la taille de cluster était de 4 KiB.


Et en quoi un disque dur ne serait pas une unité de stockage binaire ????
C'est nouveau ça !

Un secteur de disque représente 512 octets, et c'est quoi un octet ?

Un disque est bel et bien un assemblage de secteurs de 512 octets, qui le
système d'exploitation exploite à sa guise, soit en gérant directement au
niveau secteur, soit en gérant un assemblage de secteurs (mais toujours en
un nombre multiple d'une puissance de 2 ( 8, 16, ... ) pour accélérer les
calculs).

Ce qui vous trompe, peut-être, c'est qu'un disque est de plus organisé en
nombre de secteurs par piste (nombre variable, pas forcément puissance de
2), en nombre de piste par plateau (idem) et en nombre de plateaux (idem
encore).

Je parle de la vraie géométrie des disque, pas de ce qu'indique généralement
le BIOS (nombres généralement faussés de part ses limitations, au-dela de 8
Go).

En FAT 32, la capacité utilisable des disques s'écrivent en nombres entiers
de clusters de "4 Ko informatiques". Mais comme les disques ont maintenant
des tailles d'une toute autre magnitude, on exprime leurs capacités
actuellement en "Go décimales" (constructeurs de disques - surface brute) ou
en "Go informatiques" (tous les autres - surface utilisable), donc là, on
obtient des nombres à virgule.

Mais comme les systèmes d'exploitation allouent l'espace en unités
(clusters) ayant pour taille une puissance de deux, il me paraît très
judicieux que l'info 'taille prise sur le disque' et 'taille libre' soient
exprimés en "K informatiques". Par conséquence, si l'on ne veut pas de
mélanges, il me paraît tout autant logique que la taille des fichiers
eux-mêmes soient exprimés dans la même unité.

Mais l'utilisateur ou même le programmeur d'applications, qu'est-ce
que ça peut leur faire qu'en-dessous il y ait des puissances de 2
puisque eux ne les voient jamais directement ?


Ceux qui essayent de faire du code rapide savent qu'il est plus
efficace de gérer des tableaux ayant une taille multiple d'une
puissance de 2 (gérer les tests de bord du tableau),


Vous auriez un exemple de code (de préférence en C, merci) ?
Quand il m'arrive - rarement - de programmer, j'utilise des tableaux
dont la taille est juste suffisante pour contenir ce que j'ai besoin
d'y mettre. C'est mal ?


Il est des cas où le nombre d'objets ne peut être connu à l'avance, et il en
est d'autre où le programmeur a le choix de la taille de son tableau.

Dans le premier cas, il n'est pas libre de faire ce qu'il veux,
effectivement, mais dans le second, il est possible de jouer finement.

Un exemple qui me vient à l'exprit : une routine de calcul très rapide d'une
fonction trigo (mettons, pour une démo de groupe faisant de la 3D en temps
réel).

Les fonctions trigo des processeurs courants ne sont pas des foudres de
guerres par rapport à leur capacité à faire des calculs de multiplication en
virgule flottante, ou même en 'virgule fixe' ( se rapproche du calcul avec
des entiers).

Le mieux est de se faire une table de multiplicateurs pré-calculés. La
première chose qui vient à l'exprit, c'est une table de 360 multiplicateurs
(un par degré). Pour trouver le multiplicateur, on fera :

tableau[taille_angle MOD 360]

Puisque le multiplicateur de la taille d'angle 360° égal celui de 0°.

Mais ce MOD 360 n'est pas commode à gérer pour un processeur : il faut
calculer le reste d'une division, et donc effectuer une division. C'est long
à l'échelle d'un processeur.

Au lieu d'utiliser le degré, pourquoi pas utiliser une autre mesure d'angle
comme 256 ? Calculer le MOD sera très simplement de faire un ET binaire avec
255 (nombre binaire dont les 8 bits de poids faibles sont à 1).

Imbattable comme technique (nota: c'est pas de moi, j'aurais été bien
incapable de produire un algorithme aussi raffiné. Cf "C / C++ et
Assembleur, Programmation Graphique", Michael Abrash).

C'est un exemple comme ça, il doit très probablement y en avoir pas mal
d'autres.

qu'un tableau de 65536 entrées est gérable plus
rapidement (parce que l'on peut utiliser des pointeurs 16 bits), ...


<humour>
Ah, vous parlez de ceux qui écrivent des programmes pour des
processeurs 8 ou 16 bits de faible puissance de calcul. Faites
excuses, je pensais
qu'on parlait d'architectures modernes.
</humour>


Et que fait-on avec nos architectures modernes ? La même chose qu'au
paravant, mais en utilisant des tailles de données plus importantes !

Ces techniques d'accélération de code sont bel et bien toujours d'actualité,
ne vous déplaise.

Augmenter la puissance des CPU en alourdissant les traitements a pour
résultat ... une amélioration de performance nulle !

Ce n'est pas ce que l'on constate, généralement.

D'autre part, je pensais naïvement que c'était le fait que la taille
d'un élément, et pas le nombre, soit une puissance de deux qui
permettait de calculer plus rapidement l'offset à partir de l'indice,
par simple décalage binaire plutôt que par vraie multiplication.


Mais les deux jouent !

En effet, vous avez raison, une taille des données multiples d'une puissance
de deux permettra un accès plus rapide à un élément du tableau en accés
aléatoire (stockage), et comme je disais, un nombre d'objets dans la table
multiple d'une puissance de deux simplifiera les tests de bord de tableau en
accés séquenciel (recherche / parcours).

Mais le programmeur, dans les langages comme le C du moins, il ne peut
pas coder directement en KiB ou MiB. C'est bête, le langage ne connaît
pas ces préfixes. Il est donc obligé d'écrire le nombre complet sans
préfixe multiplicateur. Là encore, où est l'utilité des préfixes
binaires ?


Il se créé quelques constantes dans un coin valant 1024, 1024², etc... et
les utilisent. C'est pas un problème du tout. D'autant plus qu'avec des
constantes, les valeurs des nombres 'fixes' seront calculés dès compilation
du projet. Dans le cours d'execution du programme, multiplier une valeur par
1024 revient à un simple décalage vers la gauche de 10 positions (1024 2^10), une broutille pour n'importe quel CPU, comparativement au temps pris
pour utiliser la multiplication avec la valeur '1000', non remarquable pour
l'ordinateur.

En effet. Cette unité de mesure 1024 n'est que le résultat d'un
compromis : être une puissance de deux (conversion pas trop pénible
pour l'ordinateur, unité de mesure qui produit des nombres entiers),
et n'être pas trop loin de cette unité de mesure 'homophile' qu'est
le nombre 1000.


Compromis qui n'a plus lieu d'être puisque les quantités binaires ont
maintenant leurs préfixes multiplicateurs normalisés distincts des
préfixes SI décimaux.


... et que quasi-personne ne connaît ni n'est pressé d'utiliser ;-)

<snip délire hexadécimal qui fait mal à la tête et aux yeux>


Dommage, parce que c'est là que l'on comprends l'inadéquation de la base 10
avec une machine comptant en base 2 !

J'avais pris la base 16, un multiple, parce que la base 2 produit des
nombres bien trop longs à lire...

C'est la même chose en unités binaires quand le nombre d'unités
composant un objet, qui n'a a priori rien d'une puissance de 2,
dépasse le millier. Voir mon exemple de taille de fichier plus haut.


Y'a pas de raison pour que l'on change d'unité comme ça, parce que le nombre
est trop grand ou trop petit. Quelle est la limite ? Qui va la fixer ? Avec
quel critère objectif ?

Non stop. Pas de suggestivité là dedans, ou alors nombre d'autres satellites
iront se perdre dans le néan.

A propos, ce satellite perdu, c'était pas une confusion entre des nombres
écrits en base métrique et des nombres écrits en base 'miles' américains ?
Une confusion sur l'abbréviation 'm' ?

Cf taille des clusters de "4Ko", courant en FAT32, que j'ai
développé plus haut.


Et vous en voyez souvent, vous, des clusters ? Moi je vois surtout des
fichiers, avec des tailles quelconques.


Quand les fichiers sont petits, taille du bloc alloué par l'OS...

Permet aussi de comprendre qu'un disque peut stocker moins d'informations
s'il a une foultitude de petits fichiers que s'il avait les données
regroupés dans un seul gros fichier...

Bien sûr que si. A partir du moment où ces nombre sont visibles d'une
façon ou d'une autre, c'est qu'ils ont été ou sont destinés à être
manipulés par des humains. Sinon, ils restent cachés dans les
variables internes des programmes et le problème ne se pose même pas.


Vus oui. Manipulés non. J'espère que vous ne réglez pas vous-même votre FAT
avec une calculette et un éditeur de secteurs, hein :-D.

Ah ben non, justement, vous n'aimez pas les calculettes ;-)

Par contre, c'est interessant de connaître l'ordre de grandeur des objets
stockés, et l'ordre de grandeur de la place libre. A la limite, le petit
camembert place libre / place occupée dans les propriétés d'un disque sous
Windows est très parlant...

Ce qui n'est pas évident au premier abord, c'est que cela ne
concerne que (et exclusivement) les capacités de stockages !


Même pas toutes. Prenons le cas du nombre de secteurs d'un disque dur.
Vous n'arriverez pas plus à exprimer ce nombre comme un multiple
simple d'une puissance de 2 que comme celui d'une puissance de 10. J'ai
dit

simple, pas à 6 chiffres ou plus, hein.


Oui, parce qu'une partie des multiplicateurs qui entrent en jeu sont liés à
des données physiques et non informatiques (nombre de secteurs par piste :
dépends de la capacité de magnétisation du plateau, de l'endroit où l'on est
: près du centre ? loin de centre ?, ... ; nombre de pistes : idem; nombre
de plateaux : dépends des progrés de la technique en miniaturisation et de
la taille verticale disponible pour le boitier; ...)

Il n'empêche que l'ordinateur traite cette immense capacité par blocs ayant
une puissance de 2 en taille.

Par exemple, le nombre de secteurs du WD AC28400 de ~8,4 Go (~8 GiB)
est 16 514 064 = 1 032 129 * 16. Pas terrible comme puissance de 2.
Taille totale : 8 455 200 768 octets
soit 8 257 032 KiB
soit 8 063,507 813 MiB
soit 7,874 519 349 GiB
On a du mal à voir des nombre entiers simples, ne trouvez-vous pas ?


Cf ci-dessus.

Pour le kbit/s, c'est un peu plus fin à comprendre. [...]
Ce qui est mesuré, c'est la vitesse de déplacement d'un objet.


<HS>
C'est une vitesse de transmission, pas de déplacement. Le débit mesure
le nombre de bits, mètres cubes... qui entrent ou sortent du tuyau à
chaque seconde, pas la vitesse de propagation/déplacement des bits ou
de l'eau le long du tuyau, qui serait exprimée en m/s.
</HS>


Mes excuses pour cette confusion, mais c'est l'analogie qu'il faut voir : on
regarde une vitesse de transmission, et pas l'objet qui est transmis en
lui-même.

Donc, je résume : il n'y a que (et uniquement que) les unités de
stockage qui sont exprimés en base 1024 en informatique, tout
simplement parce que ça donne des nombres entiers ( => plus facile
pour nous, humains),


Des fois. Pas toujours.
Et là ou ça devient corsé, c'est quand on combine les tailles de
fichiers, en kilo binaires selon l'usage, et les débits de
transmissions, en kilo décimaux. 512 kbits/s, c'est 512000 bits/s.


Absolument. C'est bel et bien une unité de grandeur en base 1000, comme
toutes les autres dépendant de la physique.

Oui, mais en kilo-octets, ça fait combien ?


Personnellement, un octet fait et fera toujours 8 bits :

512000 bits/s (toujours revenir à l'unité de base quand on convertis)
64000 octets/s

Là encore, c'est une vitesse de transmission (ça pourrait être 64000
coups-de-poings par seconde, ça serait pareil). La base 1000 s'applique : 64
kilo - (octets/secondes).

C'est la seule conversion que je considererais comme valable, au vu de ce
qui est mesuré.

Eh bien, c'est comme vous voulez,
ou plutôt comme les auteurs des logiciels qui vous affichent les
résultats l'a voulu.


J'avais bien dit que c'était fin; Tous les concepteurs de logiciels ne se
posent pas ce genre de questions, malheureusement !!!

Petite démonstration.

Client ftp de Windows 2000 :
ftp : 831951 octets reçus dans 13,36Secondes 62,27Ko/sec.
831951/13,36 = 62272 octets/s => kilo décimal écrit à tort "K".


Conversion juste, simple erreur majuscule / minuscule, très courante et qui
date de vieux en informatique.

Client ftp v0.10 de Linux :
831951 bytes received in 13.15 secs (61.8 kB/s)
831951/13,15 = 63266 octets/s = 61,8 KiB/s => kilo binaire écrit à
tort "k".


CONVERSION FAUSSE !

Ce programmeur ne sait pas de quoi il parle...

Aucune raison, réelement aucune, d'utiliser un multiplicateur 1024 ici !

Bref, les deux affichent un débit faux, mais différemment. Il fallait
le faire. On est pas sorti de l'auberge. J'affirme que le kilo
binaire est source d'erreur dès qu'il a le malheur de devoir être
associé à des mesures décimales.


Et pensez-vous qu'utiliser des unités au noms bizarres aidera à simplifier
cela ?

Pourquoi pas, mais ... bon courage dans la croisade :-D .

l'ordre de grandeur est approchante de l'ordre de grandeur de ce que
nous avons l'habitude de manipuler ( pas trop loin de 1000, mais pas
exactement, malheureusement).


Le problème, c'est que l'erreur relative augmente à chaque fois qu'on
passe au préfixe supérieur : 2% d'erreur entre le kilo "informatique"
et le kilo SI, 7% avec le giga. 7% sur un giga-octet, ça se voit, et bien
gros. Pour 14 Go, ça fait 1 Go de différence.


Oui, et c'est pour ça que les gens râlent : au sujet des disques durs !

Car au-dela de la différence simplement dûe à la mesure d'une capacité dans
deux unités différentes, s'ajoute en plus la taille perdue par les tables de
partitions, structures de fichiers (FAT, taille de stockage des
répertoires), et la place perdue par ... le système d'exploitation installé
(si si, y'a des gens qui font cette remarque), quoique vu la taille des
disques maintenant, ces données ne doivent plus représenter une si grande
perte que cela.

Remplacer les "Ko informatiques" par des "Ki" ou autre bizarrerie de
la sorte, c'est contre-nature pour les pauvres hêres que nous sommes,


C'est là que je ne vous comprends pas. Ces préfixes ont été créés pour
mettre tout le monde d'accord : ceux qui comme moi, dénoncent l'emploi
abusif des préfixes SI quand on leur prête une valeur binaire ainsi
que la confusion qui en découle, et ceux qui comme vous veulent continuer
pour des raisons pratiques à utiliser des préfixes ayant des valeurs
binaires. Qu'est-ce que vous trouvez contre-nature ? C'est juste un
petit changement d'écriture, un petit "i" de plus, la belle affaire,
et les nombres que vous avez l'habitude de manipuler ne changent pas.


J'imagine la tête d'un vendeur auxquel un client demanderait un disque "40
Gi". Le pauvre, tournant fébrilement les pages de ses catalogues pour
trouver le constructeur "40 Gi", ou la marque, ou le grossiste, ou ...

Les habitudes sont pratiquement impossibles à changer. Regardez par exemple
l'une des plus belles bourdes qui ait été fait en physique : le sens
physique du courant, c'est le sens inverse de celui qui a été décreté
conventionnellement à l'époque où l'on ne pouvait pas le connaître.

Une chance sur deux de se planter. Loi de Murfy : Ils se sont plantés.

Quelques siècles plus tard, nos formules, nos schémas, notre façon de
concevoir des circuits se battent encore avec des moins et de flèches de
couleurs différentes qui se contre-disent. Et personne n'a corrigé cela.
Quelle pagaille !

Je rejoins le club ce ceux qui râlent de ce que les fabricants de
disques durs expriment la taille en unités base 1000. Vu par
l'informatique (et c'est quand même la finalité de la chose : on
n'écrit pas au stylo bille les bits sur les plateaux !), on se
retrouve avec une capacité réellement exploitable bien moindre de ce
à quoi l'on pouvait s'attendre.


Mais non. Les "informaticiens" sont des spécialistes, ils savent à
quoi s'attendre, eux, et ils font la conversion au besoin (quel
besoin ?).
Moi je pense à l'utilisateur lambda induit en erreur par l'affichage
de son système d'exploitation, à cent lieues d'imaginer que le giga
affiché représente 2^30 et pas 10^12.


La différence est flagrante lorsque le disque vient juste d'être reformaté
et que l'on regarde la capacité de suite. L'utilisateur lambda a
habituellement un seul disque dur, avec au minimum un système d'exploitation
pré-installé.

L'utilisateur intermédiaire, celui qui sait réinstaller lui-même son OS ou
qui sait ajouter un disque dur à sa machine se posera effectivement la
question. A charge des SSII de donner l'explication. Si elles en sont
incapables elles-mêmes, c'est un signe grave d'incompétence...

c'est frustrant de constater que seuls, ces industriels n'utilisent
pas l'unité informatique, et à seule fin marketeuse en plus !


Pas uniquement "à fin marketeuse". Les fabricants de disques durs sont
justement des industriels, des commerçants, pas des informaticiens. Ce
sont eux qui fabriquent et vendent les octets, et ils sont davantages
tenus d'utiliser les préfixes normalisés et unités du SI, valable
aussi bien pour les sciences et les techniques que pour le commerce, qu'un
éditeur de logiciel qui ne vend pas de la capacité et que cela
n'engage guère d'utiliser des unités fantaisistes au regard du reste du
monde.


En ce cas, pourquoi ne pas faire figurer les deux nombres ? Parce que l'un
des deux est plus flatteur que l'autre. Rien d'autre.

L'art du marketing, c'est l'art de vendre. Si en plus le "gros chiffre" est
conforme SI, c'est un bonus et rien d'autre.

D'un point de vue technique, la seule et unique puissance de 2 dans un
disque dur, c'est la taille de 512 octets d'un secteur élémentaire.


+ la taille du cluster, 8, 16, 32 ... fois plus gros.

Est-ce à vos yeux suffisant pour exprimer cette taille en giga-octets
avec un facteur d'erreur de 7% ?


Quelle erreur ? Non, c'est en taille exacte ! Dans la taille de l'unité de
mesure dans laquelle le disque sera exploité.

C'est l'autre, l'erreur, la mesure en décimal. De mon point de vue :-).

Ça m'horripile autant que cet autre constructeur de CPU qui ne
mesure pas la fréquence d'horloge de son produit, mais la "fréquence
d'horloge d'un produit concurrent qui aurait la même puissance"


Si vous parlez d'AMD avec ses Athlon XP, ce n'est pas comparable. Le
nombre fait partie d'un nom commercial, ce n'est pas une
caractéristique technique (il n'est jamais suivi de "GHz"). D'autre
part, j'ai lu que ce "P-rating" n'était pas basé sur une comparaison
avec le Pentium d'Intel
mais avec la génération d'Athlon précédente, le Thunderbird, dont le
nom commercial contenait la fréquence réelle. A confirmer. De toute
façon,
quand vous achetez un CPU, vous achetez de la puissance de calcul ou
de
la fréquence ? Vous auriez préféré l'inverse, un processeur aux
performances minables mais tournant à un fréquence délirante ?


La puissance de l'ordinateur dépends en partie de la puissance brute de la
puce, mais pas seulement. Sa capacité de dialoguer avec le reste, et
notemment, avec sa mémoire de travail, compte pour une très grosse part.

Je remonte au temps anciens (pardonnez-moi), mais il y avait une grosse
différence de performance entre les 386 SX (bus 16bits) et les 386 DX (bus
32 bits), à fréquence égale.

Savoir que la puce X est plus puissante que la puce Y à fréquence égale,
c'est une bonne info commerciale, que l'on peut trouver partout. C'est que
qui était mis en avant dans les temps anciens quand les fabricants de CPU ne
trichaient pas (quoique, y'avait bien Cyrix à faire de même, mais il n'était
pas trop connu)...

Savoir que la puce X tourne à x (fréquence de base) * y (multiplicateur)
permet de savoir quelle carte-mère et quelle mémoire seront les plus
adaptées.

Plus ça va, plus on brouille les pistes. Les processeur indiquent leur
vitesse en nombre approchée; les mémoires en bande passante (quid de leur
fréquence ? ah, il faut une table de conversion !).

Quoi après ? Les graveurs selon la puissance du laser au lieu de leur
vitesse de gravure et de lecture ? Les modems selon la couleur de leur
boitier ?

Tout est fait pour brouiller les pistes. Tout est fait pour que
l'utilisateur ne s'y retrouve plus. Bientôt ce seront les techniciens qui ne
s'y retrouveront plus, et l'art de faire fonctionner une machine sans
plantage deviendra réelement un art !

Cette notation en "fausse fréquence" est ni plus ni moins (à mon humble
avis) qu'une façon de tromper le client. Et pas question, cette fois-ci,
d'invoquer une différence d'unité de mesure : de la physique objective d'une
part, du "vaporware" de l'autre.

Je ne suis pas contre la marque à trois lettres, j'utilise leurs produits,
je râle juste de la confusion qui résulte de ce choix purement marketeux, là
encore.

Mais c'est un autre débat qui nécessiterait un autre fil de discussion...

En conclusion ? On n'a pas fini de voir des Ko valant 1024 !


Je n'ai donc pas fini d'afficher ma signature !


En effet ! Bon courage en tout cas !

--
Herm



Avatar
ABLAT
Pb résolu
Merci à tous ... y compris pour les considérations sur la taille du
disque dur qui n'était pas mon propos d'origine (oserais-je dire
hors sujet par rapport au pb ...) :o))
1 2 3