donc, si je comprends bien, il m'est jste possible d'acheter un barette
DIMM DDR Synchronous 667 MHz (1,5 ns) de 1 Go pour porter à 2 Go ma RAM,
c'est bien ça ???
Est-ce utile ???
En fait ça permet de défragmenter la RAM. Ça n'a l'air de rien, mais une machine allumée depuis très longtemps a sa RAM très, très fragmentée... Mon PC de boulot a un uptime de 6 mois environ, mais un peu de swap :)
Comment fait-on pour voir le taux de fragmentation ? J'ai un PC avec très peu de ram qui me sert de serveur et qui a un uptime de 330 jours.. ça pourrais être rigolo de voir ça ! ;)
On 09/12/2011 23:24, Emmanuel Florac wrote:
En fait ça permet de défragmenter la RAM. Ça n'a l'air de rien, mais une
machine allumée depuis très longtemps a sa RAM très, très fragmentée...
Mon PC de boulot a un uptime de 6 mois environ, mais un peu de swap :)
Comment fait-on pour voir le taux de fragmentation ? J'ai un PC avec très peu
de ram qui me sert de serveur et qui a un uptime de 330 jours.. ça pourrais
être rigolo de voir ça ! ;)
En fait ça permet de défragmenter la RAM. Ça n'a l'air de rien, mais une machine allumée depuis très longtemps a sa RAM très, très fragmentée... Mon PC de boulot a un uptime de 6 mois environ, mais un peu de swap :)
Comment fait-on pour voir le taux de fragmentation ? J'ai un PC avec très peu de ram qui me sert de serveur et qui a un uptime de 330 jours.. ça pourrais être rigolo de voir ça ! ;)
denis.paris
Le 09/12/2011 23:24, Emmanuel Florac a écrit :
Le Fri, 09 Dec 2011 10:12:35 +0100, denis.paris a écrit:
Il faut tout de même garder un swap, même modeste car j'ai lu quelque part (je n'ai pas de références précises) que tous les systèmes avaient besoin d'un espace temporaire externe à la RAM afin de réorganiser "à la volée" son contenu et optimiser son fonctionnement.
En fait ça permet de défragmenter la RAM. Ça n'a l'air de rien, mais une machine allumée depuis très longtemps a sa RAM très, très fragmentée... Mon PC de boulot a un uptime de 6 mois environ, mais un peu de swap :)
Je n'osais pas le dire pour ne pas choquer certaines sensibilités, tant la notion de défragmentation est associée à Windows...
Même si un linux est incontestablement plus stable, sauf cas particulier il n'y a pas de raison de ne pas rebooter de temps en temps, le but n'étant pas de faire un concourt d'uptime mais d'assurer le meilleur service possible. Une fois par mois est bien, ça permet de mettre à jour le noyau si nécessaire.
Je vais peut-être faire hurler en disant cela, mais ça n'engage que moi...
Pour un Windows, c'est une fois par semaine, mais j'ai récemment dû remplacer une machine W2003 (frontal WEB) qui avait 991 jours d'uptime! (en toute modestie c'est moi qui l'avait installé à l'origine...)
Le 09/12/2011 23:24, Emmanuel Florac a écrit :
Le Fri, 09 Dec 2011 10:12:35 +0100, denis.paris a écrit:
Il faut tout de même garder un swap, même modeste car j'ai lu quelque
part (je n'ai pas de références précises) que tous les systèmes avaient
besoin d'un espace temporaire externe à la RAM afin de réorganiser "à la
volée" son contenu et optimiser son fonctionnement.
En fait ça permet de défragmenter la RAM. Ça n'a l'air de rien, mais une
machine allumée depuis très longtemps a sa RAM très, très fragmentée...
Mon PC de boulot a un uptime de 6 mois environ, mais un peu de swap :)
Je n'osais pas le dire pour ne pas choquer certaines sensibilités, tant
la notion de défragmentation est associée à Windows...
Même si un linux est incontestablement plus stable, sauf cas particulier
il n'y a pas de raison de ne pas rebooter de temps en temps, le but
n'étant pas de faire un concourt d'uptime mais d'assurer le meilleur
service possible. Une fois par mois est bien, ça permet de mettre à jour
le noyau si nécessaire.
Je vais peut-être faire hurler en disant cela, mais ça n'engage que moi...
Pour un Windows, c'est une fois par semaine, mais j'ai récemment dû
remplacer une machine W2003 (frontal WEB) qui avait 991 jours d'uptime!
(en toute modestie c'est moi qui l'avait installé à l'origine...)
Le Fri, 09 Dec 2011 10:12:35 +0100, denis.paris a écrit:
Il faut tout de même garder un swap, même modeste car j'ai lu quelque part (je n'ai pas de références précises) que tous les systèmes avaient besoin d'un espace temporaire externe à la RAM afin de réorganiser "à la volée" son contenu et optimiser son fonctionnement.
En fait ça permet de défragmenter la RAM. Ça n'a l'air de rien, mais une machine allumée depuis très longtemps a sa RAM très, très fragmentée... Mon PC de boulot a un uptime de 6 mois environ, mais un peu de swap :)
Je n'osais pas le dire pour ne pas choquer certaines sensibilités, tant la notion de défragmentation est associée à Windows...
Même si un linux est incontestablement plus stable, sauf cas particulier il n'y a pas de raison de ne pas rebooter de temps en temps, le but n'étant pas de faire un concourt d'uptime mais d'assurer le meilleur service possible. Une fois par mois est bien, ça permet de mettre à jour le noyau si nécessaire.
Je vais peut-être faire hurler en disant cela, mais ça n'engage que moi...
Pour un Windows, c'est une fois par semaine, mais j'ai récemment dû remplacer une machine W2003 (frontal WEB) qui avait 991 jours d'uptime! (en toute modestie c'est moi qui l'avait installé à l'origine...)
denis.paris
Le 09/12/2011 23:28, Emmanuel Florac a écrit :
Le Fri, 09 Dec 2011 08:50:34 +0000, Arol a écrit:
Donc bon découper son disque en 10 pour gagner 1h (le temps de copier mon /home/) en 5 ans, c'est ridicule, ou un truc de geek.
Je viens de dire couper le disque en 2 précisément, pas en 10. maintenant tu fais ce que tu veux, je m'en tape.
+1, et il faut penser à tous les lecteurs qui n'ont pas forcément une idée bien arrêtée sur la question, et recommander fortement cette pratique.
Le 09/12/2011 23:28, Emmanuel Florac a écrit :
Le Fri, 09 Dec 2011 08:50:34 +0000, Arol a écrit:
Donc bon découper son disque en
10 pour gagner 1h (le temps de copier mon /home/) en 5 ans, c'est
ridicule, ou un truc de geek.
Je viens de dire couper le disque en 2 précisément, pas en 10. maintenant
tu fais ce que tu veux, je m'en tape.
+1, et il faut penser à tous les lecteurs qui n'ont pas forcément une
idée bien arrêtée sur la question, et recommander fortement cette pratique.
parle tout de même de fragmentation de la RAM (conception de malloc) même si c'est pour indiquer qu'elle est réduite. Cela semble donc être une préoccupation des gestionnaires de mémoire.
Au fil du temps et après des mois d'utilisation intensive de la RAM il peut être judicieux de tout remettre à zéro.
Le 10/12/2011 00:00, Nicolas George a écrit :
Emmanuel Florac , dans le message
<4ee28a95$0$8437$426a74cc@news.free.fr>, a écrit :
En fait ça permet de défragmenter la RAM.
???
Je connais la notion de fragmentation de l'espace mémoire d'un processus,
mais la fragmentation de la RAM, sur une architecture avec MMU...
parle tout de même de fragmentation de la RAM (conception de malloc)
même si c'est pour indiquer qu'elle est réduite. Cela semble donc être
une préoccupation des gestionnaires de mémoire.
Au fil du temps et après des mois d'utilisation intensive de la RAM il
peut être judicieux de tout remettre à zéro.
parle tout de même de fragmentation de la RAM (conception de malloc) même si c'est pour indiquer qu'elle est réduite. Cela semble donc être une préoccupation des gestionnaires de mémoire.
Au fil du temps et après des mois d'utilisation intensive de la RAM il peut être judicieux de tout remettre à zéro.
Nicolas George
"denis.paris" , dans le message <4ee296d6$0$8844$, a écrit :
parle tout de même de fragmentation de la RAM (conception de malloc) même si c'est pour indiquer qu'elle est réduite. Cela semble donc être une préoccupation des gestionnaires de mémoire.
Ce n'est pas la fragmentation de la RAM, c'est la fragmentation de l'espace mémoire d'un processus dont il est question ici.
Au fil du temps et après des mois d'utilisation intensive de la RAM il peut être judicieux de tout remettre à zéro.
Sur une architecture avec MMU, au niveau de l'OS, non, pas vraiment.
"denis.paris" , dans le message <4ee296d6$0$8844$426a74cc@news.free.fr>,
a écrit :
parle tout de même de fragmentation de la RAM (conception de malloc)
même si c'est pour indiquer qu'elle est réduite. Cela semble donc être
une préoccupation des gestionnaires de mémoire.
Ce n'est pas la fragmentation de la RAM, c'est la fragmentation de l'espace
mémoire d'un processus dont il est question ici.
Au fil du temps et après des mois d'utilisation intensive de la RAM il
peut être judicieux de tout remettre à zéro.
Sur une architecture avec MMU, au niveau de l'OS, non, pas vraiment.
parle tout de même de fragmentation de la RAM (conception de malloc) même si c'est pour indiquer qu'elle est réduite. Cela semble donc être une préoccupation des gestionnaires de mémoire.
Ce n'est pas la fragmentation de la RAM, c'est la fragmentation de l'espace mémoire d'un processus dont il est question ici.
Au fil du temps et après des mois d'utilisation intensive de la RAM il peut être judicieux de tout remettre à zéro.
Sur une architecture avec MMU, au niveau de l'OS, non, pas vraiment.
Pascal Hambourg
Nicolas George a écrit :
Pascal Hambourg , dans le message <jbtcgu$5mi$, a écrit :
Vu les résultats chez moi c'est plutôt en Mio (2^20 octets).
Tu me déçois, je te pensais au dessus de ce genre d'absurdité.
J'ai eu une formation scientifique/technique et ne suis pas informaticien à la base, et j'ai assez vite été mal à l'aise avec le fait que les préfixes multiplicateurs SI aient des valeurs différentes en informatique, avec tout le lot de confusion que cela apporte. Donc lorsque des préfixes binaires binaires non ambigus ont été normalisés, j'ai été très content et j'incite à leur usage autant que possible. Après tout, ce n'est qu'un petit 'i' à rajouter ici et là. Je note d'ailleurs qu'on retrouve maintenant ce petit 'i' dans plusieurs outils courant intégrés aux systèmes GNU/Linux comme ifconfig.
Nicolas George a écrit :
Pascal Hambourg , dans le message <jbtcgu$5mi$1@saria.nerim.net>, a
écrit :
Vu les résultats chez moi c'est plutôt en Mio (2^20 octets).
Tu me déçois, je te pensais au dessus de ce genre d'absurdité.
J'ai eu une formation scientifique/technique et ne suis pas
informaticien à la base, et j'ai assez vite été mal à l'aise avec le
fait que les préfixes multiplicateurs SI aient des valeurs différentes
en informatique, avec tout le lot de confusion que cela apporte. Donc
lorsque des préfixes binaires binaires non ambigus ont été normalisés,
j'ai été très content et j'incite à leur usage autant que possible.
Après tout, ce n'est qu'un petit 'i' à rajouter ici et là. Je note
d'ailleurs qu'on retrouve maintenant ce petit 'i' dans plusieurs outils
courant intégrés aux systèmes GNU/Linux comme ifconfig.
Pascal Hambourg , dans le message <jbtcgu$5mi$, a écrit :
Vu les résultats chez moi c'est plutôt en Mio (2^20 octets).
Tu me déçois, je te pensais au dessus de ce genre d'absurdité.
J'ai eu une formation scientifique/technique et ne suis pas informaticien à la base, et j'ai assez vite été mal à l'aise avec le fait que les préfixes multiplicateurs SI aient des valeurs différentes en informatique, avec tout le lot de confusion que cela apporte. Donc lorsque des préfixes binaires binaires non ambigus ont été normalisés, j'ai été très content et j'incite à leur usage autant que possible. Après tout, ce n'est qu'un petit 'i' à rajouter ici et là. Je note d'ailleurs qu'on retrouve maintenant ce petit 'i' dans plusieurs outils courant intégrés aux systèmes GNU/Linux comme ifconfig.
Pascal Hambourg
Lucas Levrel a écrit :
Le 9 décembre 2011, Eric Masson a écrit :
Le schéma de partionnement MBR est une saleté qui aurait du disparaitre depuis longtemps, la résistance au changement du marché PC est assez étonnante.
If it works, don't fix it...
Si ça marchait si bien, pourquoi avoir inventé GPT ?
Lucas Levrel a écrit :
Le 9 décembre 2011, Eric Masson a écrit :
Le schéma de partionnement MBR est une saleté qui aurait du disparaitre
depuis longtemps, la résistance au changement du marché PC est assez
étonnante.
If it works, don't fix it...
Si ça marchait si bien, pourquoi avoir inventé GPT ?
Le schéma de partionnement MBR est une saleté qui aurait du disparaitre depuis longtemps, la résistance au changement du marché PC est assez étonnante.
If it works, don't fix it...
Si ça marchait si bien, pourquoi avoir inventé GPT ?
Nicolas George
Pascal Hambourg , dans le message <jbv571$p09$, a écrit :
J'ai eu une formation scientifique/technique et ne suis pas informaticien à la base, et j'ai assez vite été mal à l'aise avec le fait que les préfixes multiplicateurs SI aient des valeurs différentes en informatique, avec tout le lot de confusion que cela apporte.
Il n'y a absolument aucune confusion : dès lors qu'on fait de l'informatique à un niveau assez pointu pour que 2,4% de différence soient remarquables, on sait pertinemment ce dont il est question.
Les préfixes usuels ont signifié des puissances de 1024 pendant des décennies sans ambiguïté avant que je ne sais quelle lubie vienne de définir ces néologismes hideux. Rien que ça devrait suffire à rendre l'usage légitime.
Mais ce n'est pas tout : à part les ordinateurs très primitifs, il y a de bonnes raisons techniques et pratiques pour que les quantités d'informations se déclinent en puissances de deux, et absolument aucune pour des puissances de dix.
En fait, le seul mérite qu'il y ait à ce que tel ou tel institut préconise que ces préfixes désignent des puissances de mille, c'est d'éviter aux marchands de disques durs et de connectivité réseau d'être condamnés pour publicité mensongère. Je ne serais d'ailleurs pas surpris que cette soit disant normalisation n'aie vu le jour qu'après un intense lobbying des acteurs susnommés.
Une dernière remarque à ce sujet : j'ai déjà vu, en achetant des disques durs et des clefs USB, giga signifier aussi bien 1024×1024×1000 (exactement), 1024×1000×1000 ou 1000×1000×1000 (approximativement). Et je n'ai jamais vu d'objet physique dont la taille soit un multiple exact d'un million d'octets, preuve à mon sens que les unités multiples de mille sont totalement inutile.
Tu es parfaitement en droit de gaspiller ton temps et ta place à ajouter des i disgracieux entre M et O, mais reprendre quelqu'un à ce sujet, c'est exactement comme reprendre quelqu'un sur une prétendue faute de français qui, après examen plus détaillé, s'avère parfaitement correcte.
Pascal Hambourg , dans le message <jbv571$p09$1@saria.nerim.net>, a
écrit :
J'ai eu une formation scientifique/technique et ne suis pas
informaticien à la base, et j'ai assez vite été mal à l'aise avec le
fait que les préfixes multiplicateurs SI aient des valeurs différentes
en informatique, avec tout le lot de confusion que cela apporte.
Il n'y a absolument aucune confusion : dès lors qu'on fait de l'informatique
à un niveau assez pointu pour que 2,4% de différence soient remarquables, on
sait pertinemment ce dont il est question.
Les préfixes usuels ont signifié des puissances de 1024 pendant des
décennies sans ambiguïté avant que je ne sais quelle lubie vienne de définir
ces néologismes hideux. Rien que ça devrait suffire à rendre l'usage
légitime.
Mais ce n'est pas tout : à part les ordinateurs très primitifs, il y a de
bonnes raisons techniques et pratiques pour que les quantités d'informations
se déclinent en puissances de deux, et absolument aucune pour des puissances
de dix.
En fait, le seul mérite qu'il y ait à ce que tel ou tel institut préconise
que ces préfixes désignent des puissances de mille, c'est d'éviter aux
marchands de disques durs et de connectivité réseau d'être condamnés pour
publicité mensongère. Je ne serais d'ailleurs pas surpris que cette
soit disant normalisation n'aie vu le jour qu'après un intense lobbying des
acteurs susnommés.
Une dernière remarque à ce sujet : j'ai déjà vu, en achetant des disques
durs et des clefs USB, giga signifier aussi bien 1024×1024×1000
(exactement), 1024×1000×1000 ou 1000×1000×1000 (approximativement). Et je
n'ai jamais vu d'objet physique dont la taille soit un multiple exact d'un
million d'octets, preuve à mon sens que les unités multiples de mille sont
totalement inutile.
Tu es parfaitement en droit de gaspiller ton temps et ta place à ajouter des
i disgracieux entre M et O, mais reprendre quelqu'un à ce sujet, c'est
exactement comme reprendre quelqu'un sur une prétendue faute de français
qui, après examen plus détaillé, s'avère parfaitement correcte.
Pascal Hambourg , dans le message <jbv571$p09$, a écrit :
J'ai eu une formation scientifique/technique et ne suis pas informaticien à la base, et j'ai assez vite été mal à l'aise avec le fait que les préfixes multiplicateurs SI aient des valeurs différentes en informatique, avec tout le lot de confusion que cela apporte.
Il n'y a absolument aucune confusion : dès lors qu'on fait de l'informatique à un niveau assez pointu pour que 2,4% de différence soient remarquables, on sait pertinemment ce dont il est question.
Les préfixes usuels ont signifié des puissances de 1024 pendant des décennies sans ambiguïté avant que je ne sais quelle lubie vienne de définir ces néologismes hideux. Rien que ça devrait suffire à rendre l'usage légitime.
Mais ce n'est pas tout : à part les ordinateurs très primitifs, il y a de bonnes raisons techniques et pratiques pour que les quantités d'informations se déclinent en puissances de deux, et absolument aucune pour des puissances de dix.
En fait, le seul mérite qu'il y ait à ce que tel ou tel institut préconise que ces préfixes désignent des puissances de mille, c'est d'éviter aux marchands de disques durs et de connectivité réseau d'être condamnés pour publicité mensongère. Je ne serais d'ailleurs pas surpris que cette soit disant normalisation n'aie vu le jour qu'après un intense lobbying des acteurs susnommés.
Une dernière remarque à ce sujet : j'ai déjà vu, en achetant des disques durs et des clefs USB, giga signifier aussi bien 1024×1024×1000 (exactement), 1024×1000×1000 ou 1000×1000×1000 (approximativement). Et je n'ai jamais vu d'objet physique dont la taille soit un multiple exact d'un million d'octets, preuve à mon sens que les unités multiples de mille sont totalement inutile.
Tu es parfaitement en droit de gaspiller ton temps et ta place à ajouter des i disgracieux entre M et O, mais reprendre quelqu'un à ce sujet, c'est exactement comme reprendre quelqu'un sur une prétendue faute de français qui, après examen plus détaillé, s'avère parfaitement correcte.
Pascal Hambourg
Nicolas George a écrit :
Pascal Hambourg , dans le message <jbv571$p09$, a écrit :
J'ai eu une formation scientifique/technique et ne suis pas informaticien à la base, et j'ai assez vite été mal à l'aise avec le fait que les préfixes multiplicateurs SI aient des valeurs différentes en informatique, avec tout le lot de confusion que cela apporte.
Il n'y a absolument aucune confusion : dès lors qu'on fait de l'informatique à un niveau assez pointu pour que 2,4% de différence soient remarquables, on sait pertinemment ce dont il est question.
Avec des capacités de disque en giga-octets, c'est plutôt 7,4%. Combien de fois ai-je lu sur tel ou tel forum "où sont passés les x Go qui manquent entre la capacité du disque et celle du système de fichiers"...
Les préfixes usuels ont signifié des puissances de 1024 pendant des décennies sans ambiguïté avant que je ne sais quelle lubie vienne de définir ces néologismes hideux. Rien que ça devrait suffire à rendre l'usage légitime.
C'est ton opinion.
Mais ce n'est pas tout : à part les ordinateurs très primitifs, il y a de bonnes raisons techniques et pratiques pour que les quantités d'informations se déclinent en puissances de deux, et absolument aucune pour des puissances de dix.
Je n'ai jamais prétendu le contraire. D'où l'utilité des préfixes binaires. Mais à condition qu'ils soient différenciés des préfixes SI. Car l'informatique n'est pas un domaine isolé de tous les autres qui utilisent les préfixes SI. Un exemple trivial : un volume de données s'exprime en puissance de 2 mais un débit de transmission en puissance de 10. L'erreur est alors facile de confondre préfixes binaires et décimaux.
Tu es parfaitement en droit de gaspiller ton temps et ta place à ajouter des i disgracieux entre M et O, mais reprendre quelqu'un à ce sujet, c'est exactement comme reprendre quelqu'un sur une prétendue faute de français qui, après examen plus détaillé, s'avère parfaitement correcte.
C'est ton opinion.
Nicolas George a écrit :
Pascal Hambourg , dans le message <jbv571$p09$1@saria.nerim.net>, a
écrit :
J'ai eu une formation scientifique/technique et ne suis pas
informaticien à la base, et j'ai assez vite été mal à l'aise avec le
fait que les préfixes multiplicateurs SI aient des valeurs différentes
en informatique, avec tout le lot de confusion que cela apporte.
Il n'y a absolument aucune confusion : dès lors qu'on fait de l'informatique
à un niveau assez pointu pour que 2,4% de différence soient remarquables, on
sait pertinemment ce dont il est question.
Avec des capacités de disque en giga-octets, c'est plutôt 7,4%.
Combien de fois ai-je lu sur tel ou tel forum "où sont passés les x Go
qui manquent entre la capacité du disque et celle du système de fichiers"...
Les préfixes usuels ont signifié des puissances de 1024 pendant des
décennies sans ambiguïté avant que je ne sais quelle lubie vienne de définir
ces néologismes hideux. Rien que ça devrait suffire à rendre l'usage
légitime.
C'est ton opinion.
Mais ce n'est pas tout : à part les ordinateurs très primitifs, il y a de
bonnes raisons techniques et pratiques pour que les quantités d'informations
se déclinent en puissances de deux, et absolument aucune pour des puissances
de dix.
Je n'ai jamais prétendu le contraire. D'où l'utilité des préfixes
binaires. Mais à condition qu'ils soient différenciés des préfixes SI.
Car l'informatique n'est pas un domaine isolé de tous les autres qui
utilisent les préfixes SI. Un exemple trivial : un volume de données
s'exprime en puissance de 2 mais un débit de transmission en puissance
de 10. L'erreur est alors facile de confondre préfixes binaires et décimaux.
Tu es parfaitement en droit de gaspiller ton temps et ta place à ajouter des
i disgracieux entre M et O, mais reprendre quelqu'un à ce sujet, c'est
exactement comme reprendre quelqu'un sur une prétendue faute de français
qui, après examen plus détaillé, s'avère parfaitement correcte.
Pascal Hambourg , dans le message <jbv571$p09$, a écrit :
J'ai eu une formation scientifique/technique et ne suis pas informaticien à la base, et j'ai assez vite été mal à l'aise avec le fait que les préfixes multiplicateurs SI aient des valeurs différentes en informatique, avec tout le lot de confusion que cela apporte.
Il n'y a absolument aucune confusion : dès lors qu'on fait de l'informatique à un niveau assez pointu pour que 2,4% de différence soient remarquables, on sait pertinemment ce dont il est question.
Avec des capacités de disque en giga-octets, c'est plutôt 7,4%. Combien de fois ai-je lu sur tel ou tel forum "où sont passés les x Go qui manquent entre la capacité du disque et celle du système de fichiers"...
Les préfixes usuels ont signifié des puissances de 1024 pendant des décennies sans ambiguïté avant que je ne sais quelle lubie vienne de définir ces néologismes hideux. Rien que ça devrait suffire à rendre l'usage légitime.
C'est ton opinion.
Mais ce n'est pas tout : à part les ordinateurs très primitifs, il y a de bonnes raisons techniques et pratiques pour que les quantités d'informations se déclinent en puissances de deux, et absolument aucune pour des puissances de dix.
Je n'ai jamais prétendu le contraire. D'où l'utilité des préfixes binaires. Mais à condition qu'ils soient différenciés des préfixes SI. Car l'informatique n'est pas un domaine isolé de tous les autres qui utilisent les préfixes SI. Un exemple trivial : un volume de données s'exprime en puissance de 2 mais un débit de transmission en puissance de 10. L'erreur est alors facile de confondre préfixes binaires et décimaux.
Tu es parfaitement en droit de gaspiller ton temps et ta place à ajouter des i disgracieux entre M et O, mais reprendre quelqu'un à ce sujet, c'est exactement comme reprendre quelqu'un sur une prétendue faute de français qui, après examen plus détaillé, s'avère parfaitement correcte.