Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Taille d'un fichier éclaté en 3

2 réponses
Avatar
Jac
Bonjour à tous,

j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko.
Dans chaque feuille, les lignes et les colonnes vides ont été
supprimées, donc il ne reste pas de zone fantome.
Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules.
Il n'y a aucune image.

Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers :

1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko.
1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko.
5 feuilles avec pas grand chose dedans -> 3.279 ko.

Donc 6689 + 3963 + 3279 -> 13.931 ko.

Donc les trois fichiers font 65 % de plus que le fichier original.

Est-ce normal ? Y a-t'il une explication "cartésienne" ou
"microsoftienne" ? Y a-t'il quelque chose à rabioter ?

Merci d'avance.

Jac

2 réponses

Avatar
LE TROLL
Bonjour,

Oui, un fichier emporte son entête invisible
(avec ses paramètres, ses formats, ses tailles,
son nom, ses dates, et plein d'autres choses
encore)... Par exemple, avec un logiciel prévu
pour, tu ouvre un *.doc, et tu vas voir que sans
rien écrire, tu as déjà plein d'écritures... Par
exemple là, je viens d'ouvrir un classeur vide, il
fait 14 ko. Ainsi tu as ta réponse, si tu as un
fichier avec 50ko d'entête et 30 ko de datas, et
que tu en fais trois fichiers de même type,
notamment sous Word, tu peux te retrouver avec
((10 + 50 ko) * 3 ) = 180 ko pour à la base avoir
80 ko, ça double ici...

Oui, ça doit pouvoir se réduire. Mais, un
fichier d'environ 9 Mo de datas, c'est
"irrationnel", sa manipulation et son exploitation
est beaucoup trop longue et lourde! Surtout en
mode interprété. Et difficile à gérer, par
exemple, une liste n'accepte qu'environ 32.000
lignes.
L'optimiser : Oui ! Par exemple l'enregistrer en
binaire, ou encore en hexadécimal. On peut
rajouter une seconde couche manuellement, à
savoir, si tu as des espaces inutiles (cas
dramatique d'un fichier qui aurait des datas de
taille fixe, quel que soit le contenu), dans ce
cas tu peux réduire les blanc notamment, si par
exemple tu as 4 blancs (esp), à la place tu peux
mettre #4b, et dans ce cas tu gagnes 1 octet. Mais
certes, ça prend davantage de temps après, pour le
retranscrire et le coder avant enregistrement.
Pour l'accès, il faut le faire par la méthode des
moitiés, tu gagnes 25% de vitesse, tu attaques
chaque lecture à la moitié de la taille, ainsi
t'as 1 chance sur 2 (50%), de tomber dans la bonne
moitié au lieu de tout lire (1 fois 50% + 1 fois
100% (?)= 150%) / 2) = 75% env.
L'ordre des enregistrements aussi peut améliorer
la vitesse, si tes recherches ont un rapport avec
un classement possible, il faut le classer ainsi,
pour y aller directement. Ensuite, si tu as des
datas fixes, genre BDD qui ne bouge plus, tu peux
indexer en dur, par exemple telle recherche
commence à tel octet du fichier. Evidemment on
peut faire ce type d'indexation en dynamique, mais
là ça va prendre trop de temps de réindexer à
chaque fois, c'et le type de truc qu'il faut faire
une fois à l'ouverture par exemple. Ainsi, tu te
trouves avec ton fichier de datas et un fichier
d'indexs qui est une table des matière du premier
en somme (fichier indexé).
In fine, ta méthode de découper les fichiers est
aussi une bonne méthode, ça augmente la vitesse de
recherche, sous condition que tu puisses indiquer
dans quel fichier chercher... Sans omettre de
masquer les objets lors du chargement, ça va plus
vite.

Le sujet est intéressant, mais il relève davantage
de la programmation en code avec un logiciel
exécuté, et non par interprété sous Excel (que je
connais peu). Excel c'est bien, mais pour dépanner
avec une maintenance prête à intervenir, il est ce
qu'est le palan à la grue :o)

--
Romans, logiciels, email, site personnel
http://irolog.free.fr/joe.htm
------------------------------------------------------------------------------------







"Jac" a écrit dans le message de
news:
| Bonjour à tous,
|
| j'ai un fichier qui contient 7 feuilles et pèse
8.463 ko.
| Dans chaque feuille, les lignes et les colonnes
vides ont été
| supprimées, donc il ne reste pas de zone
fantome.
| Il n'y a aucun calcul. Tout a été copié / collé
spécial valeurs seules.
| Il n'y a aucune image.
|
| Pour "faciliter" le travail (crois-je...), je
l'éclate en 3 fichiers :
|
| 1 feuille 16.000 lignes x 50 colonnes ->
6.689 ko.
| 1 feuille 5.000 lignes x 24 colonnes ->
3.963 ko.
| 5 feuilles avec pas grand chose dedans ->
3.279 ko.
|
| Donc 6689 + 3963 + 3279 ->
13.931 ko.
|
| Donc les trois fichiers font 65 % de plus que le
fichier original.
|
| Est-ce normal ? Y a-t'il une explication
"cartésienne" ou
| "microsoftienne" ? Y a-t'il quelque chose à
rabioter ?
|
| Merci d'avance.
|
| Jac
|
|
Avatar
Jac
... Aujourd'hui, ça a changé !!!

Les résultats décrits ci-dessous ont été obtenus de la façon suivante :
je "sors" chaque feuille ou groupe de feuilles par macro (...move...)
du classeur original pour en faire un nouveau classeur.
Et aujourd'hui, XP, même après une réinstallation, ne veut plus faire
de move.

Donc nouvelle procédure : j'enregistre mon fichier complet sous quatre
noms différents puis je supprime les feuille "inutiles" et je
réenregistre. Et là, miracle !!! Les tailles de fichiers sont passées à
6.693 + 1.740 + 31 + 31 ko soit un total de 8.495 ko soit un surplus
d'à peine 32 ko, ce qui est tout à fait acceptable et compréhensible.

Deux façons d'arriver au même résultat, mais des tailles très
différentes. Pourquoi ? Comment ? Mystère et boules de gomme...


Bonjour à tous,

j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko.
Dans chaque feuille, les lignes et les colonnes vides ont été supprimées,
donc il ne reste pas de zone fantome.
Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules.
Il n'y a aucune image.

Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers :

1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko.
1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko.
5 feuilles avec pas grand chose dedans -> 3.279 ko.

Donc 6689 + 3963 + 3279 -> 13.931 ko.

Donc les trois fichiers font 65 % de plus que le fichier original.

Est-ce normal ? Y a-t'il une explication "cartésienne" ou "microsoftienne" ?
Y a-t'il quelque chose à rabioter ?

Merci d'avance.

Jac