j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko.
Dans chaque feuille, les lignes et les colonnes vides ont été
supprimées, donc il ne reste pas de zone fantome.
Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules.
Il n'y a aucune image.
Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers :
1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko.
1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko.
5 feuilles avec pas grand chose dedans -> 3.279 ko.
Donc 6689 + 3963 + 3279 -> 13.931 ko.
Donc les trois fichiers font 65 % de plus que le fichier original.
Est-ce normal ? Y a-t'il une explication "cartésienne" ou
"microsoftienne" ? Y a-t'il quelque chose à rabioter ?
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
LE TROLL
Bonjour,
Oui, un fichier emporte son entête invisible (avec ses paramètres, ses formats, ses tailles, son nom, ses dates, et plein d'autres choses encore)... Par exemple, avec un logiciel prévu pour, tu ouvre un *.doc, et tu vas voir que sans rien écrire, tu as déjà plein d'écritures... Par exemple là, je viens d'ouvrir un classeur vide, il fait 14 ko. Ainsi tu as ta réponse, si tu as un fichier avec 50ko d'entête et 30 ko de datas, et que tu en fais trois fichiers de même type, notamment sous Word, tu peux te retrouver avec ((10 + 50 ko) * 3 ) = 180 ko pour à la base avoir 80 ko, ça double ici...
Oui, ça doit pouvoir se réduire. Mais, un fichier d'environ 9 Mo de datas, c'est "irrationnel", sa manipulation et son exploitation est beaucoup trop longue et lourde! Surtout en mode interprété. Et difficile à gérer, par exemple, une liste n'accepte qu'environ 32.000 lignes. L'optimiser : Oui ! Par exemple l'enregistrer en binaire, ou encore en hexadécimal. On peut rajouter une seconde couche manuellement, à savoir, si tu as des espaces inutiles (cas dramatique d'un fichier qui aurait des datas de taille fixe, quel que soit le contenu), dans ce cas tu peux réduire les blanc notamment, si par exemple tu as 4 blancs (esp), à la place tu peux mettre #4b, et dans ce cas tu gagnes 1 octet. Mais certes, ça prend davantage de temps après, pour le retranscrire et le coder avant enregistrement. Pour l'accès, il faut le faire par la méthode des moitiés, tu gagnes 25% de vitesse, tu attaques chaque lecture à la moitié de la taille, ainsi t'as 1 chance sur 2 (50%), de tomber dans la bonne moitié au lieu de tout lire (1 fois 50% + 1 fois 100% (?)= 150%) / 2) = 75% env. L'ordre des enregistrements aussi peut améliorer la vitesse, si tes recherches ont un rapport avec un classement possible, il faut le classer ainsi, pour y aller directement. Ensuite, si tu as des datas fixes, genre BDD qui ne bouge plus, tu peux indexer en dur, par exemple telle recherche commence à tel octet du fichier. Evidemment on peut faire ce type d'indexation en dynamique, mais là ça va prendre trop de temps de réindexer à chaque fois, c'et le type de truc qu'il faut faire une fois à l'ouverture par exemple. Ainsi, tu te trouves avec ton fichier de datas et un fichier d'indexs qui est une table des matière du premier en somme (fichier indexé). In fine, ta méthode de découper les fichiers est aussi une bonne méthode, ça augmente la vitesse de recherche, sous condition que tu puisses indiquer dans quel fichier chercher... Sans omettre de masquer les objets lors du chargement, ça va plus vite.
Le sujet est intéressant, mais il relève davantage de la programmation en code avec un logiciel exécuté, et non par interprété sous Excel (que je connais peu). Excel c'est bien, mais pour dépanner avec une maintenance prête à intervenir, il est ce qu'est le palan à la grue :o)
-- Romans, logiciels, email, site personnel http://irolog.free.fr/joe.htm ------------------------------------------------------------------------------------
"Jac" a écrit dans le message de news: | Bonjour à tous, | | j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko. | Dans chaque feuille, les lignes et les colonnes vides ont été | supprimées, donc il ne reste pas de zone fantome. | Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules. | Il n'y a aucune image. | | Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers : | | 1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko. | 1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko. | 5 feuilles avec pas grand chose dedans -> 3.279 ko. | | Donc 6689 + 3963 + 3279 -> 13.931 ko. | | Donc les trois fichiers font 65 % de plus que le fichier original. | | Est-ce normal ? Y a-t'il une explication "cartésienne" ou | "microsoftienne" ? Y a-t'il quelque chose à rabioter ? | | Merci d'avance. | | Jac | |
Bonjour,
Oui, un fichier emporte son entête invisible
(avec ses paramètres, ses formats, ses tailles,
son nom, ses dates, et plein d'autres choses
encore)... Par exemple, avec un logiciel prévu
pour, tu ouvre un *.doc, et tu vas voir que sans
rien écrire, tu as déjà plein d'écritures... Par
exemple là, je viens d'ouvrir un classeur vide, il
fait 14 ko. Ainsi tu as ta réponse, si tu as un
fichier avec 50ko d'entête et 30 ko de datas, et
que tu en fais trois fichiers de même type,
notamment sous Word, tu peux te retrouver avec
((10 + 50 ko) * 3 ) = 180 ko pour à la base avoir
80 ko, ça double ici...
Oui, ça doit pouvoir se réduire. Mais, un
fichier d'environ 9 Mo de datas, c'est
"irrationnel", sa manipulation et son exploitation
est beaucoup trop longue et lourde! Surtout en
mode interprété. Et difficile à gérer, par
exemple, une liste n'accepte qu'environ 32.000
lignes.
L'optimiser : Oui ! Par exemple l'enregistrer en
binaire, ou encore en hexadécimal. On peut
rajouter une seconde couche manuellement, à
savoir, si tu as des espaces inutiles (cas
dramatique d'un fichier qui aurait des datas de
taille fixe, quel que soit le contenu), dans ce
cas tu peux réduire les blanc notamment, si par
exemple tu as 4 blancs (esp), à la place tu peux
mettre #4b, et dans ce cas tu gagnes 1 octet. Mais
certes, ça prend davantage de temps après, pour le
retranscrire et le coder avant enregistrement.
Pour l'accès, il faut le faire par la méthode des
moitiés, tu gagnes 25% de vitesse, tu attaques
chaque lecture à la moitié de la taille, ainsi
t'as 1 chance sur 2 (50%), de tomber dans la bonne
moitié au lieu de tout lire (1 fois 50% + 1 fois
100% (?)= 150%) / 2) = 75% env.
L'ordre des enregistrements aussi peut améliorer
la vitesse, si tes recherches ont un rapport avec
un classement possible, il faut le classer ainsi,
pour y aller directement. Ensuite, si tu as des
datas fixes, genre BDD qui ne bouge plus, tu peux
indexer en dur, par exemple telle recherche
commence à tel octet du fichier. Evidemment on
peut faire ce type d'indexation en dynamique, mais
là ça va prendre trop de temps de réindexer à
chaque fois, c'et le type de truc qu'il faut faire
une fois à l'ouverture par exemple. Ainsi, tu te
trouves avec ton fichier de datas et un fichier
d'indexs qui est une table des matière du premier
en somme (fichier indexé).
In fine, ta méthode de découper les fichiers est
aussi une bonne méthode, ça augmente la vitesse de
recherche, sous condition que tu puisses indiquer
dans quel fichier chercher... Sans omettre de
masquer les objets lors du chargement, ça va plus
vite.
Le sujet est intéressant, mais il relève davantage
de la programmation en code avec un logiciel
exécuté, et non par interprété sous Excel (que je
connais peu). Excel c'est bien, mais pour dépanner
avec une maintenance prête à intervenir, il est ce
qu'est le palan à la grue :o)
--
Romans, logiciels, email, site personnel
http://irolog.free.fr/joe.htm
------------------------------------------------------------------------------------
"Jac" <Jsansp@mfra.net> a écrit dans le message de
news: mn.c9747d871eb738f2.89607@mfra.net...
| Bonjour à tous,
|
| j'ai un fichier qui contient 7 feuilles et pèse
8.463 ko.
| Dans chaque feuille, les lignes et les colonnes
vides ont été
| supprimées, donc il ne reste pas de zone
fantome.
| Il n'y a aucun calcul. Tout a été copié / collé
spécial valeurs seules.
| Il n'y a aucune image.
|
| Pour "faciliter" le travail (crois-je...), je
l'éclate en 3 fichiers :
|
| 1 feuille 16.000 lignes x 50 colonnes ->
6.689 ko.
| 1 feuille 5.000 lignes x 24 colonnes ->
3.963 ko.
| 5 feuilles avec pas grand chose dedans ->
3.279 ko.
|
| Donc 6689 + 3963 + 3279 ->
13.931 ko.
|
| Donc les trois fichiers font 65 % de plus que le
fichier original.
|
| Est-ce normal ? Y a-t'il une explication
"cartésienne" ou
| "microsoftienne" ? Y a-t'il quelque chose à
rabioter ?
|
| Merci d'avance.
|
| Jac
|
|
Oui, un fichier emporte son entête invisible (avec ses paramètres, ses formats, ses tailles, son nom, ses dates, et plein d'autres choses encore)... Par exemple, avec un logiciel prévu pour, tu ouvre un *.doc, et tu vas voir que sans rien écrire, tu as déjà plein d'écritures... Par exemple là, je viens d'ouvrir un classeur vide, il fait 14 ko. Ainsi tu as ta réponse, si tu as un fichier avec 50ko d'entête et 30 ko de datas, et que tu en fais trois fichiers de même type, notamment sous Word, tu peux te retrouver avec ((10 + 50 ko) * 3 ) = 180 ko pour à la base avoir 80 ko, ça double ici...
Oui, ça doit pouvoir se réduire. Mais, un fichier d'environ 9 Mo de datas, c'est "irrationnel", sa manipulation et son exploitation est beaucoup trop longue et lourde! Surtout en mode interprété. Et difficile à gérer, par exemple, une liste n'accepte qu'environ 32.000 lignes. L'optimiser : Oui ! Par exemple l'enregistrer en binaire, ou encore en hexadécimal. On peut rajouter une seconde couche manuellement, à savoir, si tu as des espaces inutiles (cas dramatique d'un fichier qui aurait des datas de taille fixe, quel que soit le contenu), dans ce cas tu peux réduire les blanc notamment, si par exemple tu as 4 blancs (esp), à la place tu peux mettre #4b, et dans ce cas tu gagnes 1 octet. Mais certes, ça prend davantage de temps après, pour le retranscrire et le coder avant enregistrement. Pour l'accès, il faut le faire par la méthode des moitiés, tu gagnes 25% de vitesse, tu attaques chaque lecture à la moitié de la taille, ainsi t'as 1 chance sur 2 (50%), de tomber dans la bonne moitié au lieu de tout lire (1 fois 50% + 1 fois 100% (?)= 150%) / 2) = 75% env. L'ordre des enregistrements aussi peut améliorer la vitesse, si tes recherches ont un rapport avec un classement possible, il faut le classer ainsi, pour y aller directement. Ensuite, si tu as des datas fixes, genre BDD qui ne bouge plus, tu peux indexer en dur, par exemple telle recherche commence à tel octet du fichier. Evidemment on peut faire ce type d'indexation en dynamique, mais là ça va prendre trop de temps de réindexer à chaque fois, c'et le type de truc qu'il faut faire une fois à l'ouverture par exemple. Ainsi, tu te trouves avec ton fichier de datas et un fichier d'indexs qui est une table des matière du premier en somme (fichier indexé). In fine, ta méthode de découper les fichiers est aussi une bonne méthode, ça augmente la vitesse de recherche, sous condition que tu puisses indiquer dans quel fichier chercher... Sans omettre de masquer les objets lors du chargement, ça va plus vite.
Le sujet est intéressant, mais il relève davantage de la programmation en code avec un logiciel exécuté, et non par interprété sous Excel (que je connais peu). Excel c'est bien, mais pour dépanner avec une maintenance prête à intervenir, il est ce qu'est le palan à la grue :o)
-- Romans, logiciels, email, site personnel http://irolog.free.fr/joe.htm ------------------------------------------------------------------------------------
"Jac" a écrit dans le message de news: | Bonjour à tous, | | j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko. | Dans chaque feuille, les lignes et les colonnes vides ont été | supprimées, donc il ne reste pas de zone fantome. | Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules. | Il n'y a aucune image. | | Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers : | | 1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko. | 1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko. | 5 feuilles avec pas grand chose dedans -> 3.279 ko. | | Donc 6689 + 3963 + 3279 -> 13.931 ko. | | Donc les trois fichiers font 65 % de plus que le fichier original. | | Est-ce normal ? Y a-t'il une explication "cartésienne" ou | "microsoftienne" ? Y a-t'il quelque chose à rabioter ? | | Merci d'avance. | | Jac | |
Jac
... Aujourd'hui, ça a changé !!!
Les résultats décrits ci-dessous ont été obtenus de la façon suivante : je "sors" chaque feuille ou groupe de feuilles par macro (...move...) du classeur original pour en faire un nouveau classeur. Et aujourd'hui, XP, même après une réinstallation, ne veut plus faire de move.
Donc nouvelle procédure : j'enregistre mon fichier complet sous quatre noms différents puis je supprime les feuille "inutiles" et je réenregistre. Et là, miracle !!! Les tailles de fichiers sont passées à 6.693 + 1.740 + 31 + 31 ko soit un total de 8.495 ko soit un surplus d'à peine 32 ko, ce qui est tout à fait acceptable et compréhensible.
Deux façons d'arriver au même résultat, mais des tailles très différentes. Pourquoi ? Comment ? Mystère et boules de gomme...
Bonjour à tous,
j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko. Dans chaque feuille, les lignes et les colonnes vides ont été supprimées, donc il ne reste pas de zone fantome. Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules. Il n'y a aucune image.
Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers :
1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko. 1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko. 5 feuilles avec pas grand chose dedans -> 3.279 ko.
Donc 6689 + 3963 + 3279 -> 13.931 ko.
Donc les trois fichiers font 65 % de plus que le fichier original.
Est-ce normal ? Y a-t'il une explication "cartésienne" ou "microsoftienne" ? Y a-t'il quelque chose à rabioter ?
Merci d'avance.
Jac
... Aujourd'hui, ça a changé !!!
Les résultats décrits ci-dessous ont été obtenus de la façon suivante :
je "sors" chaque feuille ou groupe de feuilles par macro (...move...)
du classeur original pour en faire un nouveau classeur.
Et aujourd'hui, XP, même après une réinstallation, ne veut plus faire
de move.
Donc nouvelle procédure : j'enregistre mon fichier complet sous quatre
noms différents puis je supprime les feuille "inutiles" et je
réenregistre. Et là, miracle !!! Les tailles de fichiers sont passées à
6.693 + 1.740 + 31 + 31 ko soit un total de 8.495 ko soit un surplus
d'à peine 32 ko, ce qui est tout à fait acceptable et compréhensible.
Deux façons d'arriver au même résultat, mais des tailles très
différentes. Pourquoi ? Comment ? Mystère et boules de gomme...
Bonjour à tous,
j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko.
Dans chaque feuille, les lignes et les colonnes vides ont été supprimées,
donc il ne reste pas de zone fantome.
Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules.
Il n'y a aucune image.
Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers :
1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko.
1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko.
5 feuilles avec pas grand chose dedans -> 3.279 ko.
Donc 6689 + 3963 + 3279 -> 13.931 ko.
Donc les trois fichiers font 65 % de plus que le fichier original.
Est-ce normal ? Y a-t'il une explication "cartésienne" ou "microsoftienne" ?
Y a-t'il quelque chose à rabioter ?
Les résultats décrits ci-dessous ont été obtenus de la façon suivante : je "sors" chaque feuille ou groupe de feuilles par macro (...move...) du classeur original pour en faire un nouveau classeur. Et aujourd'hui, XP, même après une réinstallation, ne veut plus faire de move.
Donc nouvelle procédure : j'enregistre mon fichier complet sous quatre noms différents puis je supprime les feuille "inutiles" et je réenregistre. Et là, miracle !!! Les tailles de fichiers sont passées à 6.693 + 1.740 + 31 + 31 ko soit un total de 8.495 ko soit un surplus d'à peine 32 ko, ce qui est tout à fait acceptable et compréhensible.
Deux façons d'arriver au même résultat, mais des tailles très différentes. Pourquoi ? Comment ? Mystère et boules de gomme...
Bonjour à tous,
j'ai un fichier qui contient 7 feuilles et pèse 8.463 ko. Dans chaque feuille, les lignes et les colonnes vides ont été supprimées, donc il ne reste pas de zone fantome. Il n'y a aucun calcul. Tout a été copié / collé spécial valeurs seules. Il n'y a aucune image.
Pour "faciliter" le travail (crois-je...), je l'éclate en 3 fichiers :
1 feuille 16.000 lignes x 50 colonnes -> 6.689 ko. 1 feuille 5.000 lignes x 24 colonnes -> 3.963 ko. 5 feuilles avec pas grand chose dedans -> 3.279 ko.
Donc 6689 + 3963 + 3279 -> 13.931 ko.
Donc les trois fichiers font 65 % de plus que le fichier original.
Est-ce normal ? Y a-t'il une explication "cartésienne" ou "microsoftienne" ? Y a-t'il quelque chose à rabioter ?