mon expérience, très courte, sur des fichiers déjà compactés (jar standard de java je crois bien que l'algo est homologue à celui de zip) ets que bz2, fô oublier : - 1 - n'apporte pas de compaction supplémentaire intéressante (1%) ; - 2 - prend un temps fou. (dans les conditions pré-citées)
Oui, mais "statistiquement", pour les sources du noyau Linux et celles des applis de KDE, environ 20% de bande passante est économisée avec bz2. Et ça, ce n'est pas moi qui le dit, je l'ai juste lu sur les sites précédemment cités (je ne sais pas si l'info y figure encore) ;-) Ce n'est peut-être pas si mauvais que ça. Par ailleurs, tar permet de directement décompresser/compresser du bz2
Pour compresser : tar cjvf nom.tar.bz2 ./repertoire_source/* Pour décompresser : tar jxvf nom.tar.bz2
Après, c'est comme on veut :-)
-- eric bachard French OpenOffice.org Community contributor (build of french releases for Linux PPC and Mac OS X / X11) See : <http://fr.openoffice.org>
ericb <eric@b.org> wrote:
mon expérience, très courte, sur des fichiers déjà compactés (jar
standard de java je crois bien que l'algo est homologue à celui de zip)
ets que bz2, fô oublier :
- 1 - n'apporte pas de compaction supplémentaire intéressante (1%) ;
- 2 - prend un temps fou.
(dans les conditions pré-citées)
Oui, mais "statistiquement", pour les sources du noyau Linux et celles
des applis de KDE, environ 20% de bande passante est économisée avec bz2.
Et ça, ce n'est pas moi qui le dit, je l'ai juste lu sur les sites
précédemment cités (je ne sais pas si l'info y figure encore) ;-)
Ce n'est peut-être pas si mauvais que ça. Par ailleurs, tar permet de
directement décompresser/compresser du bz2
Pour compresser : tar cjvf nom.tar.bz2 ./repertoire_source/*
Pour décompresser : tar jxvf nom.tar.bz2
Après, c'est comme on veut :-)
--
eric bachard <ericb@openoffice.org>
French OpenOffice.org Community contributor (build of french releases
for Linux PPC and Mac OS X / X11)
See : <http://fr.openoffice.org>
mon expérience, très courte, sur des fichiers déjà compactés (jar standard de java je crois bien que l'algo est homologue à celui de zip) ets que bz2, fô oublier : - 1 - n'apporte pas de compaction supplémentaire intéressante (1%) ; - 2 - prend un temps fou. (dans les conditions pré-citées)
Oui, mais "statistiquement", pour les sources du noyau Linux et celles des applis de KDE, environ 20% de bande passante est économisée avec bz2. Et ça, ce n'est pas moi qui le dit, je l'ai juste lu sur les sites précédemment cités (je ne sais pas si l'info y figure encore) ;-) Ce n'est peut-être pas si mauvais que ça. Par ailleurs, tar permet de directement décompresser/compresser du bz2
Pour compresser : tar cjvf nom.tar.bz2 ./repertoire_source/* Pour décompresser : tar jxvf nom.tar.bz2
Après, c'est comme on veut :-)
-- eric bachard French OpenOffice.org Community contributor (build of french releases for Linux PPC and Mac OS X / X11) See : <http://fr.openoffice.org>
blanc
Schmurtz wrote:
Sachant que pour chaque fichier il y a une limite théorique de compression
Amha cela n'a pas de sens. Si on considère l'ensemble de tous les fichiers possibles qui font moins de N octets (quelle que soit la valeur de N), je peux toujours choisir parmi eux 256 fichiers et décider de les coder par un seul octet !... (Puis ensuite choisir 65280 autres fichiers et les coder avec deux octets... et ainsi de suite) Donc pour un fichier donné, je peux toujours choisir un algorithme de compression permettant de le coder avec un seul octet !... Donc même si la limite que tu dis existe, elle peut être rendu aussi voisine de zéro que l'on veut...
Je parle du point de vue théorique. Du point de vue pratique, bien sûr ça paraît plutôt irréalisable.
Pour continuer sur le raisonnement ci-dessus, il est assez marrant de constater (de démontrer) qu'on peut réaliser un algorithme de compression qui diminue la taille de la plupart des fichiers, tout en augmentant la taille des autres d'un seul octet (l'octet qui indiquera au début du fichier qu'il a été effectivement compressé ou non) !... -- /==/==- Jean-Paul BLANC / /--/--// quelque-part (somewhere) |/| L | en (in) /|| = ||| FRANCE
Schmurtz <moi@ici.com> wrote:
Sachant que pour
chaque fichier il y a une limite théorique de compression
Amha cela n'a pas de sens. Si on considère l'ensemble de tous les
fichiers possibles qui font moins de N octets (quelle que soit la valeur
de N), je peux toujours choisir parmi eux 256 fichiers et décider de les
coder par un seul octet !...
(Puis ensuite choisir 65280 autres fichiers et les coder avec deux
octets... et ainsi de suite)
Donc pour un fichier donné, je peux toujours choisir un algorithme de
compression permettant de le coder avec un seul octet !... Donc même si
la limite que tu dis existe, elle peut être rendu aussi voisine de zéro
que l'on veut...
Je parle du point de vue théorique. Du point de vue pratique, bien sûr
ça paraît plutôt irréalisable.
Pour continuer sur le raisonnement ci-dessus, il est assez marrant de
constater (de démontrer) qu'on peut réaliser un algorithme de
compression qui diminue la taille de la plupart des fichiers, tout en
augmentant la taille des autres d'un seul octet (l'octet qui indiquera
au début du fichier qu'il a été effectivement compressé ou non) !...
--
/==/==\- Jean-Paul BLANC
/ /--/--//\ quelque-part (somewhere)
|/| L |\ en (in)
/|| = |||\ FRANCE
Sachant que pour chaque fichier il y a une limite théorique de compression
Amha cela n'a pas de sens. Si on considère l'ensemble de tous les fichiers possibles qui font moins de N octets (quelle que soit la valeur de N), je peux toujours choisir parmi eux 256 fichiers et décider de les coder par un seul octet !... (Puis ensuite choisir 65280 autres fichiers et les coder avec deux octets... et ainsi de suite) Donc pour un fichier donné, je peux toujours choisir un algorithme de compression permettant de le coder avec un seul octet !... Donc même si la limite que tu dis existe, elle peut être rendu aussi voisine de zéro que l'on veut...
Je parle du point de vue théorique. Du point de vue pratique, bien sûr ça paraît plutôt irréalisable.
Pour continuer sur le raisonnement ci-dessus, il est assez marrant de constater (de démontrer) qu'on peut réaliser un algorithme de compression qui diminue la taille de la plupart des fichiers, tout en augmentant la taille des autres d'un seul octet (l'octet qui indiquera au début du fichier qu'il a été effectivement compressé ou non) !... -- /==/==- Jean-Paul BLANC / /--/--// quelque-part (somewhere) |/| L | en (in) /|| = ||| FRANCE