Pb avec wget et gros fichiers

Le
O.L.
Bonjour,

J'ai voulu transférer un gros fichier tar (3.5 Go) entre deux serveurs
Linux, mais j'ai rencontré des problèmes : au milieu du transfert le
comptage du nombre d'octets transférés s'est retrouvé négatif (pb de
variable qui ne supporte pas les grands nombres ?).
Et un peu plus tard, ça a carrément planté :


HTTP request sent, awaiting response 200 OK
Length: unspecified [application/x-tar]

[ <=> ] -937,947,136 9.73M/s

wget: retr.c:292: calc_rate: Assertion `bytes >= 0' failed.
Aborted


Une idée ?

Merci d'avance,
Olivier

--
Olivier Ligny
www.virgal.net (Monde persistant)
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses Page 1 / 3
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Fabien LE LEZ
Le #1895445
On Sat, 14 Jul 2007 11:06:59 +0200, O.L.
J'ai voulu transférer un gros fichier tar (3.5 Go) entre deux serveurs
Linux, mais j'ai rencontré des problèmes : au milieu du transfert le
comptage du nombre d'octets transférés s'est retrouvé négatif


Il ne serait pas un peu vieux, ton wget ?
Il me semble avoir rencontré le problème avec une vieille version ;
passer à la 1.10 l'a résolu.

sansflotusspam
Le #1895441
O.L. a commis :

Bonjour,

J'ai voulu transférer un gros fichier tar (3.5 Go) entre deux serveurs
Linux, mais j'ai rencontré des problèmes : au milieu du transfert le
comptage du nombre d'octets transférés s'est retrouvé négatif (pb de
variable qui ne supporte pas les grands nombres ?).
Et un peu plus tard, ça a carrément planté :


HTTP request sent, awaiting response... 200 OK
Length: unspecified [application/x-tar]

[ <=> ] -937,947,136 9.73M/s

wget: retr.c:292: calc_rate: Assertion `bytes >= 0' failed.
Aborted


Une idée ?

Merci d'avance,
Olivier



es-tu sûr que le FS supporte des fichiers de + de 2 GO ?
ça expliquerait que le compte devienne négatif au-desus de 2GO

Nicolas George
Le #1895439
sansflotusspam wrote in message
es-tu sûr que le FS supporte des fichiers de + de 2 GO ?
ça expliquerait que le compte devienne négatif au-desus de 2GO


Non, certainement pas. Ça ferait une erreur en écriture, mais en aucun cas
un affichage fantaisiste.

Nicolas S.
Le #1895435
Bonjour,


Bonjour,

J'ai voulu transférer un gros fichier tar (3.5 Go) entre deux serveurs
Linux, mais j'ai rencontré des problèmes : au milieu du transfert le
comptage du nombre d'octets transférés s'est retrouvé négatif (pb de
variable qui ne supporte pas les grands nombres ?).

Une idée ?


split?

--
Nicolas S.

O.L.
Le #1895432
Fabien LE LEZ avait prétendu :
On Sat, 14 Jul 2007 11:06:59 +0200, O.L.
J'ai voulu transférer un gros fichier tar (3.5 Go) entre deux serveurs
Linux, mais j'ai rencontré des problèmes : au milieu du transfert le
comptage du nombre d'octets transférés s'est retrouvé négatif


Il ne serait pas un peu vieux, ton wget ?


Apparament non :


GNU Wget 1.9.1

Copyright (C) 2003 Free Software Foundation, Inc.
This program is distributed in the hope that it will be useful,
but WITHOUT ANY WARRANTY; without even the implied warranty of
MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the
GNU General Public License for more details.

Originally written by Hrvoje Niksic
--
Olivier Ligny
www.virgal.net (Monde persistant)


Nicolas George
Le #1895431
O.L. wrote in message
Apparament non :

GNU Wget 1.9.1


C'est pas tout jeune quand même, mais ça devrait aller.

Tu l'as installé comment ?

O.L.
Le #1895429
Nicolas George avait prétendu :
O.L. wrote in message
Apparament non :

GNU Wget 1.9.1


C'est pas tout jeune quand même, mais ça devrait aller.

Tu l'as installé comment ?


Je l'ai pas installé :D

C'est la distrib de base des serveurs dédiés chez Sivit (enfin en tout
cas de celui que j'ai ...)

--
Olivier Ligny
www.virgal.net (Monde persistant)


Fabien LE LEZ
Le #1895427
On Sat, 14 Jul 2007 17:50:01 +0200, O.L.
GNU Wget 1.9.1


Il me semble bien que c'est avec cette version que je n'avais pas pu
télécharger un fichier de plus de 2 Go, ce qui m'a forcé à installer
la 1.10.

David LE BOURGEOIS
Le #1895419
Bonjour,


Bonjour.

J'ai voulu transférer un gros fichier tar (3.5 Go) entre deux serveurs
Linux, mais j'ai rencontré des problèmes : au milieu du transfert le
comptage du nombre d'octets transférés s'est retrouvé négatif (pb de
variable qui ne supporte pas les grands nombres ?).
Et un peu plus tard, ça a carrément planté :


HTTP request sent, awaiting response... 200 OK
Length: unspecified [application/x-tar]

[ <=> ] -937,947,136 9.73M/s

wget: retr.c:292: calc_rate: Assertion `bytes >= 0' failed.
Aborted


Une idée ?


Je n'ai jamais rencontré cette erreur avec wget. Mais quand il s'agit de
télécharger un fichier dont la taille est de l'ordre du Go, je me tourne
plutôt vers curl.

En effet, j'ai eu une ou deux fois le problème des 2 Go avec wget. J'ai
dû recommencer avec curl pour réussir.


D'un autre côté, il est possible aussi de découper ce gros fichiers en
de plus petits, avec split par exemple. Il suffit de les télécharger un
par un et de les recoller avec cat.

Et puis, on peut créer des données supplémentaires de réparation avec
par2, pour corriger d'éventuelles erreurs durant le transfert.
C'est très utile pour ne pas avoir à refaire le téléchargement en
entier, pour quelques octets erronés.

Enfin, préférer le protocole FTP au HTTP pour les fichiers de cette
taille est de bon usage.

Merci d'avance,


Pas de problème.

--
David LE BOURGEOIS
E-mail : david.lebourgeois (at) free.fr
Jabber : david.lebourgeois (at) jabber.fr
PGP : http://david.lebourgeois.free.fr/pgp/pubkey.asc

Nicolas George
Le #1895418
David LE BOURGEOIS wrote in message
Et puis, on peut créer des données supplémentaires de réparation avec
par2, pour corriger d'éventuelles erreurs durant le transfert.
C'est très utile pour ne pas avoir à refaire le téléchargement en
entier, pour quelques octets erronés.

Enfin, préférer le protocole FTP au HTTP pour les fichiers de cette
taille est de bon usage.


Bof. Si on en est là, il y a _une_ chose à faire : man rsync.

Publicité
Poster une réponse
Anonyme