Le Wed, 15 Sep 2010 14:24:26 +0200, Hugues a écrit :
mac os x ? :)
Darwin corei5.bete-des-vosges.org 10.4.0 Darwin Kernel Version 10.4.0: Fri Apr 23 18:27:12 PDT 2010; root:xnu-1504.7.4~1/RELEASE_X86_64 x86_64
$ wget -V GNU Wget 1.12 compilé sur darwin10.4.0.
-- La Bête des Vosges
Hugues
Ce cher "La Bete des Vosges (Francis Chartier)" a posté :
Le Wed, 15 Sep 2010 14:24:26 +0200, Hugues a écrit :
mac os x ? :)
Darwin corei5.bete-des-vosges.org 10.4.0 Darwin Kernel Version 10.4.0: Fri Apr 23 18:27:12 PDT 2010; root:xnu-1504.7.4~1/RELEASE_X86_64 x86_64
$ wget -V GNU Wget 1.12 compilé sur darwin10.4.0.
J'espère que tu as compris que ma blague portait sur "ce que tu installes tout de suite via les ports". ;)
Sinon ok, merci. je n'utilise jamais curl (je ne vois pas ce qu'il m'apporterait), et je ne me suis même pas posé la question de savoir d'où vient mon wget (je l'avais certainement installé via fink, je ne me souviens plus).
-- Hugues Hiegel [http://www.hiegel.fr/~hugues/]
Ce cher "La Bete des Vosges (Francis Chartier)" <francis@bete-des-vosges.org> a posté :
Le Wed, 15 Sep 2010 14:24:26 +0200, Hugues a écrit :
mac os x ? :)
Darwin corei5.bete-des-vosges.org 10.4.0 Darwin Kernel Version 10.4.0:
Fri Apr 23 18:27:12 PDT 2010; root:xnu-1504.7.4~1/RELEASE_X86_64 x86_64
$ wget -V
GNU Wget 1.12 compilé sur darwin10.4.0.
J'espère que tu as compris que ma blague portait sur "ce que tu
installes tout de suite via les ports". ;)
Sinon ok, merci.
je n'utilise jamais curl (je ne vois pas ce qu'il m'apporterait), et je
ne me suis même pas posé la question de savoir d'où vient mon wget (je
l'avais certainement installé via fink, je ne me souviens plus).
Ce cher "La Bete des Vosges (Francis Chartier)" a posté :
Le Wed, 15 Sep 2010 14:24:26 +0200, Hugues a écrit :
mac os x ? :)
Darwin corei5.bete-des-vosges.org 10.4.0 Darwin Kernel Version 10.4.0: Fri Apr 23 18:27:12 PDT 2010; root:xnu-1504.7.4~1/RELEASE_X86_64 x86_64
$ wget -V GNU Wget 1.12 compilé sur darwin10.4.0.
J'espère que tu as compris que ma blague portait sur "ce que tu installes tout de suite via les ports". ;)
Sinon ok, merci. je n'utilise jamais curl (je ne vois pas ce qu'il m'apporterait), et je ne me suis même pas posé la question de savoir d'où vient mon wget (je l'avais certainement installé via fink, je ne me souviens plus).
-- Hugues Hiegel [http://www.hiegel.fr/~hugues/]
listes
Hugues wrote:
Ce cher "La Bete des Vosges (Francis Chartier)" a posté :
> Le Tue, 14 Sep 2010 20:10:10 +0000, Emmanuel Florac a écrit : > >> Personnellement je n'utilise curl que quand wget manque à l'appel (sous >> mac os x par exemple). > > Ca doit être un des premiers trucs que j'installe via port.
mac os x ? :)
J'ai compilé wget en venant des sources
GNU Wget 1.12 built on darwin10.2.0.
merci :)
-- David Remacle <http://www.clampin.com>
Hugues <hugues@hiegel.fr> wrote:
Ce cher "La Bete des Vosges (Francis Chartier)"
<francis@bete-des-vosges.org> a posté :
> Le Tue, 14 Sep 2010 20:10:10 +0000, Emmanuel Florac a écrit :
>
>> Personnellement je n'utilise curl que quand wget manque à l'appel (sous
>> mac os x par exemple).
>
> Ca doit être un des premiers trucs que j'installe via port.
Ce cher "La Bete des Vosges (Francis Chartier)" a posté :
> Le Tue, 14 Sep 2010 20:10:10 +0000, Emmanuel Florac a écrit : > >> Personnellement je n'utilise curl que quand wget manque à l'appel (sous >> mac os x par exemple). > > Ca doit être un des premiers trucs que j'installe via port.
mac os x ? :)
J'ai compilé wget en venant des sources
GNU Wget 1.12 built on darwin10.2.0.
merci :)
-- David Remacle <http://www.clampin.com>
Eric LANDES
D'habitude pour prendre une page entière sur internet je fait un beau
wget -r -np http://www.lesite/dossier/lapage.html
Or on me dit qu'il vaut mieux aujourd'hui utiliser curl pour faire cela.
J'ai bien lu le manpage de curl et essayer avec curl -O mais ça ne va pas ...
curl ne permet pas de récupérer des pages récursivement => pas d'équivalent à l'option -r de wget
D'habitude pour prendre une page entière sur internet je fait un beau
wget -r -np http://www.lesite/dossier/lapage.html
Or on me dit qu'il vaut mieux aujourd'hui utiliser curl pour faire cela.
J'ai bien lu le manpage de curl et essayer avec curl -O mais ça ne va
pas ...
curl ne permet pas de récupérer des pages récursivement
=> pas d'équivalent à l'option -r de wget