Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Erwann ABALEA
Bonjour,
On Tue, 27 Jan 2004, Julien Gautier wrote:
J'aurais besoin de pouvoir lister le contenu du répertoire d'un serveur distant, auquel je ne peux me connecter qu'en http (avec id + pw).
Mauvaise question. En HTTP, tu ne décides pas de ce que tu obtiens. En plus clair, quand tu fais un: "GET / HTTP/1.0", tu ne demandes pas au serveur de te lister l'arborescence "/" (la racine de l'espace exporté par le serveur), tu demandes au serveur de te renvoyer l'objet par défaut (qui est en général index.html, et si ce fichier n'existe pas, le serveur *peut* lister le contenu de ce répertoire).
Peut-on faire cela en ligne de commande ?
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
-- Erwann ABALEA - RSA PGP Key ID: 0x2D0EABD5 ----- Ta race, zorro de pute tu devrais plutot aller sucer des teubs chez les grecs au lieu d'écrire nawakos!! rajoute moi donc dans ton robot tueur. mouhaha, je te crache a la geule et ca te degouline jusqu'auxx baskets! -+- Nono in <http://neuneu.mine.nu> : Vingt ans de finesse -+-
Bonjour,
On Tue, 27 Jan 2004, Julien Gautier wrote:
J'aurais besoin de pouvoir lister le contenu du répertoire d'un serveur
distant, auquel je ne peux me connecter qu'en http (avec id + pw).
Mauvaise question. En HTTP, tu ne décides pas de ce que tu obtiens. En
plus clair, quand tu fais un: "GET / HTTP/1.0", tu ne demandes pas au
serveur de te lister l'arborescence "/" (la racine de l'espace exporté par
le serveur), tu demandes au serveur de te renvoyer l'objet par défaut (qui
est en général index.html, et si ce fichier n'existe pas, le serveur
*peut* lister le contenu de ce répertoire).
Peut-on faire cela en ligne de commande ?
A défaut, peut-on télécharger un repertoire entier en htpp, avec les
outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
--
Erwann ABALEA <erwann@abalea.com> - RSA PGP Key ID: 0x2D0EABD5
-----
Ta race, zorro de pute tu devrais plutot aller sucer des teubs chez les
grecs au lieu d'écrire nawakos!! rajoute moi donc dans ton robot tueur.
mouhaha, je te crache a la geule et ca te degouline jusqu'auxx baskets!
-+- Nono in <http://neuneu.mine.nu> : Vingt ans de finesse -+-
J'aurais besoin de pouvoir lister le contenu du répertoire d'un serveur distant, auquel je ne peux me connecter qu'en http (avec id + pw).
Mauvaise question. En HTTP, tu ne décides pas de ce que tu obtiens. En plus clair, quand tu fais un: "GET / HTTP/1.0", tu ne demandes pas au serveur de te lister l'arborescence "/" (la racine de l'espace exporté par le serveur), tu demandes au serveur de te renvoyer l'objet par défaut (qui est en général index.html, et si ce fichier n'existe pas, le serveur *peut* lister le contenu de ce répertoire).
Peut-on faire cela en ligne de commande ?
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
-- Erwann ABALEA - RSA PGP Key ID: 0x2D0EABD5 ----- Ta race, zorro de pute tu devrais plutot aller sucer des teubs chez les grecs au lieu d'écrire nawakos!! rajoute moi donc dans ton robot tueur. mouhaha, je te crache a la geule et ca te degouline jusqu'auxx baskets! -+- Nono in <http://neuneu.mine.nu> : Vingt ans de finesse -+-
julien.gautierANTI
Erwann ABALEA wrote:
Bonjour,
On Tue, 27 Jan 2004, Julien Gautier wrote:
J'aurais besoin de pouvoir lister le contenu du répertoire d'un serveur distant, auquel je ne peux me connecter qu'en http (avec id + pw).
Mauvaise question. En HTTP, tu ne décides pas de ce que tu obtiens. En plus clair, quand tu fais un: "GET / HTTP/1.0", tu ne demandes pas au serveur de te lister l'arborescence "/" (la racine de l'espace exporté par le serveur), tu demandes au serveur de te renvoyer l'objet par défaut (qui est en général index.html, et si ce fichier n'existe pas, le serveur *peut* lister le contenu de ce répertoire).
Ok.
Peut-on faire cela en ligne de commande ?
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl. Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man, je n'ai pour l'instant pas trouvé...)
Erwann ABALEA <erwann@abalea.com> wrote:
Bonjour,
On Tue, 27 Jan 2004, Julien Gautier wrote:
J'aurais besoin de pouvoir lister le contenu du répertoire d'un serveur
distant, auquel je ne peux me connecter qu'en http (avec id + pw).
Mauvaise question. En HTTP, tu ne décides pas de ce que tu obtiens. En
plus clair, quand tu fais un: "GET / HTTP/1.0", tu ne demandes pas au
serveur de te lister l'arborescence "/" (la racine de l'espace exporté par
le serveur), tu demandes au serveur de te renvoyer l'objet par défaut (qui
est en général index.html, et si ce fichier n'existe pas, le serveur
*peut* lister le contenu de ce répertoire).
Ok.
Peut-on faire cela en ligne de commande ?
A défaut, peut-on télécharger un repertoire entier en htpp, avec les
outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl.
Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man,
je n'ai pour l'instant pas trouvé...)
J'aurais besoin de pouvoir lister le contenu du répertoire d'un serveur distant, auquel je ne peux me connecter qu'en http (avec id + pw).
Mauvaise question. En HTTP, tu ne décides pas de ce que tu obtiens. En plus clair, quand tu fais un: "GET / HTTP/1.0", tu ne demandes pas au serveur de te lister l'arborescence "/" (la racine de l'espace exporté par le serveur), tu demandes au serveur de te renvoyer l'objet par défaut (qui est en général index.html, et si ce fichier n'existe pas, le serveur *peut* lister le contenu de ce répertoire).
Ok.
Peut-on faire cela en ligne de commande ?
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl. Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man, je n'ai pour l'instant pas trouvé...)
Stephane Chazelas
2004-01-27, 14:28(+01), Julien Gautier: [...]
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl. Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man, je n'ai pour l'instant pas trouvé...)
Un serveur Web te renvoie toujours une page HTML. Dans le cas où tu demandes un répertoire, s'il n'y a pas de page Web par défaut, le serveur Web peut renvoyer dynamiquement une page web qui va contenir des liens vers les fichiers du répertoire.
Les outils comme wget, curl ou lftp doivent pouvoir parser cette page HTML s'ils veulent en extraire la liste des fichiers pour pouvoir les télécharger par la suite.
Je ne pense pas que curl sache faire ça. wget est capable de parser une page HTML pour en extraire les liens vers d'autres fichiers.
lftp te fournira les meilleurs résultats puisqu'il est capable de parser spécifiquement ces pages générées dynamiquement par les serveurs Web (utilise cls, mget, la completion) et est scriptable.
A défaut, peut-on télécharger un repertoire entier en htpp, avec les
outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl.
Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man,
je n'ai pour l'instant pas trouvé...)
Un serveur Web te renvoie toujours une page HTML. Dans le cas où
tu demandes un répertoire, s'il n'y a pas de page Web par
défaut, le serveur Web peut renvoyer dynamiquement une page web
qui va contenir des liens vers les fichiers du répertoire.
Les outils comme wget, curl ou lftp doivent pouvoir parser cette
page HTML s'ils veulent en extraire la liste des fichiers pour
pouvoir les télécharger par la suite.
Je ne pense pas que curl sache faire ça. wget est capable de
parser une page HTML pour en extraire les liens vers d'autres
fichiers.
lftp te fournira les meilleurs résultats puisqu'il est capable
de parser spécifiquement ces pages générées dynamiquement par
les serveurs Web (utilise cls, mget, la completion) et est
scriptable.
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl. Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man, je n'ai pour l'instant pas trouvé...)
Un serveur Web te renvoie toujours une page HTML. Dans le cas où tu demandes un répertoire, s'il n'y a pas de page Web par défaut, le serveur Web peut renvoyer dynamiquement une page web qui va contenir des liens vers les fichiers du répertoire.
Les outils comme wget, curl ou lftp doivent pouvoir parser cette page HTML s'ils veulent en extraire la liste des fichiers pour pouvoir les télécharger par la suite.
Je ne pense pas que curl sache faire ça. wget est capable de parser une page HTML pour en extraire les liens vers d'autres fichiers.
lftp te fournira les meilleurs résultats puisqu'il est capable de parser spécifiquement ces pages générées dynamiquement par les serveurs Web (utilise cls, mget, la completion) et est scriptable.
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl. Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man, je n'ai pour l'instant pas trouvé...)
Un serveur Web te renvoie toujours une page HTML. Dans le cas où tu demandes un répertoire, s'il n'y a pas de page Web par défaut, le serveur Web peut renvoyer dynamiquement une page web qui va contenir des liens vers les fichiers du répertoire.
Les outils comme wget, curl ou lftp doivent pouvoir parser cette page HTML s'ils veulent en extraire la liste des fichiers pour pouvoir les télécharger par la suite.
Je ne pense pas que curl sache faire ça. wget est capable de parser une page HTML pour en extraire les liens vers d'autres fichiers.
lftp te fournira les meilleurs résultats puisqu'il est capable de parser spécifiquement ces pages générées dynamiquement par les serveurs Web (utilise cls, mget, la completion) et est scriptable.
A défaut, peut-on télécharger un repertoire entier en htpp, avec les
outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl.
Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man,
je n'ai pour l'instant pas trouvé...)
Un serveur Web te renvoie toujours une page HTML. Dans le cas où
tu demandes un répertoire, s'il n'y a pas de page Web par
défaut, le serveur Web peut renvoyer dynamiquement une page web
qui va contenir des liens vers les fichiers du répertoire.
Les outils comme wget, curl ou lftp doivent pouvoir parser cette
page HTML s'ils veulent en extraire la liste des fichiers pour
pouvoir les télécharger par la suite.
Je ne pense pas que curl sache faire ça. wget est capable de
parser une page HTML pour en extraire les liens vers d'autres
fichiers.
lftp te fournira les meilleurs résultats puisqu'il est capable
de parser spécifiquement ces pages générées dynamiquement par
les serveurs Web (utilise cls, mget, la completion) et est
scriptable.
A défaut, peut-on télécharger un repertoire entier en htpp, avec les outils de base d'unix ?
Essaye wget, c'est fait pour ça. Tu as aussi curl pour le même prix.
J'ai curl. Mais peut-on télécharger un répertoire entier en HTTP avec ? (dans man, je n'ai pour l'instant pas trouvé...)
Un serveur Web te renvoie toujours une page HTML. Dans le cas où tu demandes un répertoire, s'il n'y a pas de page Web par défaut, le serveur Web peut renvoyer dynamiquement une page web qui va contenir des liens vers les fichiers du répertoire.
Les outils comme wget, curl ou lftp doivent pouvoir parser cette page HTML s'ils veulent en extraire la liste des fichiers pour pouvoir les télécharger par la suite.
Je ne pense pas que curl sache faire ça. wget est capable de parser une page HTML pour en extraire les liens vers d'autres fichiers.
lftp te fournira les meilleurs résultats puisqu'il est capable de parser spécifiquement ces pages générées dynamiquement par les serveurs Web (utilise cls, mget, la completion) et est scriptable.