J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
schponk
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news: 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés. Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
à mon avis, teleport pro est très bien...
;oD
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news:
4267aa80$0$2098$626a14ce@news.free.fr...
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news: 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés. Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
à mon avis, teleport pro est très bien...
;oD
moimeme
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news: 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Avec tous les softs. Certains sites cachent volontairement des lien (JavaScript par exemple, Flash player ou autre) pour interdire la copie du site D'autres sites ont des pages actives (ASP, PHP) et dans ce cas on peut au mieux avoi une copie statique à l'instant T.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Bien sur - car sinon : comment trouver le nom des pages?
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
Seule solution : l'accès au répertoire - qui peut être interdite sauf au Web Master.
Merci d'avance.
-- Cordialement, Alf92
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news:
4267aa80$0$2098$626a14ce@news.free.fr...
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Avec tous les softs. Certains sites cachent volontairement des lien
(JavaScript par exemple, Flash player ou autre) pour interdire la copie du
site
D'autres sites ont des pages actives (ASP, PHP) et dans ce cas on peut au
mieux avoi une copie statique à l'instant T.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Bien sur - car sinon : comment trouver le nom des pages?
Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
Seule solution : l'accès au répertoire - qui peut être interdite sauf au Web
Master.
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news: 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Avec tous les softs. Certains sites cachent volontairement des lien (JavaScript par exemple, Flash player ou autre) pour interdire la copie du site D'autres sites ont des pages actives (ASP, PHP) et dans ce cas on peut au mieux avoi une copie statique à l'instant T.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Bien sur - car sinon : comment trouver le nom des pages?
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
Seule solution : l'accès au répertoire - qui peut être interdite sauf au Web Master.
Merci d'avance.
-- Cordialement, Alf92
willpot
pourquoi pas Memoweb de Goto
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news: 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés. Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
à mon avis, teleport pro est très bien...
;oD
pourquoi pas Memoweb de Goto
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news:
4267aa80$0$2098$626a14ce@news.free.fr...
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
"Alf92" <alf92[NO-SPAM]@freesurf.fr> a écrit dans le message de news: 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés. Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
à mon avis, teleport pro est très bien...
;oD
fr&D
willpot wrote:
pourquoi pas Memoweb de Goto
parce qu'aucun de ces 2 là permettent de faire ça, en tout cas pas Teleport pro :-) Mais pourquoi donc récupérer des fichiers présents sur un serveurs mais ne faisant pas partie du site ? Si qqn te donne une URL avec des fichiers à télécharger en vrac sans page web tu peut aussi utliser un download manager comme Flashget = clic droit sur la page web et choisir "tout telecharger avec Flashget". Sinon côté aspi je pense que Offline explorer doit le faire, de mémoire il y a une case à cocher car il ne le fait pas par défaut. Lorsque un élément de la page est appelé à une certaine adesse, OE en profite pour lister le contenu du dossier contenant cet élément. Bien sur s'il y a un index.htm il ne pourra pas aller plus loin.
willpot wrote:
pourquoi pas Memoweb de Goto
parce qu'aucun de ces 2 là permettent de faire ça, en tout cas pas Teleport
pro :-)
Mais pourquoi donc récupérer des fichiers présents sur un serveurs mais ne
faisant pas partie du site ?
Si qqn te donne une URL avec des fichiers à télécharger en vrac sans page
web tu peut aussi utliser un download manager comme Flashget = clic droit
sur la page web et choisir "tout telecharger avec Flashget".
Sinon côté aspi je pense que Offline explorer doit le faire, de mémoire il y
a une case à cocher car il ne le fait pas par défaut. Lorsque un élément de
la page est appelé à une certaine adesse, OE en profite pour lister le
contenu du dossier contenant cet élément. Bien sur s'il y a un index.htm il
ne pourra pas aller plus loin.
parce qu'aucun de ces 2 là permettent de faire ça, en tout cas pas Teleport pro :-) Mais pourquoi donc récupérer des fichiers présents sur un serveurs mais ne faisant pas partie du site ? Si qqn te donne une URL avec des fichiers à télécharger en vrac sans page web tu peut aussi utliser un download manager comme Flashget = clic droit sur la page web et choisir "tout telecharger avec Flashget". Sinon côté aspi je pense que Offline explorer doit le faire, de mémoire il y a une case à cocher car il ne le fait pas par défaut. Lorsque un élément de la page est appelé à une certaine adesse, OE en profite pour lister le contenu du dossier contenant cet élément. Bien sur s'il y a un index.htm il ne pourra pas aller plus loin.
David LE BOURGEOIS
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés. Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
Merci d'avance.
wget
-- David LE BOURGEOIS
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas permettre la capture intégrale à partir d'une adresse http:// Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés. Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...
Donc existe-t-il d'autres solfts permettant la capture intégrale ? Ou bien êtes-ce mon paramétrage qui n'est pas bon ?