Cherche soft de capture de site

Le
Alf92
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable

Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?

Merci d'avance.

--
Cordialement,
Alf92
Vos réponses
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
schponk
Le #1150669
"Alf92" 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...

Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?


à mon avis, teleport pro est très bien...

;oD

moimeme
Le #1150665
"Alf92" 4267aa80$0$2098$
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.


Avec tous les softs. Certains sites cachent volontairement des lien
(JavaScript par exemple, Flash player ou autre) pour interdire la copie du
site
D'autres sites ont des pages actives (ASP, PHP) et dans ce cas on peut au
mieux avoi une copie statique à l'instant T.

Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...


Bien sur - car sinon : comment trouver le nom des pages?


Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?


Seule solution : l'accès au répertoire - qui peut être interdite sauf au Web
Master.


Merci d'avance.

--
Cordialement,
Alf92



willpot
Le #1056235
pourquoi pas Memoweb de Goto



"Alf92" 4267aa80$0$2098$

J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...

Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?



à mon avis, teleport pro est très bien...

;oD





fr&D
Le #1055853
willpot wrote:
pourquoi pas Memoweb de Goto


parce qu'aucun de ces 2 là permettent de faire ça, en tout cas pas Teleport
pro :-)
Mais pourquoi donc récupérer des fichiers présents sur un serveurs mais ne
faisant pas partie du site ?
Si qqn te donne une URL avec des fichiers à télécharger en vrac sans page
web tu peut aussi utliser un download manager comme Flashget = clic droit
sur la page web et choisir "tout telecharger avec Flashget".
Sinon côté aspi je pense que Offline explorer doit le faire, de mémoire il y
a une case à cocher car il ne le fait pas par défaut. Lorsque un élément de
la page est appelé à une certaine adesse, OE en profite pour lister le
contenu du dossier contenant cet élément. Bien sur s'il y a un index.htm il
ne pourra pas aller plus loin.

David LE BOURGEOIS
Le #1055653
J'ai essayé WebCopier et HTTrack, mais ces deux softs semblent ne pas
permettre la capture intégrale à partir d'une adresse http://
Certains fichiers (ceux vers lesquels aucun lien ne pointe) sont ignorés.
Il semble donc qu'une analyse des fichiers HTML soit faite au préalable...

Donc existe-t-il d'autres solfts permettant la capture intégrale ?
Ou bien êtes-ce mon paramétrage qui n'est pas bon ?

Merci d'avance.



wget


--
David LE BOURGEOIS

Publicité
Poster une réponse
Anonyme