Je recherche un aspirateur de site pour os x capable d'aspirer un site
contenant des pages dynamiques et de les convertir en page html
statiques. par exemple :
soit la page index.html qui contient un lien href vers une page du style
"toto.php3?rub=blabla"
il faut que le lien href dans index.html devienne quelque chose comme
"totoblabla.html" et que la page dynamique obtenue en cliquant sur ce
lien se nomme totoblabla.html bien sur.
J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne
fonctionne, ils stockent tous les page sous un nom du genre
toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le
site aspiré.
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
patpro ~ patrick proniewski
In article <1h0kqig.176u9yl19kug6qN%jose.campos+, jose.campos+ (José Campos) wrote:
Pierre wrote:
Je recherche un aspirateur de site pour os x capable d'aspirer un site contenant des pages dynamiques et de les convertir en page html statiques.[...] J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne fonctionne, ils stockent tous les page sous un nom du genre toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le site aspiré.
Quelle solution ?
À vue de nez, renommer tes pages par lot avec un petit utilitaire dont j'ai oublié le nom. Puis, à l'aide de BBEdit ou TextMate rechercher/remplacer tous les liens à l'intérieur des pages en une seule fois avec RegEx, un truc du genre : search : (toto).php3?rub=(w+) replace : $1$2.html
a priori wget avec l'option --html-extension devrait suffire.
patpro
In article <1h0kqig.176u9yl19kug6qN%jose.campos+spam@galacsys.com>,
jose.campos+spam@galacsys.com (José Campos) wrote:
Pierre <traul@freespam.fr> wrote:
Je recherche un aspirateur de site pour os x capable d'aspirer un site
contenant des pages dynamiques et de les convertir en page html
statiques.[...]
J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne
fonctionne, ils stockent tous les page sous un nom du genre
toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le
site aspiré.
Quelle solution ?
À vue de nez, renommer tes pages par lot avec un petit utilitaire
dont j'ai oublié le nom. Puis, à l'aide de BBEdit ou TextMate
rechercher/remplacer tous les liens à l'intérieur des pages en une seule
fois avec RegEx, un truc du genre :
search : (toto).php3?rub=(w+)
replace : $1$2.html
a priori wget avec l'option --html-extension devrait suffire.
In article <1h0kqig.176u9yl19kug6qN%jose.campos+, jose.campos+ (José Campos) wrote:
Pierre wrote:
Je recherche un aspirateur de site pour os x capable d'aspirer un site contenant des pages dynamiques et de les convertir en page html statiques.[...] J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne fonctionne, ils stockent tous les page sous un nom du genre toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le site aspiré.
Quelle solution ?
À vue de nez, renommer tes pages par lot avec un petit utilitaire dont j'ai oublié le nom. Puis, à l'aide de BBEdit ou TextMate rechercher/remplacer tous les liens à l'intérieur des pages en une seule fois avec RegEx, un truc du genre : search : (toto).php3?rub=(w+) replace : $1$2.html
a priori wget avec l'option --html-extension devrait suffire.
patpro
francois.jacquemin
Pierre wrote:
Je recherche un aspirateur de site pour os x capable d'aspirer un site contenant des pages dynamiques et de les convertir en page html statiques.
As-tu essayé Safari ? Dans le menu "Fichier" tu choisis "Enregistrer sous..." et là, tu choisis "Archive Web". Tu vas être bluffé par le résultat en ce qui concerne les pages contenant des appels en PHP. -- F. Jacquemin
Pierre <traul@freespam.fr> wrote:
Je recherche un aspirateur de site pour os x capable d'aspirer un site
contenant des pages dynamiques et de les convertir en page html
statiques.
As-tu essayé Safari ? Dans le menu "Fichier" tu choisis "Enregistrer
sous..." et là, tu choisis "Archive Web". Tu vas être bluffé par le
résultat en ce qui concerne les pages contenant des appels en PHP.
--
F. Jacquemin
Je recherche un aspirateur de site pour os x capable d'aspirer un site contenant des pages dynamiques et de les convertir en page html statiques.
As-tu essayé Safari ? Dans le menu "Fichier" tu choisis "Enregistrer sous..." et là, tu choisis "Archive Web". Tu vas être bluffé par le résultat en ce qui concerne les pages contenant des appels en PHP. -- F. Jacquemin
blanc
Pierre wrote:
J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne fonctionne, ils stockent tous les page sous un nom du genre toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le site aspiré.
Essaye aussi iCab. Je ne l'ai pas testé avec des liens php, mais il a un bon système d'archivage, et ses archives ont en outre l'avantage d'être des zips qu'on peut dézipper et utiliser ensuite avec n'importe quel navigateur.
JPaul.
Pierre <traul@freespam.fr> wrote:
J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne
fonctionne, ils stockent tous les page sous un nom du genre
toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le
site aspiré.
Essaye aussi iCab. Je ne l'ai pas testé avec des liens php, mais il a un
bon système d'archivage, et ses archives ont en outre l'avantage d'être
des zips qu'on peut dézipper et utiliser ensuite avec n'importe quel
navigateur.
J'ai essayé webdevil, deepvacuum, sitesucker, mais aucun d'eux ne fonctionne, ils stockent tous les page sous un nom du genre toto.php3?rub=blabla rendant ses pages inaccessible lorsqu'on teste le site aspiré.
Essaye aussi iCab. Je ne l'ai pas testé avec des liens php, mais il a un bon système d'archivage, et ses archives ont en outre l'avantage d'être des zips qu'on peut dézipper et utiliser ensuite avec n'importe quel navigateur.