Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Récupérer les liens à l'intérieurd'un site

9 réponses
Avatar
benoit
Bonjour,


Je dois faire relire un nombre assez conséquent de pages web par une
équipe de bénévoles. Le site étant construit sur un outil externe (site
en partie avec de la vente pour l'association) je ne sais comment
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.

Une idée ?


D'avance merci

--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]

9 réponses

Avatar
Jean-Pierre Kuypers
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%,
Benoit wrote (écrivait) :
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Une idée ?

SiteSucker
<http://ricks-apps.com/osx/sitesucker/index.html>
--
Jean-Pierre Kuypers
Veuillez distribuer les phrases dans leur con-
texte avant de récupérer sciemment.
Avatar
benoit
Jean-Pierre Kuypers wrote:
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%,
Benoit wrote (écrivait) :
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Une idée ?

SiteSucker
<http://ricks-apps.com/osx/sitesucker/index.html>

J'y ai rertrouvé tes mots, merci. Maintenant télécharger un site pour
récupérer les urls dans le log... Ça marche, mais ce n'est pas super
propre.
P.S. j'ai pris une ancienne version qui s'avère gratuite. Pour une
utilisation, même si le prix est plus qu'honnête, c'est cher.
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
Avatar
J.P
In article <1mouvdy.1y96b3t1b8qzarN%,
(Benoit) wrote:
Jean-Pierre Kuypers wrote:
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%,
Benoit wrote (écrivait) :
> récupérer la liste des urls pour pouvoir les distribuer au fur et à
> mesure.
> Une idée ?


Vu avec SiteSucker 2.2 sous SL.
Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien
télécharger ( tout décocher dans Settings/File types) , sauf les URLs et
leur hiérarchie et avec tous les liens "historiques" dans le log (texte)
que tu auras activé.
Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les
liens vers les fichiers HTML du site cible et leur hiérarchie dans son
dossier "Download".
Si ton site a un plan (site map), les URL's des pages doivent y
apparaitre.
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils
pour créer cela à posteriori dans un fichier XML ou HTML.
--
Jean-Pierre
Avatar
danrob
Benoit wrote:
je ne sais comment récupérer la liste des urls

Tu récupère la source du site en fichier et tu le déposes sur File
Juicer.
<http://echoone.com/fr/filejuicer/index.php>
Je pense que la version non enregistrée devrait le faire.
Avatar
benoit
J.P wrote:
In article <1mouvdy.1y96b3t1b8qzarN%,
(Benoit) wrote:
Jean-Pierre Kuypers wrote:
> In article (Dans l'article) <1mouiqw.iibv8lqvukzN%,
> Benoit wrote (écrivait) :
>
> > récupérer la liste des urls pour pouvoir les distribuer au fur et à
> > mesure.
> > Une idée ?

Vu avec SiteSucker 2.2 sous SL.
Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien
télécharger ( tout décocher dans Settings/File types) , sauf les URLs et
leur hiérarchie et avec tous les liens "historiques" dans le log (texte)
que tu auras activé.
Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les
liens vers les fichiers HTML du site cible et leur hiérarchie dans son
dossier "Download".

Je vais voir ça de plus près pour la prochaine fois.
Si ton site a un plan (site map), les URL's des pages doivent y
apparaitre.

Justement, il y en a qui demande un plan. En plus ;)
Et le soft qui créé le site ne sais pas le faire automatiquement.
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils
pour créer cela à posteriori dans un fichier XML ou HTML.

????
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
Avatar
benoit
Daniel Robillard wrote:
Benoit wrote:
je ne sais comment récupérer la liste des urls

Tu récupère la source du site en fichier et tu le déposes sur File
Juicer.
<http://echoone.com/fr/filejuicer/index.php>
Je pense que la version non enregistrée devrait le faire.

En cherchant j'ai trouvé des softs sous Windows qui disnet fonctionner
sous Wine pour MacOS. Reste à trouver un Wine pour ça.
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
Avatar
J.P
In article <1mowfbf.1355fhw1n8d9bzN%,
(Benoit) wrote:
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils
pour créer cela à posteriori dans un fichier XML ou HTML.

????

Cherche avec "site map"
--
Jean-Pierre
Avatar
Une Bévue
Le 14/06/2016 à 18:24, Benoit a écrit :
Bonjour,
Je dois faire relire un nombre assez conséquent de pages web par une
équipe de bénévoles. Le site étant construit sur un outil externe (site
en partie avec de la vente pour l'association) je ne sais comment
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Une idée ?

écrire un script Ruby utilisant Nokogiri.
Avatar
benoit
Une Bévue wrote:
Le 14/06/2016 à 18:24, Benoit a écrit :
Bonjour,
Je dois faire relire un nombre assez conséquent de pages web par une
équipe de bénévoles. Le site étant construit sur un outil externe (site
en partie avec de la vente pour l'association) je ne sais comment
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Une idée ?

écrire un script Ruby utilisant Nokogiri.

Là on ne boxe plus dans ma catégorie.
Maintenant que j'ai réussi en bidouillant à le faire, je cherche un
moyen d'automatiser la création d'une page « site » qui présente
l'arborescence et permet de trouver assez rapidement à peu près
n'importe quoi.
Ça, je crois que ça va être à la mano.
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]