Je dois faire relire un nombre assez conséquent de pages web par une
équipe de bénévoles. Le site étant construit sur un outil externe (site
en partie avec de la vente pour l'association) je ne sais comment
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Une idée ?
D'avance merci
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Jean-Pierre Kuypers
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, Benoit wrote (écrivait) :
récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
SiteSucker <http://ricks-apps.com/osx/sitesucker/index.html> -- Jean-Pierre Kuypers Veuillez distribuer les phrases dans leur con- texte avant de récupérer sciemment.
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%benoit@com.invalid>,
Benoit <benoit@com.invalid> wrote (écrivait) :
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Une idée ?
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, Benoit wrote (écrivait) :
récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
SiteSucker <http://ricks-apps.com/osx/sitesucker/index.html> -- Jean-Pierre Kuypers Veuillez distribuer les phrases dans leur con- texte avant de récupérer sciemment.
benoit
Jean-Pierre Kuypers wrote:
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, Benoit wrote (écrivait) :
récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
J'y ai rertrouvé tes mots, merci. Maintenant télécharger un site pour récupérer les urls dans le log... Ça marche, mais ce n'est pas super propre. P.S. j'ai pris une ancienne version qui s'avère gratuite. Pour une utilisation, même si le prix est plus qu'honnête, c'est cher. -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
J'y ai rertrouvé tes mots, merci. Maintenant télécharger un site pour
récupérer les urls dans le log... Ça marche, mais ce n'est pas super
propre.
P.S. j'ai pris une ancienne version qui s'avère gratuite. Pour une
utilisation, même si le prix est plus qu'honnête, c'est cher.
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
J'y ai rertrouvé tes mots, merci. Maintenant télécharger un site pour récupérer les urls dans le log... Ça marche, mais ce n'est pas super propre. P.S. j'ai pris une ancienne version qui s'avère gratuite. Pour une utilisation, même si le prix est plus qu'honnête, c'est cher. -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
J.P
In article <1mouvdy.1y96b3t1b8qzarN%, (Benoit) wrote:
Jean-Pierre Kuypers wrote:
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, Benoit wrote (écrivait) : > récupérer la liste des urls pour pouvoir les distribuer au fur et à > mesure. > Une idée ?
Vu avec SiteSucker 2.2 sous SL. Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien télécharger ( tout décocher dans Settings/File types) , sauf les URLs et leur hiérarchie et avec tous les liens "historiques" dans le log (texte) que tu auras activé. Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les liens vers les fichiers HTML du site cible et leur hiérarchie dans son dossier "Download". Si ton site a un plan (site map), les URL's des pages doivent y apparaitre. S'il n'y a pas, une recherche sur Google devrait aboutir à des outils pour créer cela à posteriori dans un fichier XML ou HTML. -- Jean-Pierre
In article <1mouvdy.1y96b3t1b8qzarN%benoit@com.invalid>,
benoit@com.invalid (Benoit) wrote:
> In article (Dans l'article) <1mouiqw.iibv8lqvukzN%benoit@com.invalid>,
> Benoit <benoit@com.invalid> wrote (écrivait) :
>
> > récupérer la liste des urls pour pouvoir les distribuer au fur et à
> > mesure.
> > Une idée ?
Vu avec SiteSucker 2.2 sous SL.
Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien
télécharger ( tout décocher dans Settings/File types) , sauf les URLs et
leur hiérarchie et avec tous les liens "historiques" dans le log (texte)
que tu auras activé.
Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les
liens vers les fichiers HTML du site cible et leur hiérarchie dans son
dossier "Download".
Si ton site a un plan (site map), les URL's des pages doivent y
apparaitre.
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils
pour créer cela à posteriori dans un fichier XML ou HTML.
In article <1mouvdy.1y96b3t1b8qzarN%, (Benoit) wrote:
Jean-Pierre Kuypers wrote:
In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, Benoit wrote (écrivait) : > récupérer la liste des urls pour pouvoir les distribuer au fur et à > mesure. > Une idée ?
Vu avec SiteSucker 2.2 sous SL. Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien télécharger ( tout décocher dans Settings/File types) , sauf les URLs et leur hiérarchie et avec tous les liens "historiques" dans le log (texte) que tu auras activé. Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les liens vers les fichiers HTML du site cible et leur hiérarchie dans son dossier "Download". Si ton site a un plan (site map), les URL's des pages doivent y apparaitre. S'il n'y a pas, une recherche sur Google devrait aboutir à des outils pour créer cela à posteriori dans un fichier XML ou HTML. -- Jean-Pierre
danrob
Benoit wrote:
je ne sais comment récupérer la liste des urls
Tu récupère la source du site en fichier et tu le déposes sur File Juicer. <http://echoone.com/fr/filejuicer/index.php> Je pense que la version non enregistrée devrait le faire.
Benoit <benoit@com.invalid> wrote:
je ne sais comment récupérer la liste des urls
Tu récupère la source du site en fichier et tu le déposes sur File
Juicer.
<http://echoone.com/fr/filejuicer/index.php>
Je pense que la version non enregistrée devrait le faire.
Tu récupère la source du site en fichier et tu le déposes sur File Juicer. <http://echoone.com/fr/filejuicer/index.php> Je pense que la version non enregistrée devrait le faire.
benoit
J.P wrote:
In article <1mouvdy.1y96b3t1b8qzarN%, (Benoit) wrote:
Jean-Pierre Kuypers wrote: > In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, > Benoit wrote (écrivait) : > > > récupérer la liste des urls pour pouvoir les distribuer au fur et à > > mesure. > > Une idée ?
Vu avec SiteSucker 2.2 sous SL. Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien télécharger ( tout décocher dans Settings/File types) , sauf les URLs et leur hiérarchie et avec tous les liens "historiques" dans le log (texte) que tu auras activé. Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les liens vers les fichiers HTML du site cible et leur hiérarchie dans son dossier "Download".
Je vais voir ça de plus près pour la prochaine fois.
Si ton site a un plan (site map), les URL's des pages doivent y apparaitre.
Justement, il y en a qui demande un plan. En plus ;) Et le soft qui créé le site ne sais pas le faire automatiquement.
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils pour créer cela à posteriori dans un fichier XML ou HTML.
???? -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
J.P <jpp@gmail.com> wrote:
In article <1mouvdy.1y96b3t1b8qzarN%benoit@com.invalid>,
benoit@com.invalid (Benoit) wrote:
> Jean-Pierre Kuypers <Kuypers@address.invalid> wrote:
>
> > In article (Dans l'article) <1mouiqw.iibv8lqvukzN%benoit@com.invalid>,
> > Benoit <benoit@com.invalid> wrote (écrivait) :
> >
> > > récupérer la liste des urls pour pouvoir les distribuer au fur et à
> > > mesure.
> > > Une idée ?
Vu avec SiteSucker 2.2 sous SL.
Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien
télécharger ( tout décocher dans Settings/File types) , sauf les URLs et
leur hiérarchie et avec tous les liens "historiques" dans le log (texte)
que tu auras activé.
Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les
liens vers les fichiers HTML du site cible et leur hiérarchie dans son
dossier "Download".
Je vais voir ça de plus près pour la prochaine fois.
Si ton site a un plan (site map), les URL's des pages doivent y
apparaitre.
Justement, il y en a qui demande un plan. En plus ;)
Et le soft qui créé le site ne sais pas le faire automatiquement.
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils
pour créer cela à posteriori dans un fichier XML ou HTML.
????
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
In article <1mouvdy.1y96b3t1b8qzarN%, (Benoit) wrote:
Jean-Pierre Kuypers wrote: > In article (Dans l'article) <1mouiqw.iibv8lqvukzN%, > Benoit wrote (écrivait) : > > > récupérer la liste des urls pour pouvoir les distribuer au fur et à > > mesure. > > Une idée ?
Vu avec SiteSucker 2.2 sous SL. Tu peux paramétrer SiteSucker pour qu'il parcoure ton site sans rien télécharger ( tout décocher dans Settings/File types) , sauf les URLs et leur hiérarchie et avec tous les liens "historiques" dans le log (texte) que tu auras activé. Avec ces réglages (ne rien télécharger,) SiteSucker ne garde que les liens vers les fichiers HTML du site cible et leur hiérarchie dans son dossier "Download".
Je vais voir ça de plus près pour la prochaine fois.
Si ton site a un plan (site map), les URL's des pages doivent y apparaitre.
Justement, il y en a qui demande un plan. En plus ;) Et le soft qui créé le site ne sais pas le faire automatiquement.
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils pour créer cela à posteriori dans un fichier XML ou HTML.
???? -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
benoit
Daniel Robillard wrote:
Benoit wrote:
je ne sais comment récupérer la liste des urls
Tu récupère la source du site en fichier et tu le déposes sur File Juicer. <http://echoone.com/fr/filejuicer/index.php> Je pense que la version non enregistrée devrait le faire.
En cherchant j'ai trouvé des softs sous Windows qui disnet fonctionner sous Wine pour MacOS. Reste à trouver un Wine pour ça. -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
Daniel Robillard <danrob@libre.fr> wrote:
Benoit <benoit@com.invalid> wrote:
> je ne sais comment récupérer la liste des urls
Tu récupère la source du site en fichier et tu le déposes sur File
Juicer.
<http://echoone.com/fr/filejuicer/index.php>
Je pense que la version non enregistrée devrait le faire.
En cherchant j'ai trouvé des softs sous Windows qui disnet fonctionner
sous Wine pour MacOS. Reste à trouver un Wine pour ça.
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
Tu récupère la source du site en fichier et tu le déposes sur File Juicer. <http://echoone.com/fr/filejuicer/index.php> Je pense que la version non enregistrée devrait le faire.
En cherchant j'ai trouvé des softs sous Windows qui disnet fonctionner sous Wine pour MacOS. Reste à trouver un Wine pour ça. -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
J.P
In article <1mowfbf.1355fhw1n8d9bzN%, (Benoit) wrote:
S'il n'y a pas, une recherche sur Google devrait aboutir à des outils pour créer cela à posteriori dans un fichier XML ou HTML.
????
Cherche avec "site map" -- Jean-Pierre
In article <1mowfbf.1355fhw1n8d9bzN%benoit@com.invalid>,
benoit@com.invalid (Benoit) wrote:
> S'il n'y a pas, une recherche sur Google devrait aboutir à des outils
> pour créer cela à posteriori dans un fichier XML ou HTML.
Bonjour, Je dois faire relire un nombre assez conséquent de pages web par une équipe de bénévoles. Le site étant construit sur un outil externe (site en partie avec de la vente pour l'association) je ne sais comment récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
écrire un script Ruby utilisant Nokogiri.
Le 14/06/2016 à 18:24, Benoit a écrit :
Bonjour,
Je dois faire relire un nombre assez conséquent de pages web par une
équipe de bénévoles. Le site étant construit sur un outil externe (site
en partie avec de la vente pour l'association) je ne sais comment
récupérer la liste des urls pour pouvoir les distribuer au fur et à
mesure.
Bonjour, Je dois faire relire un nombre assez conséquent de pages web par une équipe de bénévoles. Le site étant construit sur un outil externe (site en partie avec de la vente pour l'association) je ne sais comment récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
écrire un script Ruby utilisant Nokogiri.
benoit
Une Bévue wrote:
Le 14/06/2016 à 18:24, Benoit a écrit :
Bonjour, Je dois faire relire un nombre assez conséquent de pages web par une équipe de bénévoles. Le site étant construit sur un outil externe (site en partie avec de la vente pour l'association) je ne sais comment récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
écrire un script Ruby utilisant Nokogiri.
Là on ne boxe plus dans ma catégorie. Maintenant que j'ai réussi en bidouillant à le faire, je cherche un moyen d'automatiser la création d'une page « site » qui présente l'arborescence et permet de trouver assez rapidement à peu près n'importe quoi. Ça, je crois que ça va être à la mano. -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]
Une Bévue <unbewusst.sein@fai.invalid> wrote:
Le 14/06/2016 à 18:24, Benoit a écrit :
> Bonjour,
>
>
> Je dois faire relire un nombre assez conséquent de pages web par une
> équipe de bénévoles. Le site étant construit sur un outil externe (site
> en partie avec de la vente pour l'association) je ne sais comment
> récupérer la liste des urls pour pouvoir les distribuer au fur et à
> mesure.
>
> Une idée ?
écrire un script Ruby utilisant Nokogiri.
Là on ne boxe plus dans ma catégorie.
Maintenant que j'ai réussi en bidouillant à le faire, je cherche un
moyen d'automatiser la création d'une page « site » qui présente
l'arborescence et permet de trouver assez rapidement à peu près
n'importe quoi.
Ça, je crois que ça va être à la mano.
--
"La théorie, c'est quand on sait tout et que rien ne fonctionne. La
pratique, c'est quand tout fonctionne et que personne ne sait pourquoi.
Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et
personne ne sait pourquoi !" [ Albert Einstein ]
Bonjour, Je dois faire relire un nombre assez conséquent de pages web par une équipe de bénévoles. Le site étant construit sur un outil externe (site en partie avec de la vente pour l'association) je ne sais comment récupérer la liste des urls pour pouvoir les distribuer au fur et à mesure. Une idée ?
écrire un script Ruby utilisant Nokogiri.
Là on ne boxe plus dans ma catégorie. Maintenant que j'ai réussi en bidouillant à le faire, je cherche un moyen d'automatiser la création d'une page « site » qui présente l'arborescence et permet de trouver assez rapidement à peu près n'importe quoi. Ça, je crois que ça va être à la mano. -- "La théorie, c'est quand on sait tout et que rien ne fonctionne. La pratique, c'est quand tout fonctionne et que personne ne sait pourquoi. Ici, nous avons réuni théorie et pratique : Rien ne fonctionne... et personne ne sait pourquoi !" [ Albert Einstein ]