Tester tous les liens sur un site

Le
Yamo'
Bonjour,

J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,=

j'utilise soit winhttrack soit httrack en ligne de commande sur linux.

Est ce quelqu'un peut me donner cette option? Je précise que j'ai déj=
à
tapé man httrack et cherché sur google ;)

Le W3C a un outil de ce genre mais il faut que le site soit sur internet =

et le faire pour chaque page!

La cerise sur le gâteau serait de lister aussi tous les liens externes.=



Merci d'avance,
--
Stéphane
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
SAM
Le #22034581
Le 9/7/09 5:47 PM, Yamo' a écrit :
Bonjour,

J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.

Est ce quelqu'un peut me donner cette option? Je précise que j'ai déjà
tapé man httrack et cherché sur google ;)

Le W3C a un outil de ce genre mais il faut que le site soit sur internet
et le faire pour chaque page!

La cerise sur le gâteau serait de lister aussi tous les liens externes.



au siècle dernier j'utilisais ça :
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)

--
sm
Patrick Texier
Le #22034551
Le Mon, 07 Sep 2009 18:28:28 +0200, SAM a écrit :

> La cerise sur le gâteau serait de lister aussi tous les liens externes.

au siècle dernier j'utilisais ça :
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)



Il y a l'utilitaire texte Unix wget (il existe sous Windows). Son
utilité c'est d'aspirer des sites avec des reprises sur erreurs mais le
paramètre --spider permet de ne pas les télécharger.

--
Patrick Texier

vim:syntax=mail:ai:ts=4:et:twr
Michael DENIS
Le #22034511
Yamo' a écrit :
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.



Pour ma part, j'utilisais linckchecker :

http://linkchecker.sourceforge.net/

Il a visiblement pas mal évolué depuis ma dernière utilisation, mais il
ne peut sans qu'être mieux. :-)

Par contre, il lui manque une fonction que je n'ai pas retrouvée
depuis... Hotmetal, c'est la détection des fichiers orphelins. Si
quelqu'un a une piste...

--
Michaël DENIS
Yamo'
Le #22034471
Salut,

Le 08/09/2009 11:41, Michael DENIS a écrit:
Pour ma part, j'utilisais linckchecker :

http://linkchecker.sourceforge.net/



Merci beaucoup il a l'air vraiment pas mal et répond au besoin.

Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.


--
Stéphane
Yamo'
Le #22034461
Le 08/09/2009 15:08, Yamo' a écrit:
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.



Et il ne comprend pas les url avec des caractères cyrilliques.

--
Stéphane
Denis Beauregard
Le #22034451
Le Mon, 07 Sep 2009 17:47:01 +0200, Yamo'
fr.comp.infosystemes.www.auteurs:

Le W3C a un outil de ce genre mais il faut que le site soit sur internet
et le faire pour chaque page!

La cerise sur le gâteau serait de lister aussi tous les liens externes.



http://webtester.sourceforge.net/

Webtester est en perl et devrait aussi faire le travail.


Denis
Michael DENIS
Le #22034431
Yamo' a écrit :
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.



D'après l'aide (linkchecker -h), c'est avec l'option "-F". Sous Windows,
ça doit être quelque chose comme :

linkchecker -F text/chemin_vers_mon_fichier
ou
linkchecker -F csv/chemin_vers_mon_fichier

Et il ne comprend pas les url avec des caractères cyrilliques.



Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non
" " ?

--
Michaël DENIS
Yamo'
Le #22034421
Le 08/09/2009 16:04, Michael DENIS a écrit:
Et il ne comprend pas les url avec des caractères cyrilliques.


Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non
" " ?



Oui c'est un problème d'encodage mais, sur tous les navigateurs sur
lesquels j'avais testé il n'était pas présent.


Sinon, j'ai trouvé pour Drupal http://drupal.org/project/linkchecker, je
suis en train de le tester bien sûr il faut utiliser drupal (ce qui est
mon cas).


--
Stéphane
Michael DENIS
Le #22034411
Yamo' a écrit :
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur
lesquels j'avais testé il n'était pas présent.



La plupart des navigateurs permette un certain laxisme dans les url. Si
nous prenons le cas de "%20", il faut remarquer que :

-si un espace est envoyé, le navigateur l'acceptera (je pense) à tous
les coups. Ce n'est pas pour autant que cela répond aux normes en vigueur.

-si "%20" est envoyé, le navigateur affichera tout de même un espace, ce
qui est normal. Mais dans ce cas, on est "conforme".

Il faut bien différencier ce qui est envoyé de ce qui est affiché, ce
qui fonctionne et ce qui est conforme. :-)

--
Michaël DENIS
SAM
Le #22034341
Le 9/8/09 3:12 PM, Yamo' a écrit :
Le 08/09/2009 15:08, Yamo' a écrit:
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.



Et il ne comprend pas les url avec des caractères cyrilliques.



En attendant ce serait bien que la console reste fixe pendant qu'on
scrolle pour lire les exemples, en particulier dès la leçon 7.

--
sm
Publicité
Poster une réponse
Anonyme