Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Tester tous les liens sur un site

10 réponses
Avatar
Yamo'
Bonjour,

J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement=20
rechercher les liens bris=E9s sur un site mais je ne trouve pas l'option,=
=20
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.

Est ce quelqu'un peut me donner cette option? Je pr=E9cise que j'ai d=E9j=
=E0=20
tap=E9 man httrack et cherch=E9 sur google ;)

Le W3C a un outil de ce genre mais il faut que le site soit sur internet =

et le faire pour chaque page!

La cerise sur le g=E2teau serait de lister aussi tous les liens externes.=



Merci d'avance,
--=20
St=E9phane

10 réponses

Avatar
SAM
Le 9/7/09 5:47 PM, Yamo' a écrit :
Bonjour,

J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.

Est ce quelqu'un peut me donner cette option? Je précise que j'ai déjà
tapé man httrack et cherché sur google ;)

Le W3C a un outil de ce genre mais il faut que le site soit sur internet
et le faire pour chaque page!

La cerise sur le gâteau serait de lister aussi tous les liens externes.



au siècle dernier j'utilisais ça :
<http://www.xlanguage.com/products/rename.htm>
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)

--
sm
Avatar
Patrick Texier
Le Mon, 07 Sep 2009 18:28:28 +0200, SAM a écrit :

> La cerise sur le gâteau serait de lister aussi tous les liens externes.

au siècle dernier j'utilisais ça :
<http://www.xlanguage.com/products/rename.htm>
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)



Il y a l'utilitaire texte Unix wget (il existe sous Windows). Son
utilité c'est d'aspirer des sites avec des reprises sur erreurs mais le
paramètre --spider permet de ne pas les télécharger.

--
Patrick Texier

vim:syntax=mail:ai:ts=4:et:twr
Avatar
Michael DENIS
Yamo' a écrit :
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.



Pour ma part, j'utilisais linckchecker :

http://linkchecker.sourceforge.net/

Il a visiblement pas mal évolué depuis ma dernière utilisation, mais il
ne peut sans qu'être mieux. :-)

Par contre, il lui manque une fonction que je n'ai pas retrouvée
depuis... Hotmetal, c'est la détection des fichiers orphelins. Si
quelqu'un a une piste...

--
Michaël DENIS
Avatar
Yamo'
Salut,

Le 08/09/2009 11:41, Michael DENIS a écrit:
Pour ma part, j'utilisais linckchecker :

http://linkchecker.sourceforge.net/



Merci beaucoup il a l'air vraiment pas mal et répond au besoin.

Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.


--
Stéphane
Avatar
Yamo'
Le 08/09/2009 15:08, Yamo' a écrit:
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.



Et il ne comprend pas les url avec des caractères cyrilliques.

--
Stéphane
Avatar
Denis Beauregard
Le Mon, 07 Sep 2009 17:47:01 +0200, Yamo'
écrivait dans
fr.comp.infosystemes.www.auteurs:

Le W3C a un outil de ce genre mais il faut que le site soit sur internet
et le faire pour chaque page!

La cerise sur le gâteau serait de lister aussi tous les liens externes.



http://webtester.sourceforge.net/

Webtester est en perl et devrait aussi faire le travail.


Denis
Avatar
Michael DENIS
Yamo' a écrit :
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.



D'après l'aide (linkchecker -h), c'est avec l'option "-F". Sous Windows,
ça doit être quelque chose comme :

linkchecker -F text/chemin_vers_mon_fichier
ou
linkchecker -F csv/chemin_vers_mon_fichier

Et il ne comprend pas les url avec des caractères cyrilliques.



Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non
" " ?

--
Michaël DENIS
Avatar
Yamo'
Le 08/09/2009 16:04, Michael DENIS a écrit:
Et il ne comprend pas les url avec des caractères cyrilliques.


Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non
" " ?



Oui c'est un problème d'encodage mais, sur tous les navigateurs sur
lesquels j'avais testé il n'était pas présent.


Sinon, j'ai trouvé pour Drupal http://drupal.org/project/linkchecker, je
suis en train de le tester bien sûr il faut utiliser drupal (ce qui est
mon cas).


--
Stéphane
Avatar
Michael DENIS
Yamo' a écrit :
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur
lesquels j'avais testé il n'était pas présent.



La plupart des navigateurs permette un certain laxisme dans les url. Si
nous prenons le cas de "%20", il faut remarquer que :

-si un espace est envoyé, le navigateur l'acceptera (je pense) à tous
les coups. Ce n'est pas pour autant que cela répond aux normes en vigueur.

-si "%20" est envoyé, le navigateur affichera tout de même un espace, ce
qui est normal. Mais dans ce cas, on est "conforme".

Il faut bien différencier ce qui est envoyé de ce qui est affiché, ce
qui fonctionne et ce qui est conforme. :-)

--
Michaël DENIS
Avatar
SAM
Le 9/8/09 3:12 PM, Yamo' a écrit :
Le 08/09/2009 15:08, Yamo' a écrit:
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.



Et il ne comprend pas les url avec des caractères cyrilliques.



En attendant ce serait bien que la console reste fixe pendant qu'on
scrolle pour lire les exemples, en particulier dès la leçon 7.

--
sm