J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement=20
rechercher les liens bris=E9s sur un site mais je ne trouve pas l'option,=
=20
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Est ce quelqu'un peut me donner cette option? Je pr=E9cise que j'ai d=E9j=
=E0=20
tap=E9 man httrack et cherch=E9 sur google ;)
Le W3C a un outil de ce genre mais il faut que le site soit sur internet =
et le faire pour chaque page!
La cerise sur le g=E2teau serait de lister aussi tous les liens externes.=
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
SAM
Le 9/7/09 5:47 PM, Yamo' a écrit :
Bonjour,
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement rechercher les liens brisés sur un site mais je ne trouve pas l'option, j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Est ce quelqu'un peut me donner cette option? Je précise que j'ai déjà tapé man httrack et cherché sur google ;)
Le W3C a un outil de ce genre mais il faut que le site soit sur internet et le faire pour chaque page!
La cerise sur le gâteau serait de lister aussi tous les liens externes.
au siècle dernier j'utilisais ça : <http://www.xlanguage.com/products/rename.htm> mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002) (c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)
-- sm
Le 9/7/09 5:47 PM, Yamo' a écrit :
Bonjour,
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Est ce quelqu'un peut me donner cette option? Je précise que j'ai déjà
tapé man httrack et cherché sur google ;)
Le W3C a un outil de ce genre mais il faut que le site soit sur internet
et le faire pour chaque page!
La cerise sur le gâteau serait de lister aussi tous les liens externes.
au siècle dernier j'utilisais ça :
<http://www.xlanguage.com/products/rename.htm>
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement rechercher les liens brisés sur un site mais je ne trouve pas l'option, j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Est ce quelqu'un peut me donner cette option? Je précise que j'ai déjà tapé man httrack et cherché sur google ;)
Le W3C a un outil de ce genre mais il faut que le site soit sur internet et le faire pour chaque page!
La cerise sur le gâteau serait de lister aussi tous les liens externes.
au siècle dernier j'utilisais ça : <http://www.xlanguage.com/products/rename.htm> mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002) (c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)
-- sm
Patrick Texier
Le Mon, 07 Sep 2009 18:28:28 +0200, SAM a écrit :
> La cerise sur le gâteau serait de lister aussi tous les liens externes.
au siècle dernier j'utilisais ça : <http://www.xlanguage.com/products/rename.htm> mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002) (c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)
Il y a l'utilitaire texte Unix wget (il existe sous Windows). Son utilité c'est d'aspirer des sites avec des reprises sur erreurs mais le paramètre --spider permet de ne pas les télécharger.
-- Patrick Texier
vim:syntax=mail:ai:ts=4:et:twr
Le Mon, 07 Sep 2009 18:28:28 +0200, SAM a écrit :
> La cerise sur le gâteau serait de lister aussi tous les liens externes.
au siècle dernier j'utilisais ça :
<http://www.xlanguage.com/products/rename.htm>
mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002)
(c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est
sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)
Il y a l'utilitaire texte Unix wget (il existe sous Windows). Son
utilité c'est d'aspirer des sites avec des reprises sur erreurs mais le
paramètre --spider permet de ne pas les télécharger.
> La cerise sur le gâteau serait de lister aussi tous les liens externes.
au siècle dernier j'utilisais ça : <http://www.xlanguage.com/products/rename.htm> mais je vois qu'il n'y a rien de nouveau depuis (15/04/2002) (c'est à l'essai 15 jours, ça ne mange pas de pain d'essayer si on est sous Windows, pour Mac ils n'ont pas franchi le pas Mac OS X)
Il y a l'utilitaire texte Unix wget (il existe sous Windows). Son utilité c'est d'aspirer des sites avec des reprises sur erreurs mais le paramètre --spider permet de ne pas les télécharger.
-- Patrick Texier
vim:syntax=mail:ai:ts=4:et:twr
Michael DENIS
Yamo' a écrit :
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement rechercher les liens brisés sur un site mais je ne trouve pas l'option, j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Pour ma part, j'utilisais linckchecker :
http://linkchecker.sourceforge.net/
Il a visiblement pas mal évolué depuis ma dernière utilisation, mais il ne peut sans qu'être mieux. :-)
Par contre, il lui manque une fonction que je n'ai pas retrouvée depuis... Hotmetal, c'est la détection des fichiers orphelins. Si quelqu'un a une piste...
-- Michaël DENIS
Yamo' a écrit :
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement
rechercher les liens brisés sur un site mais je ne trouve pas l'option,
j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Pour ma part, j'utilisais linckchecker :
http://linkchecker.sourceforge.net/
Il a visiblement pas mal évolué depuis ma dernière utilisation, mais il
ne peut sans qu'être mieux. :-)
Par contre, il lui manque une fonction que je n'ai pas retrouvée
depuis... Hotmetal, c'est la détection des fichiers orphelins. Si
quelqu'un a une piste...
J'avais lu quelque part qu'on pouvais utiliser httrack pour uniquement rechercher les liens brisés sur un site mais je ne trouve pas l'option, j'utilise soit winhttrack soit httrack en ligne de commande sur linux.
Pour ma part, j'utilisais linckchecker :
http://linkchecker.sourceforge.net/
Il a visiblement pas mal évolué depuis ma dernière utilisation, mais il ne peut sans qu'être mieux. :-)
Par contre, il lui manque une fonction que je n'ai pas retrouvée depuis... Hotmetal, c'est la détection des fichiers orphelins. Si quelqu'un a une piste...
-- Michaël DENIS
Yamo'
Salut,
Le 08/09/2009 11:41, Michael DENIS a écrit:
Pour ma part, j'utilisais linckchecker :
http://linkchecker.sourceforge.net/
Merci beaucoup il a l'air vraiment pas mal et répond au besoin.
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des résultats sous forme d'un fichier texte ou csv.
-- Stéphane
Salut,
Le 08/09/2009 11:41, Michael DENIS a écrit:
Pour ma part, j'utilisais linckchecker :
http://linkchecker.sourceforge.net/
Merci beaucoup il a l'air vraiment pas mal et répond au besoin.
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des
résultats sous forme d'un fichier texte ou csv.
Le seul défaut c'est que je n'ai pas vu comment exporter la liste des résultats sous forme d'un fichier texte ou csv.
D'après l'aide (linkchecker -h), c'est avec l'option "-F". Sous Windows, ça doit être quelque chose comme :
linkchecker -F text/chemin_vers_mon_fichier ou linkchecker -F csv/chemin_vers_mon_fichier
Et il ne comprend pas les url avec des caractères cyrilliques.
Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non " " ?
-- Michaël DENIS
Yamo'
Le 08/09/2009 16:04, Michael DENIS a écrit:
Et il ne comprend pas les url avec des caractères cyrilliques.
Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non " " ?
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur lesquels j'avais testé il n'était pas présent.
Sinon, j'ai trouvé pour Drupal http://drupal.org/project/linkchecker, je suis en train de le tester bien sûr il faut utiliser drupal (ce qui est mon cas).
-- Stéphane
Le 08/09/2009 16:04, Michael DENIS a écrit:
Et il ne comprend pas les url avec des caractères cyrilliques.
Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non
" " ?
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur
lesquels j'avais testé il n'était pas présent.
Sinon, j'ai trouvé pour Drupal http://drupal.org/project/linkchecker, je
suis en train de le tester bien sûr il faut utiliser drupal (ce qui est
mon cas).
Et il ne comprend pas les url avec des caractères cyrilliques.
Ne serait-ce pas un problème d'encodage, du même genre que "%20" et non " " ?
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur lesquels j'avais testé il n'était pas présent.
Sinon, j'ai trouvé pour Drupal http://drupal.org/project/linkchecker, je suis en train de le tester bien sûr il faut utiliser drupal (ce qui est mon cas).
-- Stéphane
Michael DENIS
Yamo' a écrit :
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur lesquels j'avais testé il n'était pas présent.
La plupart des navigateurs permette un certain laxisme dans les url. Si nous prenons le cas de "%20", il faut remarquer que :
-si un espace est envoyé, le navigateur l'acceptera (je pense) à tous les coups. Ce n'est pas pour autant que cela répond aux normes en vigueur.
-si "%20" est envoyé, le navigateur affichera tout de même un espace, ce qui est normal. Mais dans ce cas, on est "conforme".
Il faut bien différencier ce qui est envoyé de ce qui est affiché, ce qui fonctionne et ce qui est conforme. :-)
-- Michaël DENIS
Yamo' a écrit :
Oui c'est un problème d'encodage mais, sur tous les navigateurs sur
lesquels j'avais testé il n'était pas présent.
La plupart des navigateurs permette un certain laxisme dans les url. Si
nous prenons le cas de "%20", il faut remarquer que :
-si un espace est envoyé, le navigateur l'acceptera (je pense) à tous
les coups. Ce n'est pas pour autant que cela répond aux normes en vigueur.
-si "%20" est envoyé, le navigateur affichera tout de même un espace, ce
qui est normal. Mais dans ce cas, on est "conforme".
Il faut bien différencier ce qui est envoyé de ce qui est affiché, ce
qui fonctionne et ce qui est conforme. :-)