J'utilise régulièrement les outils de validations du W3C, notament le
validateur XHTML et le testeur de liens. Cependant, le utilisation est vite
fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence
en local et qui vérifient automatiquement les liens de tous les fichiers
HTML, et/ou leur validité XHTML ?
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Olivier Miakinen
Le 16/09/2007 21:46, mpg a écrit :
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
J'utilise régulièrement les outils de validations du W3C, notament le
validateur XHTML et le testeur de liens. Cependant, le utilisation est vite
fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence
en local et qui vérifient automatiquement les liens de tous les fichiers
HTML, et/ou leur validité XHTML ?
Il y a quelques années j'utilisais ceci :
http://www.htmlhelp.com/tools/validator/
Ils offrent une possibilité de traitement par lot :
http://www.htmlhelp.com/tools/validator/batch.html.fr
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
-- qu'est de un firfox, version anglophone temps quoi même C'est en la qui page coté retard a et peut une de de commercial, d'un que l'Atlantique ? --{ Trivial Ptilou }--
--{ mpg a plopé ceci: }--
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence
en local et qui vérifient automatiquement les liens de tous les fichiers
HTML, et/ou leur validité XHTML ?
Pour les liens, il y a(vait ?) un truc sur http://htmlhelp.com/
--
qu'est de un firfox, version anglophone temps quoi même C'est en la qui
page coté retard a et peut une de de commercial, d'un que l'Atlantique ?
--{ Trivial Ptilou }--
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
-- qu'est de un firfox, version anglophone temps quoi même C'est en la qui page coté retard a et peut une de de commercial, d'un que l'Atlantique ? --{ Trivial Ptilou }--
Denis Beauregard
Le Sun, 16 Sep 2007 21:46:33 +0200, mpg écrivait dans fr.comp.infosystemes.www.auteurs:
Bonsoir,
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
J'ai utilisé webtester autrefois. C'est un script en perl que l'on fait tourner directement sur le serveur.
Je l'ai abandonné quand j'ai commencé à diffuser une base de données sur mon site, sous la forme de dizaines de milliers de pages (chaque page ayant son URL). Il y a donc une limite pour webtester, mais je suppose que c'est en haut de 1000 pages.
Par ailleurs, mon gros souci était que les sites génèrent toutes sortes de messages d'erreur. 400, 301, etc. Pas de page, page déménagée, mais aussi pas d'erreur alors que l'on tombe sur une page qui invite à voir la nouvelle adresse. Il y a aussi des sites qui rejettent tout ce qui est un robot, donc message d'erreur lors de la vérification, mais l'URL est valide.
webtester ne valide pas le code, seulement les URL.
Denis
Le Sun, 16 Sep 2007 21:46:33 +0200, mpg <manuel.pg@free.fr> écrivait
dans fr.comp.infosystemes.www.auteurs:
Bonsoir,
J'utilise régulièrement les outils de validations du W3C, notament le
validateur XHTML et le testeur de liens. Cependant, le utilisation est vite
fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence
en local et qui vérifient automatiquement les liens de tous les fichiers
HTML, et/ou leur validité XHTML ?
J'ai utilisé webtester autrefois. C'est un script en perl que
l'on fait tourner directement sur le serveur.
Je l'ai abandonné quand j'ai commencé à diffuser une base de
données sur mon site, sous la forme de dizaines de milliers
de pages (chaque page ayant son URL). Il y a donc une limite
pour webtester, mais je suppose que c'est en haut de 1000 pages.
Par ailleurs, mon gros souci était que les sites génèrent toutes
sortes de messages d'erreur. 400, 301, etc. Pas de page, page
déménagée, mais aussi pas d'erreur alors que l'on tombe sur une
page qui invite à voir la nouvelle adresse. Il y a aussi des
sites qui rejettent tout ce qui est un robot, donc message d'erreur
lors de la vérification, mais l'URL est valide.
webtester ne valide pas le code, seulement les URL.
Le Sun, 16 Sep 2007 21:46:33 +0200, mpg écrivait dans fr.comp.infosystemes.www.auteurs:
Bonsoir,
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
J'ai utilisé webtester autrefois. C'est un script en perl que l'on fait tourner directement sur le serveur.
Je l'ai abandonné quand j'ai commencé à diffuser une base de données sur mon site, sous la forme de dizaines de milliers de pages (chaque page ayant son URL). Il y a donc une limite pour webtester, mais je suppose que c'est en haut de 1000 pages.
Par ailleurs, mon gros souci était que les sites génèrent toutes sortes de messages d'erreur. 400, 301, etc. Pas de page, page déménagée, mais aussi pas d'erreur alors que l'on tombe sur une page qui invite à voir la nouvelle adresse. Il y a aussi des sites qui rejettent tout ce qui est un robot, donc message d'erreur lors de la vérification, mais l'URL est valide.
webtester ne valide pas le code, seulement les URL.
Denis
Patrick Mevzek
Le Sun, 16 Sep 2007 21:46:33 +0200, mpg a écrit:
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
Pour la validité XHTML, rien ne vaut tidy. (facile à automatiser dans un Makefile)
J'utilise régulièrement les outils de validations du W3C, notament le
validateur XHTML et le testeur de liens. Cependant, le utilisation est vite
fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
L'outil du W3C est justement téléchargeable et exécutable localement :
http://search.cpan.org/dist/W3C-LinkChecker/
(notamment le programme checklink dans la distribution)
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence
en local et qui vérifient automatiquement les liens de tous les fichiers
HTML, et/ou leur validité XHTML ?
Pour la validité XHTML, rien ne vaut tidy.
(facile à automatiser dans un Makefile)
--
Patrick Mevzek . . . . . . . . . . . . . . Dot and Co
<http://www.dotandco.net/> <http://www.dotandco.com/>
Dépêches sur le nommage <news://news.dotandco.net/dotandco.info.news>
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Peut-on trouver des scripts à lancer sur un répertoire ou une arborescence en local et qui vérifient automatiquement les liens de tous les fichiers HTML, et/ou leur validité XHTML ?
Pour la validité XHTML, rien ne vaut tidy. (facile à automatiser dans un Makefile)
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
J'utilise régulièrement les outils de validations du W3C, notament le
validateur XHTML et le testeur de liens. Cependant, le utilisation est vite
fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Validateur Multipages
http://www.validateur.ca/
A+
--
Click here to answer / cliquez ci dessous pour me repondre
http://cerbermail.com/?ZhznliAh4V
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Pour la vérification de liens, Xenu est très bien et très rapide.
J'utilise régulièrement les outils de validations du W3C, notament
le validateur XHTML et le testeur de liens. Cependant, le
utilisation est vite fastidieuse quand il s'agit de vérifier à la
file plusieurs pages.
Pour la vérification de liens, Xenu est très bien et très rapide.
J'utilise régulièrement les outils de validations du W3C, notament le validateur XHTML et le testeur de liens. Cependant, le utilisation est vite fastidieuse quand il s'agit de vérifier à la file plusieurs pages.
Pour la vérification de liens, Xenu est très bien et très rapide.