apres toute une journée de recherche hier pour trouver mon bonheur, je
viens a vous (mes freres? arf!) pour vous demander conseil et aide pour
developper un analyser de log apache qui pourrait me donner les infos
suivant entre autre (le plus c'est le mieux!)
nom des pages crawler
nom du robot/Agent (google, ask jeeves ...)
nombre de crawl de la dite page
date
nom de pages totales crawlées... etc ...
merci d'avance pour votre aide (script complet, bout de code, url ...)
--
~~~~~~~~~~~~~~~
bonnes-oeuvres.com :
<a href="http://www.bonnes-oeuvres.com/">aidez les autres avec vos clics!</a><br>
des <a href="http://www.dons-logos-sonneries.com/">logos et sonneries</a> qui
aide les bonnes oeuvres!
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Michel Rodriguez
Remy Berrebi wrote:
apres toute une journée de recherche hier pour trouver mon bonheur, je viens a vous (mes freres? arf!) pour vous demander conseil et aide pour developper un analyser de log apache qui pourrait me donner les infos suivant entre autre (le plus c'est le mieux!)
nom des pages crawler nom du robot/Agent (google, ask jeeves ...) nombre de crawl de la dite page date nom de pages totales crawlées... etc ...
awstats: http://awstats.sourceforge.net
En plus c'est en Perl.
Le seul probleme que j'ai trouve c'est que c'est vraiment destine a etre utilise comme un CGI, j'ai jamais reussi a l'installer correctement en dehors de l'arborescence web, avec generation des stats en batch. Mais tu peux toujours le mettre sur un serveur a part, non accessible de l'exterieur, et copier les logs dessus.
Ceci dit, l'installe par defaut marche super bien.
__ Michel Rodriguez Perl & XML http://xmltwig.com
Remy Berrebi wrote:
apres toute une journée de recherche hier pour trouver mon bonheur, je
viens a vous (mes freres? arf!) pour vous demander conseil et aide pour
developper un analyser de log apache qui pourrait me donner les infos
suivant entre autre (le plus c'est le mieux!)
nom des pages crawler
nom du robot/Agent (google, ask jeeves ...)
nombre de crawl de la dite page
date
nom de pages totales crawlées... etc ...
awstats: http://awstats.sourceforge.net
En plus c'est en Perl.
Le seul probleme que j'ai trouve c'est que c'est vraiment destine a etre
utilise comme un CGI, j'ai jamais reussi a l'installer correctement en
dehors de l'arborescence web, avec generation des stats en batch. Mais tu
peux toujours le mettre sur un serveur a part, non accessible de
l'exterieur, et copier les logs dessus.
Ceci dit, l'installe par defaut marche super bien.
__
Michel Rodriguez
Perl & XML
http://xmltwig.com
apres toute une journée de recherche hier pour trouver mon bonheur, je viens a vous (mes freres? arf!) pour vous demander conseil et aide pour developper un analyser de log apache qui pourrait me donner les infos suivant entre autre (le plus c'est le mieux!)
nom des pages crawler nom du robot/Agent (google, ask jeeves ...) nombre de crawl de la dite page date nom de pages totales crawlées... etc ...
awstats: http://awstats.sourceforge.net
En plus c'est en Perl.
Le seul probleme que j'ai trouve c'est que c'est vraiment destine a etre utilise comme un CGI, j'ai jamais reussi a l'installer correctement en dehors de l'arborescence web, avec generation des stats en batch. Mais tu peux toujours le mettre sur un serveur a part, non accessible de l'exterieur, et copier les logs dessus.
Ceci dit, l'installe par defaut marche super bien.
__ Michel Rodriguez Perl & XML http://xmltwig.com
Remy Berrebi
je l'utilise deja mais il ne me donne que des info sommaire (dernier passage de google, nombre de hit total (mais avec quel fichier, on sais pas ...)...)
bref c'est bien pour des stat globales mais pour connaitre l'activité de tous les robots sur ton/tes sites c'est plutot maigre ...
je connais en php googlestats, mais la ou je veux ca, je n'ai pas php :-( ...mais c'est une bonne idee de ce que je cherche a faire ....
voila,
merci tout de meme!
Michel Rodriguez wrote:
Remy Berrebi wrote:
apres toute une journée de recherche hier pour trouver mon bonheur, je viens a vous (mes freres? arf!) pour vous demander conseil et aide pour developper un analyser de log apache qui pourrait me donner les infos suivant entre autre (le plus c'est le mieux!)
nom des pages crawler nom du robot/Agent (google, ask jeeves ...) nombre de crawl de la dite page date nom de pages totales crawlées... etc ...
awstats: http://awstats.sourceforge.net
En plus c'est en Perl.
Le seul probleme que j'ai trouve c'est que c'est vraiment destine a etre utilise comme un CGI, j'ai jamais reussi a l'installer correctement en dehors de l'arborescence web, avec generation des stats en batch. Mais tu peux toujours le mettre sur un serveur a part, non accessible de l'exterieur, et copier les logs dessus.
Ceci dit, l'installe par defaut marche super bien.
__ Michel Rodriguez Perl & XML http://xmltwig.com
--
~~~~~~~~~~~~~~~ bonnes-oeuvres.com : <a href="http://www.bonnes-oeuvres.com/">aidez les autres avec vos clics!</a><br> des <a href="http://www.dons-logos-sonneries.com/">logos et sonneries</a> qui aide les bonnes oeuvres!
je l'utilise deja mais il ne me donne que des info sommaire (dernier
passage de google, nombre de hit total (mais avec quel fichier, on sais
pas ...)...)
bref c'est bien pour des stat globales mais pour connaitre l'activité de
tous les robots sur ton/tes sites c'est plutot maigre ...
je connais en php googlestats, mais la ou je veux ca, je n'ai pas php
:-( ...mais c'est une bonne idee de ce que je cherche a faire ....
voila,
merci tout de meme!
Michel Rodriguez wrote:
Remy Berrebi wrote:
apres toute une journée de recherche hier pour trouver mon bonheur, je
viens a vous (mes freres? arf!) pour vous demander conseil et aide pour
developper un analyser de log apache qui pourrait me donner les infos
suivant entre autre (le plus c'est le mieux!)
nom des pages crawler
nom du robot/Agent (google, ask jeeves ...)
nombre de crawl de la dite page
date
nom de pages totales crawlées... etc ...
awstats: http://awstats.sourceforge.net
En plus c'est en Perl.
Le seul probleme que j'ai trouve c'est que c'est vraiment destine a etre
utilise comme un CGI, j'ai jamais reussi a l'installer correctement en
dehors de l'arborescence web, avec generation des stats en batch. Mais tu
peux toujours le mettre sur un serveur a part, non accessible de
l'exterieur, et copier les logs dessus.
Ceci dit, l'installe par defaut marche super bien.
__
Michel Rodriguez
Perl & XML
http://xmltwig.com
--
~~~~~~~~~~~~~~~
bonnes-oeuvres.com :
<a href="http://www.bonnes-oeuvres.com/">aidez les autres avec vos clics!</a><br>
des <a href="http://www.dons-logos-sonneries.com/">logos et sonneries</a> qui
aide les bonnes oeuvres!
je l'utilise deja mais il ne me donne que des info sommaire (dernier passage de google, nombre de hit total (mais avec quel fichier, on sais pas ...)...)
bref c'est bien pour des stat globales mais pour connaitre l'activité de tous les robots sur ton/tes sites c'est plutot maigre ...
je connais en php googlestats, mais la ou je veux ca, je n'ai pas php :-( ...mais c'est une bonne idee de ce que je cherche a faire ....
voila,
merci tout de meme!
Michel Rodriguez wrote:
Remy Berrebi wrote:
apres toute une journée de recherche hier pour trouver mon bonheur, je viens a vous (mes freres? arf!) pour vous demander conseil et aide pour developper un analyser de log apache qui pourrait me donner les infos suivant entre autre (le plus c'est le mieux!)
nom des pages crawler nom du robot/Agent (google, ask jeeves ...) nombre de crawl de la dite page date nom de pages totales crawlées... etc ...
awstats: http://awstats.sourceforge.net
En plus c'est en Perl.
Le seul probleme que j'ai trouve c'est que c'est vraiment destine a etre utilise comme un CGI, j'ai jamais reussi a l'installer correctement en dehors de l'arborescence web, avec generation des stats en batch. Mais tu peux toujours le mettre sur un serveur a part, non accessible de l'exterieur, et copier les logs dessus.
Ceci dit, l'installe par defaut marche super bien.
__ Michel Rodriguez Perl & XML http://xmltwig.com
--
~~~~~~~~~~~~~~~ bonnes-oeuvres.com : <a href="http://www.bonnes-oeuvres.com/">aidez les autres avec vos clics!</a><br> des <a href="http://www.dons-logos-sonneries.com/">logos et sonneries</a> qui aide les bonnes oeuvres!