Réaction étrange du site www.PetitionOnline.com (lu par eCatch)
3 réponses
Denis Beauregard
Quelqu'un rapporte des problèmes de lecture du site
www.PetitionOnline.com et plus précisément de la page
www.petitiononline.com/mf051704/petition.html
Il lit des mots-clés générés au hasard, comme certains
messages de spam.
Son impression est que le site réagit différemment à son
navigateur, et celle des autres est qu'il a un virus.
Après quelques discussions (voir news:soc.genealogy.computing),
je lui ai demandé de visiter une certaine page de mon site pour
savoir ce qu'il laissait comme identification. Voici ce que
donne mon log:
[13/Jun/2004:08:18:35 -0700]
"GET /steve.hayes.was.here HTTP/1.1"
404
128
"-"
"Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1)"
Tout d'abord, il a un HEAD au lieu d'un GET. J'ai noté que
parfois, il y avait cette commande dans mon log de visites,
mais je ne sais pas ce que cela signifie (ou plutôt pourquoi
certains navigateurs l'utilisent).
Ensuite, il a une identification de navigateur assez différente
de la plupart des gens. "eCatch/2.1"
Son navigateur lui permet d'aller chercher des pages et de lire
hors-connexion. Je me demande si c'est la raison du fonctionnement
étrange qu'il obtient (voir les messages de Steve Hayes).
Je suppose que Mozilla permet de changer l'identification (quoique
je ne trouve pas comment faire), mais comment forcer un HEAD au lieu
d'un GET ?
Ou bien, quelqu'un d'autre peut-il reproduire le problème en forçant
HEAD ou l'identification ?
-- 0 Denis Beauregard // www.francogene.com | >>Adresse modifiée souvent/email changed frequently<< / | Société généalogique canadienne-française oo oo Mon association a 60 ans en 2003 ! - www.sgcf.com
Olivier Miakinen
Le 15/06/2004 06:38, Denis Beauregard a écrit :
Si je dis que c'est eCatch 2.1, le fichier robot.txt est tout à coup en binaire et la page demandée contient ceci:
[...]
Donc, le site détecte cet aspirateur.
Et il lui donne à manger des adresses de courrier (que je suppose fausses). Probablement cet aspirateur est-il utilisé par les spammeurs pour se constituer une base d'adresses.
Le 15/06/2004 06:38, Denis Beauregard a écrit :
Si je dis que c'est eCatch 2.1, le fichier robot.txt est tout à
coup en binaire et la page demandée contient ceci:
[...]
Donc, le site détecte cet aspirateur.
Et il lui donne à manger des adresses de courrier (que je suppose
fausses). Probablement cet aspirateur est-il utilisé par les spammeurs
pour se constituer une base d'adresses.
Si je dis que c'est eCatch 2.1, le fichier robot.txt est tout à coup en binaire et la page demandée contient ceci:
[...]
Donc, le site détecte cet aspirateur.
Et il lui donne à manger des adresses de courrier (que je suppose fausses). Probablement cet aspirateur est-il utilisé par les spammeurs pour se constituer une base d'adresses.