J'ai récupéré un bout de code php pour créer un livre d'or sur le site
d'une amie.
Le seul souci c que chaque jour il est infesté de spam...
J'ai essayé de mettre des liens spampoison censé "aspirer" les robots,
mais ca marche pas du tout...
http://www.larmesdenacres.fr/guestbook.php
Si vous avez un petit truc simple à implémenter, ou une astuce quelconque...
D'avance merci pour toute info.
Je suis parfaitement conscient du fait que l'on peut faker le POST et donc envoyer un doublet qui fera du mal, mais effectivement il serait p-e plus judicieux de passer par une session ou par une base de données.
C'est ce que je pense.
Le but de ce script (et de tout ceux qui sont présents sur mon site) n'est pas d'avoir LA solution ultime mais de donner des voies de réflexions ou des débuts de solution.
Ok.
Mais quoi qu'il en soit, je peux t'assurer que mon système arrètera beaucoup de spam, tout simplement parce que je m'en sers sur certains sites et que je n'ai pas le moindre soucis alors qu'avant de l'installer, j'étais floodé par les bots.
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
Le 22/10/2007 15:22, CrazyCat a écrit :
Je suis parfaitement conscient du fait que l'on peut faker le POST et
donc envoyer un doublet qui fera du mal, mais effectivement il serait
p-e plus judicieux de passer par une session ou par une base de données.
C'est ce que je pense.
Le but de ce script (et de tout ceux qui sont présents sur mon site)
n'est pas d'avoir LA solution ultime mais de donner des voies de
réflexions ou des débuts de solution.
Ok.
Mais quoi qu'il en soit, je peux t'assurer que mon système arrètera
beaucoup de spam, tout simplement parce que je m'en sers sur certains
sites et que je n'ai pas le moindre soucis alors qu'avant de
l'installer, j'étais floodé par les bots.
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même. Mais si ta solution gagne en publicité (du fait que tu l'aies
signalé dans ce groupe), et que de nombreuses personnes l'implémentent,
il arrivera bien un jour où quelqu'un programmera son robot pour passer
outre, et ce jour là tu verras revenir le flood.
Je suis parfaitement conscient du fait que l'on peut faker le POST et donc envoyer un doublet qui fera du mal, mais effectivement il serait p-e plus judicieux de passer par une session ou par une base de données.
C'est ce que je pense.
Le but de ce script (et de tout ceux qui sont présents sur mon site) n'est pas d'avoir LA solution ultime mais de donner des voies de réflexions ou des débuts de solution.
Ok.
Mais quoi qu'il en soit, je peux t'assurer que mon système arrètera beaucoup de spam, tout simplement parce que je m'en sers sur certains sites et que je n'ai pas le moindre soucis alors qu'avant de l'installer, j'étais floodé par les bots.
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
CrazyCat
Olivier Miakinen wrote:
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
C'est bien pourquoi je ne veux pas être célèbre :D Plus sérieusement, cette solution est actuellement adaptée à mes besoins mais j'attend toutes les critiques (constructives) et idées pour la rendre plus adaptable.
Je pensais déjà avoir 2 modes de fonctionnement: celui avec l'affichage direct du formulaire et celui avec le renvoit du tableau "utile". Je vais ajouter le fonctionnement intermédiaire: affichage du formulaire "réduit" et renvoit de la variable "solution".
-- Discussions et débats sur l'actualité: http://www.sujets-d-actu.eu Réseau IRC Francophone: http://www.crazy-irc.net
Olivier Miakinen wrote:
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même. Mais si ta solution gagne en publicité (du fait que tu l'aies
signalé dans ce groupe), et que de nombreuses personnes l'implémentent,
il arrivera bien un jour où quelqu'un programmera son robot pour passer
outre, et ce jour là tu verras revenir le flood.
C'est bien pourquoi je ne veux pas être célèbre :D
Plus sérieusement, cette solution est actuellement adaptée à mes besoins
mais j'attend toutes les critiques (constructives) et idées pour la
rendre plus adaptable.
Je pensais déjà avoir 2 modes de fonctionnement: celui avec l'affichage
direct du formulaire et celui avec le renvoit du tableau "utile". Je
vais ajouter le fonctionnement intermédiaire: affichage du formulaire
"réduit" et renvoit de la variable "solution".
--
Discussions et débats sur l'actualité: http://www.sujets-d-actu.eu
Réseau IRC Francophone: http://www.crazy-irc.net
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
C'est bien pourquoi je ne veux pas être célèbre :D Plus sérieusement, cette solution est actuellement adaptée à mes besoins mais j'attend toutes les critiques (constructives) et idées pour la rendre plus adaptable.
Je pensais déjà avoir 2 modes de fonctionnement: celui avec l'affichage direct du formulaire et celui avec le renvoit du tableau "utile". Je vais ajouter le fonctionnement intermédiaire: affichage du formulaire "réduit" et renvoit de la variable "solution".
-- Discussions et débats sur l'actualité: http://www.sujets-d-actu.eu Réseau IRC Francophone: http://www.crazy-irc.net
Denis Beauregard
Le Mon, 22 Oct 2007 15:47:32 +0200, Olivier Miakinen <om+ écrivait dans fr.comp.infosystemes.www.auteurs:
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
Pourquoi ?
Son site n'est pas Yahoo, par exemple. Pour un spammeur, un gros site avec des millions d'adresses (comme les listes de Yahoo ou de Google) est un moyen pour obtenir des victimes.
Mais un site plus ou moins personnel, même avec 1000 adresses, n'est pas une aubaine pour 2 raisons s'il y a une protection simple (même si c'est toujours le même mot de passe que l'on demande). Tout d'abord, s'il a pris les 1000 adresses avant l'installation du système de protection, chaque visite ne donnerait que quelques adresses de plus, ce qui ne vaut pas le temps à prendre pour coder un meilleur robot. Ensuite, c'est plus rentable de travailler sur les sites plus gros s'il faut développer du code pour améliorer les robots ou sur les sites sans aucune protection.
Donc, même si l'algorithme de protection se multiplie, il restera des millions de sites sans algorithme de protection.
Par ailleurs, comment le robot saura-t-il qu'il a le bon algorithme ? Il suffit d'ajouter une valeur et hop, l'algorithme vient de changer. Par exemple, on varie chaque jour en ajoutant une valeur en fonction du jour de la semaine (le lundi, on ajoute 17, le mardi 351, etc.) ou du jour du mois ou de l'année. Si chaque site a sa méthode, même un robot écrit pour visiter 100 sites avec le même algorithme ne pourra rien faire.
Denis
Le Mon, 22 Oct 2007 15:47:32 +0200, Olivier Miakinen
<om+news@miakinen.net> écrivait dans fr.comp.infosystemes.www.auteurs:
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même. Mais si ta solution gagne en publicité (du fait que tu l'aies
signalé dans ce groupe), et que de nombreuses personnes l'implémentent,
il arrivera bien un jour où quelqu'un programmera son robot pour passer
outre, et ce jour là tu verras revenir le flood.
Pourquoi ?
Son site n'est pas Yahoo, par exemple. Pour un spammeur, un gros
site avec des millions d'adresses (comme les listes de Yahoo ou de
Google) est un moyen pour obtenir des victimes.
Mais un site plus ou moins personnel, même avec 1000 adresses, n'est
pas une aubaine pour 2 raisons s'il y a une protection simple (même
si c'est toujours le même mot de passe que l'on demande). Tout
d'abord, s'il a pris les 1000 adresses avant l'installation du
système de protection, chaque visite ne donnerait que quelques
adresses de plus, ce qui ne vaut pas le temps à prendre pour coder
un meilleur robot. Ensuite, c'est plus rentable de travailler sur
les sites plus gros s'il faut développer du code pour améliorer les
robots ou sur les sites sans aucune protection.
Donc, même si l'algorithme de protection se multiplie, il restera
des millions de sites sans algorithme de protection.
Par ailleurs, comment le robot saura-t-il qu'il a le bon algorithme ?
Il suffit d'ajouter une valeur et hop, l'algorithme vient de changer.
Par exemple, on varie chaque jour en ajoutant une valeur en fonction
du jour de la semaine (le lundi, on ajoute 17, le mardi 351, etc.)
ou du jour du mois ou de l'année. Si chaque site a sa méthode, même
un robot écrit pour visiter 100 sites avec le même algorithme ne
pourra rien faire.
Le Mon, 22 Oct 2007 15:47:32 +0200, Olivier Miakinen <om+ écrivait dans fr.comp.infosystemes.www.auteurs:
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
Pourquoi ?
Son site n'est pas Yahoo, par exemple. Pour un spammeur, un gros site avec des millions d'adresses (comme les listes de Yahoo ou de Google) est un moyen pour obtenir des victimes.
Mais un site plus ou moins personnel, même avec 1000 adresses, n'est pas une aubaine pour 2 raisons s'il y a une protection simple (même si c'est toujours le même mot de passe que l'on demande). Tout d'abord, s'il a pris les 1000 adresses avant l'installation du système de protection, chaque visite ne donnerait que quelques adresses de plus, ce qui ne vaut pas le temps à prendre pour coder un meilleur robot. Ensuite, c'est plus rentable de travailler sur les sites plus gros s'il faut développer du code pour améliorer les robots ou sur les sites sans aucune protection.
Donc, même si l'algorithme de protection se multiplie, il restera des millions de sites sans algorithme de protection.
Par ailleurs, comment le robot saura-t-il qu'il a le bon algorithme ? Il suffit d'ajouter une valeur et hop, l'algorithme vient de changer. Par exemple, on varie chaque jour en ajoutant une valeur en fonction du jour de la semaine (le lundi, on ajoute 17, le mardi 351, etc.) ou du jour du mois ou de l'année. Si chaque site a sa méthode, même un robot écrit pour visiter 100 sites avec le même algorithme ne pourra rien faire.
Denis
Pat
Olivier Miakinen a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même.
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams... Mais sont-ce vraiment des robots qui spam........?
Pat.
Olivier Miakinen a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même.
Ben moi ca marche pas.
J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des
spams...
Mais sont-ce vraiment des robots qui spam........?
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même.
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams... Mais sont-ce vraiment des robots qui spam........?
Pat.
CrazyCat
Pat wrote:
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams... Mais sont-ce vraiment des robots qui spam........?
La grande question :) "2+2" est une chaine facile à comprendre, même pour un chinois ou un inuit, donc c'est facile de spammer.
-- Discussions et débats sur l'actualité: http://www.sujets-d-actu.eu Réseau IRC Francophone: http://www.crazy-irc.net
Pat wrote:
Ben moi ca marche pas.
J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des
spams...
Mais sont-ce vraiment des robots qui spam........?
La grande question :)
"2+2" est une chaine facile à comprendre, même pour un chinois ou un
inuit, donc c'est facile de spammer.
--
Discussions et débats sur l'actualité: http://www.sujets-d-actu.eu
Réseau IRC Francophone: http://www.crazy-irc.net
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams... Mais sont-ce vraiment des robots qui spam........?
La grande question :) "2+2" est une chaine facile à comprendre, même pour un chinois ou un inuit, donc c'est facile de spammer.
-- Discussions et débats sur l'actualité: http://www.sujets-d-actu.eu Réseau IRC Francophone: http://www.crazy-irc.net
Olivier Miakinen
Le 22/10/2007 16:58, Denis Beauregard a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
Pourquoi ?
Son site n'est pas Yahoo, par exemple.
Je ne connais pas l'ensemble des sites de CrazyCat : si ça se trouve, l'un d'entre eux est Yahoo, ou un site aussi important, non ? ;-)
Quoi qu'il en soit, il suffit que sa technique soit utilisée sur *un* formulaire servant à envoyer des courriels, et qu'*un* spammeur tombe dessus, pour qu'il ait envie de développer un petit robot spécifique. Surtout si l'un des champs du formulaire est transmis sans trop de filtrage parmi ce qui ira dans les champs To, Cc, From ou Subject du courriel (ce qui permet au spammeur d'envoyer des rafales de 10 000 spams par requête HTTP). Comme elle est facile à repérer (champs 'turing' et 'turingS'), un aspirateur de sites peut très bien le chercher sur les autres sites visités.
[...]
Donc, même si l'algorithme de protection se multiplie, il restera des millions de sites sans algorithme de protection.
Oui, bien sûr, les spammeurs iront plus facilement vers ceux-là. C'est d'ailleurs pourquoi une question fixe protège déjà un peu plus que pas de question du tout -- mais à peine moins qu'une question variable à laquelle on peut répondre une réponse fixe.
Par ailleurs, comment le robot saura-t-il qu'il a le bon algorithme ?
En mettant une adresse de test parmi les 10 000 à spammer, par exemple. Tant que les spams continuent à affluer sur cette adresse, c'est que l'algo est bon.
Il suffit d'ajouter une valeur et hop, l'algorithme vient de changer. Par exemple, on varie chaque jour en ajoutant une valeur en fonction du jour de la semaine (le lundi, on ajoute 17, le mardi 351, etc.) ou du jour du mois ou de l'année.
Il « suffit » en effet de changer de méthode chaque jour pour que le robot aie besoin d'une aide manuelle une fois par jour avant de continuer à spammer tout seul à raison de 10 000 spams par seconde pendant 86 400 secondes... ;-)
Oui, parce que le fait que ce soit un md5, ou un sha, ou n'importe quoi d'autre, n'a que peu d'importance quand il suffit de le faire une fois manuellement avant de dire au robot « continue d'envoyer les mêmes valeurs de 'turing' et 'turingS' »
Si chaque site a sa méthode, même un robot écrit pour visiter 100 sites avec le même algorithme ne pourra rien faire.
Ce serait quand même mieux si la méthode était forcée de varier à chaque requête.
Le 22/10/2007 16:58, Denis Beauregard a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même. Mais si ta solution gagne en publicité (du fait que tu l'aies
signalé dans ce groupe), et que de nombreuses personnes l'implémentent,
il arrivera bien un jour où quelqu'un programmera son robot pour passer
outre, et ce jour là tu verras revenir le flood.
Pourquoi ?
Son site n'est pas Yahoo, par exemple.
Je ne connais pas l'ensemble des sites de CrazyCat : si ça se trouve,
l'un d'entre eux est Yahoo, ou un site aussi important, non ? ;-)
Quoi qu'il en soit, il suffit que sa technique soit utilisée sur *un*
formulaire servant à envoyer des courriels, et qu'*un* spammeur tombe
dessus, pour qu'il ait envie de développer un petit robot spécifique.
Surtout si l'un des champs du formulaire est transmis sans trop de
filtrage parmi ce qui ira dans les champs To, Cc, From ou Subject du
courriel (ce qui permet au spammeur d'envoyer des rafales de 10 000
spams par requête HTTP). Comme elle est facile à repérer (champs
'turing' et 'turingS'), un aspirateur de sites peut très bien le
chercher sur les autres sites visités.
[...]
Donc, même si l'algorithme de protection se multiplie, il restera
des millions de sites sans algorithme de protection.
Oui, bien sûr, les spammeurs iront plus facilement vers ceux-là. C'est
d'ailleurs pourquoi une question fixe protège déjà un peu plus que pas
de question du tout -- mais à peine moins qu'une question variable à
laquelle on peut répondre une réponse fixe.
Par ailleurs, comment le robot saura-t-il qu'il a le bon algorithme ?
En mettant une adresse de test parmi les 10 000 à spammer, par exemple.
Tant que les spams continuent à affluer sur cette adresse, c'est que
l'algo est bon.
Il suffit d'ajouter une valeur et hop, l'algorithme vient de changer.
Par exemple, on varie chaque jour en ajoutant une valeur en fonction
du jour de la semaine (le lundi, on ajoute 17, le mardi 351, etc.)
ou du jour du mois ou de l'année.
Il « suffit » en effet de changer de méthode chaque jour pour que le
robot aie besoin d'une aide manuelle une fois par jour avant de
continuer à spammer tout seul à raison de 10 000 spams par seconde
pendant 86 400 secondes... ;-)
Oui, parce que le fait que ce soit un md5, ou un sha, ou n'importe quoi
d'autre, n'a que peu d'importance quand il suffit de le faire une fois
manuellement avant de dire au robot « continue d'envoyer les mêmes
valeurs de 'turing' et 'turingS' »
Si chaque site a sa méthode, même
un robot écrit pour visiter 100 sites avec le même algorithme ne
pourra rien faire.
Ce serait quand même mieux si la méthode était forcée de varier à chaque
requête.
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même. Mais si ta solution gagne en publicité (du fait que tu l'aies signalé dans ce groupe), et que de nombreuses personnes l'implémentent, il arrivera bien un jour où quelqu'un programmera son robot pour passer outre, et ce jour là tu verras revenir le flood.
Pourquoi ?
Son site n'est pas Yahoo, par exemple.
Je ne connais pas l'ensemble des sites de CrazyCat : si ça se trouve, l'un d'entre eux est Yahoo, ou un site aussi important, non ? ;-)
Quoi qu'il en soit, il suffit que sa technique soit utilisée sur *un* formulaire servant à envoyer des courriels, et qu'*un* spammeur tombe dessus, pour qu'il ait envie de développer un petit robot spécifique. Surtout si l'un des champs du formulaire est transmis sans trop de filtrage parmi ce qui ira dans les champs To, Cc, From ou Subject du courriel (ce qui permet au spammeur d'envoyer des rafales de 10 000 spams par requête HTTP). Comme elle est facile à repérer (champs 'turing' et 'turingS'), un aspirateur de sites peut très bien le chercher sur les autres sites visités.
[...]
Donc, même si l'algorithme de protection se multiplie, il restera des millions de sites sans algorithme de protection.
Oui, bien sûr, les spammeurs iront plus facilement vers ceux-là. C'est d'ailleurs pourquoi une question fixe protège déjà un peu plus que pas de question du tout -- mais à peine moins qu'une question variable à laquelle on peut répondre une réponse fixe.
Par ailleurs, comment le robot saura-t-il qu'il a le bon algorithme ?
En mettant une adresse de test parmi les 10 000 à spammer, par exemple. Tant que les spams continuent à affluer sur cette adresse, c'est que l'algo est bon.
Il suffit d'ajouter une valeur et hop, l'algorithme vient de changer. Par exemple, on varie chaque jour en ajoutant une valeur en fonction du jour de la semaine (le lundi, on ajoute 17, le mardi 351, etc.) ou du jour du mois ou de l'année.
Il « suffit » en effet de changer de méthode chaque jour pour que le robot aie besoin d'une aide manuelle une fois par jour avant de continuer à spammer tout seul à raison de 10 000 spams par seconde pendant 86 400 secondes... ;-)
Oui, parce que le fait que ce soit un md5, ou un sha, ou n'importe quoi d'autre, n'a que peu d'importance quand il suffit de le faire une fois manuellement avant de dire au robot « continue d'envoyer les mêmes valeurs de 'turing' et 'turingS' »
Si chaque site a sa méthode, même un robot écrit pour visiter 100 sites avec le même algorithme ne pourra rien faire.
Ce serait quand même mieux si la méthode était forcée de varier à chaque requête.
Olivier Miakinen
Le 22/10/2007 17:34, Pat a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même.
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams...
Je peux avoir l'adresse de la page en question ?
Mais sont-ce vraiment des robots qui spam........?
Ce sont des humains qui se font aider par des programmes. Un humain peut répondre à une question une fois, puis demander au robot de répéter la réponse en boucle.
Le 22/10/2007 17:34, Pat a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même.
Ben moi ca marche pas.
J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des
spams...
Je peux avoir l'adresse de la page en question ?
Mais sont-ce vraiment des robots qui spam........?
Ce sont des humains qui se font aider par des programmes. Un humain peut
répondre à une question une fois, puis demander au robot de répéter la
réponse en boucle.
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même.
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams...
Je peux avoir l'adresse de la page en question ?
Mais sont-ce vraiment des robots qui spam........?
Ce sont des humains qui se font aider par des programmes. Un humain peut répondre à une question une fois, puis demander au robot de répéter la réponse en boucle.
C
Le Wed, 17 Oct 2007 16:52:56 +0200, Jacques Haddi a écrit:
tu peux ajouter ds le formulaire un champ demandant de saisir un nombre tiré au hasard et affiché à côté du champ. puis vérifier ds le script php que c'est le bon nombre qui a été saisi.
Même pas besoin. Sur mon site, j'ai juste ajouté un champ demandant d'entrer la série 1234, en un an et demi et pas loin de 15 spams en moyenne par jour, aucun n'a réussi à entrer un message sur le site.
-- La vitesse, c'est dépasser http://www.nancy-guide.net/
Le Wed, 17 Oct 2007 16:52:56 +0200, Jacques Haddi a écrit:
tu peux ajouter ds le formulaire un champ demandant de saisir un nombre
tiré au hasard et affiché à côté du champ. puis vérifier ds le script
php que c'est le bon nombre qui a été saisi.
Même pas besoin. Sur mon site, j'ai juste ajouté un champ demandant
d'entrer la série 1234, en un an et demi et pas loin de 15 spams en
moyenne par jour, aucun n'a réussi à entrer un message sur le site.
--
La vitesse, c'est dépasser
http://www.nancy-guide.net/
Le Wed, 17 Oct 2007 16:52:56 +0200, Jacques Haddi a écrit:
tu peux ajouter ds le formulaire un champ demandant de saisir un nombre tiré au hasard et affiché à côté du champ. puis vérifier ds le script php que c'est le bon nombre qui a été saisi.
Même pas besoin. Sur mon site, j'ai juste ajouté un champ demandant d'entrer la série 1234, en un an et demi et pas loin de 15 spams en moyenne par jour, aucun n'a réussi à entrer un message sur le site.
-- La vitesse, c'est dépasser http://www.nancy-guide.net/
Pat
Olivier Miakinen a écrit :
Le 22/10/2007 17:34, Pat a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même.
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams...
Je peux avoir l'adresse de la page en question ?
http://www.larmesdenacres.fr/guestbook.php
Olivier Miakinen a écrit :
Le 22/10/2007 17:34, Pat a écrit :
Bien sûr, parce que jamais personne n'a pris le temps de programmer son
robot pour tes sites. Je parierais que si tu posais tout le temps la
même question au lieu de varier d'un coup sur l'autre le résultat serait
le même.
Ben moi ca marche pas.
J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des
spams...
Bien sûr, parce que jamais personne n'a pris le temps de programmer son robot pour tes sites. Je parierais que si tu posais tout le temps la même question au lieu de varier d'un coup sur l'autre le résultat serait le même.
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams...
Je peux avoir l'adresse de la page en question ?
http://www.larmesdenacres.fr/guestbook.php
Michael DENIS
Le 22 Oct 2007 17:34:15 +0200, Pat écrivait:
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams...
Vous avez peut-être mis cette fameuse question en place mais visiblement rien d'autre. Vous ne vérifiez même pas la longeur des champs reçus ni le contenu de ceux-ci. Les derniers posts sur votre site montre cela clairement !
-- Michaël DENIS
Le 22 Oct 2007 17:34:15 +0200, Pat <patrick.haond@wanadoo.fr>
écrivait:
Ben moi ca marche pas.
J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des
spams...
Vous avez peut-être mis cette fameuse question en place mais
visiblement rien d'autre. Vous ne vérifiez même pas la longeur des
champs reçus ni le contenu de ceux-ci. Les derniers posts sur votre
site montre cela clairement !
Ben moi ca marche pas. J'ai mis simplement "question subsidiare 2+2= ?", et j'ai encore des spams...
Vous avez peut-être mis cette fameuse question en place mais visiblement rien d'autre. Vous ne vérifiez même pas la longeur des champs reçus ni le contenu de ceux-ci. Les derniers posts sur votre site montre cela clairement !