Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Se premunir contre l'utilisation de r obots

5 réponses
Avatar
YoZuK
Bonjour,

Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !

Y'a t'il a votre connaissance une solution envisageable !

Bien cordialement,
Yo@nn

5 réponses

Avatar
Philippe Le Van
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !

Y'a t'il a votre connaissance une solution envisageable !


Je vois une solution bêtement pratique : changer la structure
de ta page tous les mois. Test clients ne vont
pas s'amuser à changer leur système de parsing tous
les mois, ils vont être saoulés très vite... (surtout si
à chaque fois ils perdent 5j de données parce qu'ils
n'ont pas vu que ça avait changé...).

Tu peux aussi mettre en captcha à l'authentification.
Théoriquement c'est fait pour (mais c'est bcp plus chiant
pour le client).

A+, Philippe
--
http://www.kitpages.fr

Avatar
Mickael Wolff

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !

Y'a t'il a votre connaissance une solution envisageable !


Lier contractuellement le client à des conditions d'utilisation, et
facturer les clients contrevenant. Bien sûr, avec suspension du compte
jusqu'à régularisation. On peut assez facilement repérer les tricheurs
en épluchant les log de connexion par exemple.

--
Mickaël Wolff aka Lupus Michaelis
http://lupusmic.org

Avatar
Denis Beauregard
Le 09 Aug 2007 17:56:36 GMT, YoZuK écrivait dans
fr.comp.lang.php:

Bonjour,

Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !

Y'a t'il a votre connaissance une solution envisageable !


Comme le visiteur aura probablement un Windows, et si le serveur
est un Linux ou un Mac, on peut jouer avec la casse des noms de
fichier. Si on a par exemple index.php, Index.php, iNdex.php, etc.,
le site pourrait revenir illisible une fois recopié.

On peut aussi changer la structure selon le visiteur, via un POST.
Ainsi, les visiteurs verront systématiquement les pages 1.php, 2.php,
etc. dont le contenu changera selon le lien.


Denis

Avatar
Etienne SOBOLE
C'est un site authentifié ou pas?

S'il est authentifié, tu peux logger les nombres de requetes par minutes
effectué par un user...
Tu te doutes qu'un humain n'est fera pas plus de 15 par minutes !!!
Au dela tu peux commencé a renvoyer n'importe quoi !!!

Si c'est pas authentifié, tu peux faire pareil avec l'adresse ip du
visiteur, mais c'est plus délicat !

voila msieu.

"YoZuK" a écrit dans le message de news:
46bb0a2e$0$406$
Bonjour,

Je suis en cours de réalisation de notre extranet d'information client et
nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de
Robots (programmes d'extractions automatisés d'infos)... et ce parce que
nous avons une offre de WebServices à un tarif différent.

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !

Y'a t'il a votre connaissance une solution envisageable !

Bien cordialement,



Avatar
Antoine

Bonjour,


Bonjour

Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !


Les images dont le texte est à ressaisir portent le nom de captcha. Tu
pourra trouver plus d'infos et un historique sur
http://fr.wikipedia.org/wiki/Captcha.

Cependant comme ton patron je ne suis pas fan de ce genre de méthode,
inaccessible aux visiteurs atteints de handicaps (visuels notamment),
rébarbative si il y'a beaucoup de formulaires sur un site, etc. Une
autre solution consiste à utiliser un captcha accessible. Tu peux en
trouver un exemple sur
http://www.atelierphp5.com/un-captcha-accessible.html.

Y'a t'il a votre connaissance une solution envisageable !


Je ne parviens pas à retrouver la page sur laquelle j'avais lu de très
bonnes idées il y a quelques semaines. Il s'agissait d'un méthode
utilisant plusieurs champs checkbox cachés grâce au css à la fin de ton
formulaire. Les robots cochent la plupart du temps tous les checkbox
qu'ils rencontrent, tu peux donc vérifier à la réception de ton
formulaire si la deuxième ou la troisième checkbox est seulement
celle-ci est cochée (ce qui correspond à l'état par défaut). Le tri
humain/robot se fait alors facilement.

Cette méthode a l'avantage de ne demander aucune action de la part de
tes clients, en assurant une bonne sécurité. Il est bon d'ajouter une
phrase (cachée aussi) juste avant pour prévenir un visiteur
n'interprétant pas les css de ne rien changer aux cases à cocher.

Bien cordialement,



Au plaisir ;)

Antoine