Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Philippe Le Van
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Je vois une solution bêtement pratique : changer la structure de ta page tous les mois. Test clients ne vont pas s'amuser à changer leur système de parsing tous les mois, ils vont être saoulés très vite... (surtout si à chaque fois ils perdent 5j de données parce qu'ils n'ont pas vu que ça avait changé...).
Tu peux aussi mettre en captcha à l'authentification. Théoriquement c'est fait pour (mais c'est bcp plus chiant pour le client).
A+, Philippe -- http://www.kitpages.fr
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Je vois une solution bêtement pratique : changer la structure
de ta page tous les mois. Test clients ne vont
pas s'amuser à changer leur système de parsing tous
les mois, ils vont être saoulés très vite... (surtout si
à chaque fois ils perdent 5j de données parce qu'ils
n'ont pas vu que ça avait changé...).
Tu peux aussi mettre en captcha à l'authentification.
Théoriquement c'est fait pour (mais c'est bcp plus chiant
pour le client).
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Je vois une solution bêtement pratique : changer la structure de ta page tous les mois. Test clients ne vont pas s'amuser à changer leur système de parsing tous les mois, ils vont être saoulés très vite... (surtout si à chaque fois ils perdent 5j de données parce qu'ils n'ont pas vu que ça avait changé...).
Tu peux aussi mettre en captcha à l'authentification. Théoriquement c'est fait pour (mais c'est bcp plus chiant pour le client).
A+, Philippe -- http://www.kitpages.fr
Mickael Wolff
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Lier contractuellement le client à des conditions d'utilisation, et facturer les clients contrevenant. Bien sûr, avec suspension du compte jusqu'à régularisation. On peut assez facilement repérer les tricheurs en épluchant les log de connexion par exemple.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Lier contractuellement le client à des conditions d'utilisation, et
facturer les clients contrevenant. Bien sûr, avec suspension du compte
jusqu'à régularisation. On peut assez facilement repérer les tricheurs
en épluchant les log de connexion par exemple.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Lier contractuellement le client à des conditions d'utilisation, et facturer les clients contrevenant. Bien sûr, avec suspension du compte jusqu'à régularisation. On peut assez facilement repérer les tricheurs en épluchant les log de connexion par exemple.
Le 09 Aug 2007 17:56:36 GMT, YoZuK écrivait dans fr.comp.lang.php:
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Comme le visiteur aura probablement un Windows, et si le serveur est un Linux ou un Mac, on peut jouer avec la casse des noms de fichier. Si on a par exemple index.php, Index.php, iNdex.php, etc., le site pourrait revenir illisible une fois recopié.
On peut aussi changer la structure selon le visiteur, via un POST. Ainsi, les visiteurs verront systématiquement les pages 1.php, 2.php, etc. dont le contenu changera selon le lien.
Denis
Le 09 Aug 2007 17:56:36 GMT, YoZuK <buk@hotmail.com> écrivait dans
fr.comp.lang.php:
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Comme le visiteur aura probablement un Windows, et si le serveur
est un Linux ou un Mac, on peut jouer avec la casse des noms de
fichier. Si on a par exemple index.php, Index.php, iNdex.php, etc.,
le site pourrait revenir illisible une fois recopié.
On peut aussi changer la structure selon le visiteur, via un POST.
Ainsi, les visiteurs verront systématiquement les pages 1.php, 2.php,
etc. dont le contenu changera selon le lien.
Le 09 Aug 2007 17:56:36 GMT, YoZuK écrivait dans fr.comp.lang.php:
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Comme le visiteur aura probablement un Windows, et si le serveur est un Linux ou un Mac, on peut jouer avec la casse des noms de fichier. Si on a par exemple index.php, Index.php, iNdex.php, etc., le site pourrait revenir illisible une fois recopié.
On peut aussi changer la structure selon le visiteur, via un POST. Ainsi, les visiteurs verront systématiquement les pages 1.php, 2.php, etc. dont le contenu changera selon le lien.
Denis
Etienne SOBOLE
C'est un site authentifié ou pas?
S'il est authentifié, tu peux logger les nombres de requetes par minutes effectué par un user... Tu te doutes qu'un humain n'est fera pas plus de 15 par minutes !!! Au dela tu peux commencé a renvoyer n'importe quoi !!!
Si c'est pas authentifié, tu peux faire pareil avec l'adresse ip du visiteur, mais c'est plus délicat !
voila msieu.
"YoZuK" a écrit dans le message de news: 46bb0a2e$0$406$
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Bien cordialement,
C'est un site authentifié ou pas?
S'il est authentifié, tu peux logger les nombres de requetes par minutes
effectué par un user...
Tu te doutes qu'un humain n'est fera pas plus de 15 par minutes !!!
Au dela tu peux commencé a renvoyer n'importe quoi !!!
Si c'est pas authentifié, tu peux faire pareil avec l'adresse ip du
visiteur, mais c'est plus délicat !
voila msieu.
"YoZuK" <buk@hotmail.com> a écrit dans le message de news:
46bb0a2e$0$406$426a74cc@news.free.fr...
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client et
nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de
Robots (programmes d'extractions automatisés d'infos)... et ce parce que
nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
S'il est authentifié, tu peux logger les nombres de requetes par minutes effectué par un user... Tu te doutes qu'un humain n'est fera pas plus de 15 par minutes !!! Au dela tu peux commencé a renvoyer n'importe quoi !!!
Si c'est pas authentifié, tu peux faire pareil avec l'adresse ip du visiteur, mais c'est plus délicat !
voila msieu.
"YoZuK" a écrit dans le message de news: 46bb0a2e$0$406$
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Bien cordialement,
Antoine
Bonjour,
Bonjour
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Les images dont le texte est à ressaisir portent le nom de captcha. Tu pourra trouver plus d'infos et un historique sur http://fr.wikipedia.org/wiki/Captcha.
Cependant comme ton patron je ne suis pas fan de ce genre de méthode, inaccessible aux visiteurs atteints de handicaps (visuels notamment), rébarbative si il y'a beaucoup de formulaires sur un site, etc. Une autre solution consiste à utiliser un captcha accessible. Tu peux en trouver un exemple sur http://www.atelierphp5.com/un-captcha-accessible.html.
Y'a t'il a votre connaissance une solution envisageable !
Je ne parviens pas à retrouver la page sur laquelle j'avais lu de très bonnes idées il y a quelques semaines. Il s'agissait d'un méthode utilisant plusieurs champs checkbox cachés grâce au css à la fin de ton formulaire. Les robots cochent la plupart du temps tous les checkbox qu'ils rencontrent, tu peux donc vérifier à la réception de ton formulaire si la deuxième ou la troisième checkbox est seulement celle-ci est cochée (ce qui correspond à l'état par défaut). Le tri humain/robot se fait alors facilement.
Cette méthode a l'avantage de ne demander aucune action de la part de tes clients, en assurant une bonne sécurité. Il est bon d'ajouter une phrase (cachée aussi) juste avant pour prévenir un visiteur n'interprétant pas les css de ne rien changer aux cases à cocher.
Bien cordialement,
Au plaisir ;)
Antoine
Bonjour,
Bonjour
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Les images dont le texte est à ressaisir portent le nom de captcha. Tu
pourra trouver plus d'infos et un historique sur
http://fr.wikipedia.org/wiki/Captcha.
Cependant comme ton patron je ne suis pas fan de ce genre de méthode,
inaccessible aux visiteurs atteints de handicaps (visuels notamment),
rébarbative si il y'a beaucoup de formulaires sur un site, etc. Une
autre solution consiste à utiliser un captcha accessible. Tu peux en
trouver un exemple sur
http://www.atelierphp5.com/un-captcha-accessible.html.
Y'a t'il a votre connaissance une solution envisageable !
Je ne parviens pas à retrouver la page sur laquelle j'avais lu de très
bonnes idées il y a quelques semaines. Il s'agissait d'un méthode
utilisant plusieurs champs checkbox cachés grâce au css à la fin de ton
formulaire. Les robots cochent la plupart du temps tous les checkbox
qu'ils rencontrent, tu peux donc vérifier à la réception de ton
formulaire si la deuxième ou la troisième checkbox est seulement
celle-ci est cochée (ce qui correspond à l'état par défaut). Le tri
humain/robot se fait alors facilement.
Cette méthode a l'avantage de ne demander aucune action de la part de
tes clients, en assurant une bonne sécurité. Il est bon d'ajouter une
phrase (cachée aussi) juste avant pour prévenir un visiteur
n'interprétant pas les css de ne rien changer aux cases à cocher.
Je suis en cours de réalisation de notre extranet d'information client et nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de Robots (programmes d'extractions automatisés d'infos)... et ce parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type images que l'internaute doit resaisir en ligne !
Les images dont le texte est à ressaisir portent le nom de captcha. Tu pourra trouver plus d'infos et un historique sur http://fr.wikipedia.org/wiki/Captcha.
Cependant comme ton patron je ne suis pas fan de ce genre de méthode, inaccessible aux visiteurs atteints de handicaps (visuels notamment), rébarbative si il y'a beaucoup de formulaires sur un site, etc. Une autre solution consiste à utiliser un captcha accessible. Tu peux en trouver un exemple sur http://www.atelierphp5.com/un-captcha-accessible.html.
Y'a t'il a votre connaissance une solution envisageable !
Je ne parviens pas à retrouver la page sur laquelle j'avais lu de très bonnes idées il y a quelques semaines. Il s'agissait d'un méthode utilisant plusieurs champs checkbox cachés grâce au css à la fin de ton formulaire. Les robots cochent la plupart du temps tous les checkbox qu'ils rencontrent, tu peux donc vérifier à la réception de ton formulaire si la deuxième ou la troisième checkbox est seulement celle-ci est cochée (ce qui correspond à l'état par défaut). Le tri humain/robot se fait alors facilement.
Cette méthode a l'avantage de ne demander aucune action de la part de tes clients, en assurant une bonne sécurité. Il est bon d'ajouter une phrase (cachée aussi) juste avant pour prévenir un visiteur n'interprétant pas les css de ne rien changer aux cases à cocher.