protection site Web

Le
docanski
Bonsoir,

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?

Cordialement,
--
docanski

- Les Côtes du nord de la Bretagne par le sentier des douaniers
- Memento des champignons : le guide le plus complet du Web
- Et d'autres sujets encore sur -> http://armorance.free.fr
Questions / Réponses high-tech
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Olivier Miakinen
Le #22026161
Le 24/05/2007 22:29, docanski a écrit :

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?



Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures
(pas trop quand même pour ne pas pénaliser quelqu'un qui se retrouverait
avec l'adresse IP auparavant utilisée par l'aspirateur).

Pour ne pas pénaliser non plus les robots honnêtes tels que ceux des
moteurs de recherche, tu peux affiner avec un robots.txt sur la page
piège : les robots respectueux ne se feront pas bloquer, au contraire
des autres.
Denis Beauregard
Le #22026151
Le Thu, 24 May 2007 22:29:36 +0200, docanski
fr.comp.infosystemes.www.auteurs:

Bonsoir,

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?



Le garder sur son PC ;-)

Mais il existe certaines solutions en fonction des intrus ou du site.

- bloquer les IP (pas très fiable, les pirates utilisant des PC
vérolés)
- identifier l'agent user et bloquer en conséquence (mais beaucoup
d'aspirateurs peuvent prendre d'autres identités)
- si le site a beaucoup de pages, installer un compteur et forcer
la session (exemple: pas de cookie = pas de visite)
- le piéger avec une image invisible à la main (pixel 1x1)
- catscha à chaque page ou dans la section à bloquer
- javascript qui reconstruit la page à certaines conditions (je
suppose que javascript permet de lire la date)
- javascript qui active le lien seulement si la souris est dessus
(mouseover)


Sinon, on peut avoir une idée du site ?


Denis
Monique Brunel
Le #22026141
docanski a écrit :
Bonsoir,

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?

Cordialement,



Bonjour,

Une possibilité, avec ce script php qui compte le nombre d'utilisateurs
sur un temps donné
http://www.webmaster-hub.com/publication/Compter-le-nombre-de-visiteurs.html

Amicalement,
Monique

--
Accessibilité des sites Web et qualité des services en ligne
Monique Brunel - Audit - Conseil - Formation - Création
| www.webatou.be | BE 873.780.255 - Tél. +32(0)473 25 81 94
| forum RGAA : http://rgaa.planete-accessibilite.com/ |
romer
Le #22026111
Denis Beauregard wrote:

>Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
>partie d'un site ?
>Si oui, lequel ?

- le piéger avec une image invisible à la main (pixel 1x1)



Peux-tu me dire plus en détail comment s'y prendre ?

Merci.
--
A+

Romer
romer
Le #22026121
Olivier Miakinen
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures



Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne
vois pas très bien.

Merci
--
A+

Romer
Olivier
Le #22026101
Bernd a écrit :
Olivier Miakinen
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures



Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne
vois pas très bien.



Tu fais un lien caché vers une page. Lorsque cette page est chargée,
tu relève l'adresse IP et tu la bloques. Ou tu lui envoies un contenu
erroné.

Tu peux aussi faire un lien caché vers une page qui "tourne en boucle"
parce qu'elle aura un lien vers elle même avec seulement un paramètre
qui changera dans l'url. Mais si tu "occupes" le robot, tu occupes aussi
le serveur.
J'utilise ça pour générer des adresses courriel pour les éventuels
robots spammeur.
Une petite satisfaction infantile d'espérer gêner l'adversaire. ;)

Pour tout ça, css pour cacher visuellement et php pour agir sont tes
amis.

--
Olivier
- Parce que sinon cela rompt le cours normal de la conversation.
- Pourquoi répond on après la question ?
Olivier Masson
Le #22026091
Olivier Miakinen a écrit :

Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques



display:none est vu par un navigateur texte non ? Dans ce cas, un
display:none + lien sur pixel 1x1 sans alt ?
Publicité
Poster une réponse
Anonyme