OVH Cloud OVH Cloud

protection site Web

7 réponses
Avatar
docanski
Bonsoir,

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?

Cordialement,
--
docanski

- Les Côtes du nord de la Bretagne par le sentier des douaniers
- Memento des champignons : le guide le plus complet du Web
- Et d'autres sujets encore sur ----> http://armorance.free.fr

7 réponses

Avatar
Olivier Miakinen
Le 24/05/2007 22:29, docanski a écrit :

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?



Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures
(pas trop quand même pour ne pas pénaliser quelqu'un qui se retrouverait
avec l'adresse IP auparavant utilisée par l'aspirateur).

Pour ne pas pénaliser non plus les robots honnêtes tels que ceux des
moteurs de recherche, tu peux affiner avec un robots.txt sur la page
piège : les robots respectueux ne se feront pas bloquer, au contraire
des autres.
Avatar
Denis Beauregard
Le Thu, 24 May 2007 22:29:36 +0200, docanski
écrivait dans
fr.comp.infosystemes.www.auteurs:

Bonsoir,

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?



Le garder sur son PC ;-)

Mais il existe certaines solutions en fonction des intrus ou du site.

- bloquer les IP (pas très fiable, les pirates utilisant des PC
vérolés)
- identifier l'agent user et bloquer en conséquence (mais beaucoup
d'aspirateurs peuvent prendre d'autres identités)
- si le site a beaucoup de pages, installer un compteur et forcer
la session (exemple: pas de cookie = pas de visite)
- le piéger avec une image invisible à la main (pixel 1x1)
- catscha à chaque page ou dans la section à bloquer
- javascript qui reconstruit la page à certaines conditions (je
suppose que javascript permet de lire la date)
- javascript qui active le lien seulement si la souris est dessus
(mouseover)


Sinon, on peut avoir une idée du site ?


Denis
Avatar
Monique Brunel
docanski a écrit :
Bonsoir,

Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?

Cordialement,



Bonjour,

Une possibilité, avec ce script php qui compte le nombre d'utilisateurs
sur un temps donné
http://www.webmaster-hub.com/publication/Compter-le-nombre-de-visiteurs.html

Amicalement,
Monique

--
Accessibilité des sites Web et qualité des services en ligne
Monique Brunel - Audit - Conseil - Formation - Création
| www.webatou.be | BE 873.780.255 - Tél. +32(0)473 25 81 94
| forum RGAA : http://rgaa.planete-accessibilite.com/ |
Avatar
romer
Denis Beauregard
wrote:

>Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
>partie d'un site ?
>Si oui, lequel ?

- le piéger avec une image invisible à la main (pixel 1x1)



Peux-tu me dire plus en détail comment s'y prendre ?

Merci.
--
A+

Romer
Avatar
romer
Olivier Miakinen <om+ wrote:

Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures



Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne
vois pas très bien.

Merci
--
A+

Romer
Avatar
Olivier
Bernd a écrit :
Olivier Miakinen <om+ wrote:

Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures



Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne
vois pas très bien.



Tu fais un lien caché vers une page. Lorsque cette page est chargée,
tu relève l'adresse IP et tu la bloques. Ou tu lui envoies un contenu
erroné.

Tu peux aussi faire un lien caché vers une page qui "tourne en boucle"
parce qu'elle aura un lien vers elle même avec seulement un paramètre
qui changera dans l'url. Mais si tu "occupes" le robot, tu occupes aussi
le serveur.
J'utilise ça pour générer des adresses courriel pour les éventuels
robots spammeur.
Une petite satisfaction infantile d'espérer gêner l'adversaire. ;)

Pour tout ça, css pour cacher visuellement et php pour agir sont tes
amis.

--
Olivier
- Parce que sinon cela rompt le cours normal de la conversation.
- Pourquoi répond on après la question ?
<http://www.faqs.org/faqs/fr/usenet/repondre-sur-usenet/> merci.
Avatar
Olivier Masson
Olivier Miakinen a écrit :

Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques



display:none est vu par un navigateur texte non ? Dans ce cas, un
display:none + lien sur pixel 1x1 sans alt ?