Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?
Cordialement,
--
docanski
- Les Côtes du nord de la Bretagne par le sentier des douaniers
- Memento des champignons : le guide le plus complet du Web
- Et d'autres sujets encore sur ----> http://armorance.free.fr
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Olivier Miakinen
Le 24/05/2007 22:29, docanski a écrit :
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou partie d'un site ? Si oui, lequel ?
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques l'adresse IP du visiteur pendant quelques minutes ou quelques heures (pas trop quand même pour ne pas pénaliser quelqu'un qui se retrouverait avec l'adresse IP auparavant utilisée par l'aspirateur).
Pour ne pas pénaliser non plus les robots honnêtes tels que ceux des moteurs de recherche, tu peux affiner avec un robots.txt sur la page piège : les robots respectueux ne se feront pas bloquer, au contraire des autres.
Le 24/05/2007 22:29, docanski a écrit :
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures
(pas trop quand même pour ne pas pénaliser quelqu'un qui se retrouverait
avec l'adresse IP auparavant utilisée par l'aspirateur).
Pour ne pas pénaliser non plus les robots honnêtes tels que ceux des
moteurs de recherche, tu peux affiner avec un robots.txt sur la page
piège : les robots respectueux ne se feront pas bloquer, au contraire
des autres.
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou partie d'un site ? Si oui, lequel ?
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques l'adresse IP du visiteur pendant quelques minutes ou quelques heures (pas trop quand même pour ne pas pénaliser quelqu'un qui se retrouverait avec l'adresse IP auparavant utilisée par l'aspirateur).
Pour ne pas pénaliser non plus les robots honnêtes tels que ceux des moteurs de recherche, tu peux affiner avec un robots.txt sur la page piège : les robots respectueux ne se feront pas bloquer, au contraire des autres.
Denis Beauregard
Le Thu, 24 May 2007 22:29:36 +0200, docanski écrivait dans fr.comp.infosystemes.www.auteurs:
Bonsoir,
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou partie d'un site ? Si oui, lequel ?
Le garder sur son PC ;-)
Mais il existe certaines solutions en fonction des intrus ou du site.
- bloquer les IP (pas très fiable, les pirates utilisant des PC vérolés) - identifier l'agent user et bloquer en conséquence (mais beaucoup d'aspirateurs peuvent prendre d'autres identités) - si le site a beaucoup de pages, installer un compteur et forcer la session (exemple: pas de cookie = pas de visite) - le piéger avec une image invisible à la main (pixel 1x1) - catscha à chaque page ou dans la section à bloquer - javascript qui reconstruit la page à certaines conditions (je suppose que javascript permet de lire la date) - javascript qui active le lien seulement si la souris est dessus (mouseover)
Sinon, on peut avoir une idée du site ?
Denis
Le Thu, 24 May 2007 22:29:36 +0200, docanski
<myc.docanski_antispam@wanadoo.fr.invalid> écrivait dans
fr.comp.infosystemes.www.auteurs:
Bonsoir,
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?
Le garder sur son PC ;-)
Mais il existe certaines solutions en fonction des intrus ou du site.
- bloquer les IP (pas très fiable, les pirates utilisant des PC
vérolés)
- identifier l'agent user et bloquer en conséquence (mais beaucoup
d'aspirateurs peuvent prendre d'autres identités)
- si le site a beaucoup de pages, installer un compteur et forcer
la session (exemple: pas de cookie = pas de visite)
- le piéger avec une image invisible à la main (pixel 1x1)
- catscha à chaque page ou dans la section à bloquer
- javascript qui reconstruit la page à certaines conditions (je
suppose que javascript permet de lire la date)
- javascript qui active le lien seulement si la souris est dessus
(mouseover)
Le Thu, 24 May 2007 22:29:36 +0200, docanski écrivait dans fr.comp.infosystemes.www.auteurs:
Bonsoir,
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou partie d'un site ? Si oui, lequel ?
Le garder sur son PC ;-)
Mais il existe certaines solutions en fonction des intrus ou du site.
- bloquer les IP (pas très fiable, les pirates utilisant des PC vérolés) - identifier l'agent user et bloquer en conséquence (mais beaucoup d'aspirateurs peuvent prendre d'autres identités) - si le site a beaucoup de pages, installer un compteur et forcer la session (exemple: pas de cookie = pas de visite) - le piéger avec une image invisible à la main (pixel 1x1) - catscha à chaque page ou dans la section à bloquer - javascript qui reconstruit la page à certaines conditions (je suppose que javascript permet de lire la date) - javascript qui active le lien seulement si la souris est dessus (mouseover)
Sinon, on peut avoir une idée du site ?
Denis
Monique Brunel
docanski a écrit :
Bonsoir,
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou partie d'un site ? Si oui, lequel ?
Cordialement,
Bonjour,
Une possibilité, avec ce script php qui compte le nombre d'utilisateurs sur un temps donné http://www.webmaster-hub.com/publication/Compter-le-nombre-de-visiteurs.html
Amicalement, Monique
-- Accessibilité des sites Web et qualité des services en ligne Monique Brunel - Audit - Conseil - Formation - Création | www.webatou.be | BE 873.780.255 - Tél. +32(0)473 25 81 94 | forum RGAA : http://rgaa.planete-accessibilite.com/ |
docanski a écrit :
Bonsoir,
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou
partie d'un site ?
Si oui, lequel ?
Cordialement,
Bonjour,
Une possibilité, avec ce script php qui compte le nombre d'utilisateurs
sur un temps donné
http://www.webmaster-hub.com/publication/Compter-le-nombre-de-visiteurs.html
Amicalement,
Monique
--
Accessibilité des sites Web et qualité des services en ligne
Monique Brunel - Audit - Conseil - Formation - Création
| www.webatou.be | BE 873.780.255 - Tél. +32(0)473 25 81 94
| forum RGAA : http://rgaa.planete-accessibilite.com/ |
Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou partie d'un site ? Si oui, lequel ?
Cordialement,
Bonjour,
Une possibilité, avec ce script php qui compte le nombre d'utilisateurs sur un temps donné http://www.webmaster-hub.com/publication/Compter-le-nombre-de-visiteurs.html
Amicalement, Monique
-- Accessibilité des sites Web et qualité des services en ligne Monique Brunel - Audit - Conseil - Formation - Création | www.webatou.be | BE 873.780.255 - Tél. +32(0)473 25 81 94 | forum RGAA : http://rgaa.planete-accessibilite.com/ |
romer
Denis Beauregard wrote:
>Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou >partie d'un site ? >Si oui, lequel ?
- le piéger avec une image invisible à la main (pixel 1x1)
Peux-tu me dire plus en détail comment s'y prendre ?
>Existe-t'il un moyen d'empêcher un *aspirateur* de télécharger tout ou >partie d'un site ? >Si oui, lequel ?
- le piéger avec une image invisible à la main (pixel 1x1)
Peux-tu me dire plus en détail comment s'y prendre ?
Merci. -- A+
Romer
romer
Olivier Miakinen <om+ wrote:
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques l'adresse IP du visiteur pendant quelques minutes ou quelques heures
Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne vois pas très bien.
Merci -- A+
Romer
Olivier Miakinen <om+news@miakinen.net> wrote:
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures
Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne
vois pas très bien.
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques l'adresse IP du visiteur pendant quelques minutes ou quelques heures
Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne vois pas très bien.
Merci -- A+
Romer
Olivier
Bernd a écrit :
Olivier Miakinen <om+ wrote:
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques l'adresse IP du visiteur pendant quelques minutes ou quelques heures
Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne vois pas très bien.
Tu fais un lien caché vers une page. Lorsque cette page est chargée, tu relève l'adresse IP et tu la bloques. Ou tu lui envoies un contenu erroné.
Tu peux aussi faire un lien caché vers une page qui "tourne en boucle" parce qu'elle aura un lien vers elle même avec seulement un paramètre qui changera dans l'url. Mais si tu "occupes" le robot, tu occupes aussi le serveur. J'utilise ça pour générer des adresses courriel pour les éventuels robots spammeur. Une petite satisfaction infantile d'espérer gêner l'adversaire. ;)
Pour tout ça, css pour cacher visuellement et php pour agir sont tes amis.
-- Olivier - Parce que sinon cela rompt le cours normal de la conversation. - Pourquoi répond on après la question ? <http://www.faqs.org/faqs/fr/usenet/repondre-sur-usenet/> merci.
Bernd a écrit :
Olivier Miakinen <om+news@miakinen.net> wrote:
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
l'adresse IP du visiteur pendant quelques minutes ou quelques heures
Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne
vois pas très bien.
Tu fais un lien caché vers une page. Lorsque cette page est chargée,
tu relève l'adresse IP et tu la bloques. Ou tu lui envoies un contenu
erroné.
Tu peux aussi faire un lien caché vers une page qui "tourne en boucle"
parce qu'elle aura un lien vers elle même avec seulement un paramètre
qui changera dans l'url. Mais si tu "occupes" le robot, tu occupes aussi
le serveur.
J'utilise ça pour générer des adresses courriel pour les éventuels
robots spammeur.
Une petite satisfaction infantile d'espérer gêner l'adversaire. ;)
Pour tout ça, css pour cacher visuellement et php pour agir sont tes
amis.
--
Olivier
- Parce que sinon cela rompt le cours normal de la conversation.
- Pourquoi répond on après la question ?
<http://www.faqs.org/faqs/fr/usenet/repondre-sur-usenet/> merci.
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques l'adresse IP du visiteur pendant quelques minutes ou quelques heures
Peux-tu juste développer un peu la façon de bloquer l'adresse IP - je ne vois pas très bien.
Tu fais un lien caché vers une page. Lorsque cette page est chargée, tu relève l'adresse IP et tu la bloques. Ou tu lui envoies un contenu erroné.
Tu peux aussi faire un lien caché vers une page qui "tourne en boucle" parce qu'elle aura un lien vers elle même avec seulement un paramètre qui changera dans l'url. Mais si tu "occupes" le robot, tu occupes aussi le serveur. J'utilise ça pour générer des adresses courriel pour les éventuels robots spammeur. Une petite satisfaction infantile d'espérer gêner l'adversaire. ;)
Pour tout ça, css pour cacher visuellement et php pour agir sont tes amis.
-- Olivier - Parce que sinon cela rompt le cours normal de la conversation. - Pourquoi répond on après la question ? <http://www.faqs.org/faqs/fr/usenet/repondre-sur-usenet/> merci.
Olivier Masson
Olivier Miakinen a écrit :
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques
display:none est vu par un navigateur texte non ? Dans ce cas, un display:none + lien sur pixel 1x1 sans alt ?
Olivier Miakinen a écrit :
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un
utilisateur humain ne suivrait pas, par exemple parce qu'il est caché
par un display:none en CSS. Si cette page est appelée, alors tu bloques
display:none est vu par un navigateur texte non ? Dans ce cas, un
display:none + lien sur pixel 1x1 sans alt ?
Une idée c'est de lui tendre un piège sous la forme d'un lien qu'un utilisateur humain ne suivrait pas, par exemple parce qu'il est caché par un display:none en CSS. Si cette page est appelée, alors tu bloques
display:none est vu par un navigateur texte non ? Dans ce cas, un display:none + lien sur pixel 1x1 sans alt ?