Ce n'est pas par esprit de rebellion, mais j'aime bien penser au web comme à
un joyeux bordel, à l'inverse de ce vaste supermarché qu'il devient, régenté
par les charts, hits et scores de tous bois...
Je voudrais publier des pages perso (stockées chez Free), mais ne pas être
référencé par les différents moteurs et furets qui parcourent le web.
Donc y a-t-il un moyen, au niveau du serveur ou bien dans mes pages
elles-mêmes, de bloquer ces automates ?
Je voudrais publier des pages perso (stockées chez Free), mais ne pas être référencé par les différents moteurs et furets qui parcourent le web.
Il y a différentes méthodes que tu peux utiliser, tu peux même les avoir ensemble.
1) le fichier robots.txt Ses instructions sont suivies par la plupart des robots, il te suffira de mettre à la racine de ton site un fichier robots.txt contenant simplement: User-Agent: * disallow: /
2) La balise meta "Robots" A mettre dans les entêtes de tes pages: <meta name="robots" content="noindex,nofollow" />
-- Réseau IRC Francophone: http://www.zeolia.net Aide et astuces webmasters : http://www.c-p-f.org Communauté Francophone sur les Eggdrops: http://www.eggdrop.fr
Obono wrote:
Je voudrais publier des pages perso (stockées chez Free), mais ne pas être
référencé par les différents moteurs et furets qui parcourent le web.
Il y a différentes méthodes que tu peux utiliser, tu peux même les avoir
ensemble.
1) le fichier robots.txt
Ses instructions sont suivies par la plupart des robots, il te suffira
de mettre à la racine de ton site un fichier robots.txt contenant
simplement:
User-Agent: *
disallow: /
2) La balise meta "Robots"
A mettre dans les entêtes de tes pages:
<meta name="robots" content="noindex,nofollow" />
--
Réseau IRC Francophone: http://www.zeolia.net
Aide et astuces webmasters : http://www.c-p-f.org
Communauté Francophone sur les Eggdrops: http://www.eggdrop.fr
Je voudrais publier des pages perso (stockées chez Free), mais ne pas être référencé par les différents moteurs et furets qui parcourent le web.
Il y a différentes méthodes que tu peux utiliser, tu peux même les avoir ensemble.
1) le fichier robots.txt Ses instructions sont suivies par la plupart des robots, il te suffira de mettre à la racine de ton site un fichier robots.txt contenant simplement: User-Agent: * disallow: /
2) La balise meta "Robots" A mettre dans les entêtes de tes pages: <meta name="robots" content="noindex,nofollow" />
-- Réseau IRC Francophone: http://www.zeolia.net Aide et astuces webmasters : http://www.c-p-f.org Communauté Francophone sur les Eggdrops: http://www.eggdrop.fr
Obono
Merci à tous les deux pour vos bonnes réponses. Cordialement, Olivier
Merci à tous les deux pour vos bonnes réponses.
Cordialement,
Olivier
Merci à tous les deux pour vos bonnes réponses. Cordialement, Olivier
Rakotomandimby (R12y) Mihamina
Obono wrote:
Merci à tous les deux pour vos bonnes réponses.
L'une des deux "bonnes" réponses étaient un lien vers google. Puisque tu ne l'as pas saisie, je te fais remarquer que c'était de la pure ironie par rapport à ta demande, dans le but de te faire comprendre le peu d'importance qu'ont les moteurs de recherches.
L'une des deux "bonnes" réponses étaient un lien vers google.
Puisque tu ne l'as pas saisie, je te fais remarquer que c'était de la
pure ironie par rapport à ta demande, dans le but de te faire comprendre
le peu d'importance qu'ont les moteurs de recherches.
L'une des deux "bonnes" réponses étaient un lien vers google. Puisque tu ne l'as pas saisie, je te fais remarquer que c'était de la pure ironie par rapport à ta demande, dans le but de te faire comprendre le peu d'importance qu'ont les moteurs de recherches.
Je voudrais publier des pages perso (stockées chez Free), mais ne pas être référencé par les différents moteurs et furets qui parcourent le web.
Il y a différentes méthodes que tu peux utiliser, tu peux même les avoir ensemble.
1) le fichier robots.txt
(...)
2) La balise meta "Robots"
Attention, ça n'est pas une garantie, comme toujours sur le Web ! Lorsque Google a commencé à indexer les PDF, Word, PPT etc, il y a de très très nombreuses personnes qui se sont vues très surprises de découvrir leurs documents d'un coup accessibles au monde ! Si vous voulez vraiment limiter l'accès, il faut une authentification...
CrazyCat wrote:
Je voudrais publier des pages perso (stockées chez Free), mais ne pas
être
référencé par les différents moteurs et furets qui parcourent le web.
Il y a différentes méthodes que tu peux utiliser, tu peux même les avoir
ensemble.
1) le fichier robots.txt
(...)
2) La balise meta "Robots"
Attention, ça n'est pas une garantie, comme toujours sur le Web !
Lorsque Google a commencé à indexer les PDF, Word, PPT etc, il y a de
très très nombreuses personnes qui se sont vues très surprises de
découvrir leurs documents d'un coup accessibles au monde !
Si vous voulez vraiment limiter l'accès, il faut une authentification...
Je voudrais publier des pages perso (stockées chez Free), mais ne pas être référencé par les différents moteurs et furets qui parcourent le web.
Il y a différentes méthodes que tu peux utiliser, tu peux même les avoir ensemble.
1) le fichier robots.txt
(...)
2) La balise meta "Robots"
Attention, ça n'est pas une garantie, comme toujours sur le Web ! Lorsque Google a commencé à indexer les PDF, Word, PPT etc, il y a de très très nombreuses personnes qui se sont vues très surprises de découvrir leurs documents d'un coup accessibles au monde ! Si vous voulez vraiment limiter l'accès, il faut une authentification...
Obono
Le 13/10/08 13:09, dans 48f32c53$0$30372$, « Pierre Goiffon » a écrit :
1) le fichier robots.txt
(...)
2) La balise meta "Robots"
Attention, ça n'est pas une garantie, comme toujours sur le Web ! Lorsque Google a commencé à indexer les PDF, Word, PPT etc, il y a de très très nombreuses personnes qui se sont vues très surprises de découvrir leurs documents d'un coup accessibles au monde ! Si vous voulez vraiment limiter l'accès, il faut une authentification...
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas totalment efficace contre les robots ?
Olivier
Le 13/10/08 13:09, dans 48f32c53$0$30372$426a74cc@news.free.fr, « Pierre
Goiffon » <pgoiffon@free.fr.invalid> a écrit :
1) le fichier robots.txt
(...)
2) La balise meta "Robots"
Attention, ça n'est pas une garantie, comme toujours sur le Web !
Lorsque Google a commencé à indexer les PDF, Word, PPT etc, il y a de
très très nombreuses personnes qui se sont vues très surprises de
découvrir leurs documents d'un coup accessibles au monde !
Si vous voulez vraiment limiter l'accès, il faut une authentification...
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas
totalment efficace contre les robots ?
Le 13/10/08 13:09, dans 48f32c53$0$30372$, « Pierre Goiffon » a écrit :
1) le fichier robots.txt
(...)
2) La balise meta "Robots"
Attention, ça n'est pas une garantie, comme toujours sur le Web ! Lorsque Google a commencé à indexer les PDF, Word, PPT etc, il y a de très très nombreuses personnes qui se sont vues très surprises de découvrir leurs documents d'un coup accessibles au monde ! Si vous voulez vraiment limiter l'accès, il faut une authentification...
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas totalment efficace contre les robots ?
Olivier
Sergio
Obono avait énoncé :
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas totalment efficace contre les robots ?
Olivier
Efficace contre les robots "officielles" (Google, Ask, Yahoo et autres). Pour les autres robots, les programmeurs ne sont pas obligés de suivre les recommandations "robots.txt".
-- Serge http://leserged.online.fr/ Mon blog: http://cahierdesergio.free.fr/ Soutenez le libre: http://www.framasoft.org
Obono avait énoncé :
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas
totalment efficace contre les robots ?
Olivier
Efficace contre les robots "officielles" (Google, Ask, Yahoo et
autres). Pour les autres robots, les programmeurs ne sont pas obligés
de suivre les recommandations "robots.txt".
--
Serge http://leserged.online.fr/
Mon blog: http://cahierdesergio.free.fr/
Soutenez le libre: http://www.framasoft.org
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas totalment efficace contre les robots ?
Olivier
Efficace contre les robots "officielles" (Google, Ask, Yahoo et autres). Pour les autres robots, les programmeurs ne sont pas obligés de suivre les recommandations "robots.txt".
-- Serge http://leserged.online.fr/ Mon blog: http://cahierdesergio.free.fr/ Soutenez le libre: http://www.framasoft.org
Obono
Le 14/10/08 14:55, dans , « Sergio » a écrit :
Obono avait énoncé :
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas totalment efficace contre les robots ?
Olivier
Efficace contre les robots "officielles" (Google, Ask, Yahoo et autres). Pour les autres robots, les programmeurs ne sont pas obligés de suivre les recommandations "robots.txt".
Moui, comme de juste. Ben je vais m'en contenter :) Merci
Le 14/10/08 14:55, dans mn.737f7d8a8cc9ab82.9866@serge.delbono.net.invalid,
« Sergio » <laposte@serge.delbono.net.invalid> a écrit :
Obono avait énoncé :
Bonjour,
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas
totalment efficace contre les robots ?
Olivier
Efficace contre les robots "officielles" (Google, Ask, Yahoo et
autres). Pour les autres robots, les programmeurs ne sont pas obligés
de suivre les recommandations "robots.txt".
Moui, comme de juste. Ben je vais m'en contenter :)
Merci
Si je vous lis bien, le fichier robots.txt que j'ai mis en place n'est pas totalment efficace contre les robots ?
Olivier
Efficace contre les robots "officielles" (Google, Ask, Yahoo et autres). Pour les autres robots, les programmeurs ne sont pas obligés de suivre les recommandations "robots.txt".
Moui, comme de juste. Ben je vais m'en contenter :) Merci