Google a désindexé mes pages... (sitemap coupable ?)
4 réponses
Denis Beauregard
Bonjour,
L'an dernier, j'avais environ le tiers de 30 000 pages qui
étaient indexées sur Google. C'est ce que me disait Google
for Webmasters. J'ai alors fait un gros travail à partir des
logs pour retirer de mon sitemap les pages déjà indexées (et
visitées à partir de Google) pour avoir un nouveau sitemap.
Mais voilà, le nombre de pages indexées a fondu pour redescendre
à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des
pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé
alors que si on est malhonnête, on a toutes sortes de bénéfices
(par exemple, les pages pillées sur mon site apparaissent avant
les pages originales quand elles apparaissent...).
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
GR
Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,
L'an dernier, j'avais environ le tiers de 30 000 pages qui étaient indexées sur Google. C'est ce que me disait Google for Webmasters. J'ai alors fait un gros travail à partir des logs pour retirer de mon sitemap les pages déjà indexées (et visitées à partir de Google) pour avoir un nouveau sitemap. Mais voilà, le nombre de pages indexées a fondu pour redescendre à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé alors que si on est malhonnête, on a toutes sortes de bénéfices (par exemple, les pages pillées sur mon site apparaissent avant les pages originales quand elles apparaissent...).
Denis
Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela va juste éviter qu'elle soit indexée à nouveau, c'est tout.
Je crois qu'on peut demander à Google de retirer la page, par contre mais je ne sais plus où...
Google a récemment modifié son algorithme de classement des sites. Peut-être une explication ? -- Site : http://www.grenault.net Cours photo : http://www.grenault.net/tech.htm Home cinéma : http://www.grenault.net/homecine.htm
Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,
L'an dernier, j'avais environ le tiers de 30 000 pages qui
étaient indexées sur Google. C'est ce que me disait Google
for Webmasters. J'ai alors fait un gros travail à partir des
logs pour retirer de mon sitemap les pages déjà indexées (et
visitées à partir de Google) pour avoir un nouveau sitemap.
Mais voilà, le nombre de pages indexées a fondu pour redescendre
à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des
pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé
alors que si on est malhonnête, on a toutes sortes de bénéfices
(par exemple, les pages pillées sur mon site apparaissent avant
les pages originales quand elles apparaissent...).
Denis
Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela
va juste éviter qu'elle soit indexée à nouveau, c'est tout.
Je crois qu'on peut demander à Google de retirer la page, par contre
mais je ne sais plus où...
Google a récemment modifié son algorithme de classement des sites.
Peut-être une explication ?
--
Site : http://www.grenault.net
Cours photo : http://www.grenault.net/tech.htm
Home cinéma : http://www.grenault.net/homecine.htm
L'an dernier, j'avais environ le tiers de 30 000 pages qui étaient indexées sur Google. C'est ce que me disait Google for Webmasters. J'ai alors fait un gros travail à partir des logs pour retirer de mon sitemap les pages déjà indexées (et visitées à partir de Google) pour avoir un nouveau sitemap. Mais voilà, le nombre de pages indexées a fondu pour redescendre à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé alors que si on est malhonnête, on a toutes sortes de bénéfices (par exemple, les pages pillées sur mon site apparaissent avant les pages originales quand elles apparaissent...).
Denis
Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela va juste éviter qu'elle soit indexée à nouveau, c'est tout.
Je crois qu'on peut demander à Google de retirer la page, par contre mais je ne sais plus où...
Google a récemment modifié son algorithme de classement des sites. Peut-être une explication ? -- Site : http://www.grenault.net Cours photo : http://www.grenault.net/tech.htm Home cinéma : http://www.grenault.net/homecine.htm
Denis Beauregard
Le Wed, 05 Jun 2013 20:24:44 +0200, GR écrivait dans fr.comp.infosystemes.www.auteurs:
Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,
L'an dernier, j'avais environ le tiers de 30 000 pages qui étaient indexées sur Google. C'est ce que me disait Google for Webmasters. J'ai alors fait un gros travail à partir des logs pour retirer de mon sitemap les pages déjà indexées (et visitées à partir de Google) pour avoir un nouveau sitemap. Mais voilà, le nombre de pages indexées a fondu pour redescendre à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé alors que si on est malhonnête, on a toutes sortes de bénéfices (par exemple, les pages pillées sur mon site apparaissent avant les pages originales quand elles apparaissent...).
Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela va juste éviter qu'elle soit indexée à nouveau, c'est tout.
En théorie...
Je crois qu'on peut demander à Google de retirer la page, par contre mais je ne sais plus où...
Je vise le contraire !
Google a récemment modifié son algorithme de classement des sites. Peut-être une explication ?
L'algorithme change à chaque semaine ou presque. Le hic, c'est que ce sont les sites de mauvaise foi qui suivent alors que Google devrait les effacer de sa base (je pense aux yasni, pipl, 123people et autres pirates).
Denis
Le Wed, 05 Jun 2013 20:24:44 +0200, GR <contact@guy-renault.com>
écrivait dans fr.comp.infosystemes.www.auteurs:
Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,
L'an dernier, j'avais environ le tiers de 30 000 pages qui
étaient indexées sur Google. C'est ce que me disait Google
for Webmasters. J'ai alors fait un gros travail à partir des
logs pour retirer de mon sitemap les pages déjà indexées (et
visitées à partir de Google) pour avoir un nouveau sitemap.
Mais voilà, le nombre de pages indexées a fondu pour redescendre
à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des
pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé
alors que si on est malhonnête, on a toutes sortes de bénéfices
(par exemple, les pages pillées sur mon site apparaissent avant
les pages originales quand elles apparaissent...).
Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela
va juste éviter qu'elle soit indexée à nouveau, c'est tout.
En théorie...
Je crois qu'on peut demander à Google de retirer la page, par contre
mais je ne sais plus où...
Je vise le contraire !
Google a récemment modifié son algorithme de classement des sites.
Peut-être une explication ?
L'algorithme change à chaque semaine ou presque. Le hic, c'est que
ce sont les sites de mauvaise foi qui suivent alors que Google
devrait les effacer de sa base (je pense aux yasni, pipl, 123people
et autres pirates).
Le Wed, 05 Jun 2013 20:24:44 +0200, GR écrivait dans fr.comp.infosystemes.www.auteurs:
Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,
L'an dernier, j'avais environ le tiers de 30 000 pages qui étaient indexées sur Google. C'est ce que me disait Google for Webmasters. J'ai alors fait un gros travail à partir des logs pour retirer de mon sitemap les pages déjà indexées (et visitées à partir de Google) pour avoir un nouveau sitemap. Mais voilà, le nombre de pages indexées a fondu pour redescendre à exactement 200 du sitemap.
Il y a quelque chose à comprendre ? Du genre, si on enlève des pages du sitemap, google va les retirer ?
Il me semble que si on est honnête avec Google, on est pénalisé alors que si on est malhonnête, on a toutes sortes de bénéfices (par exemple, les pages pillées sur mon site apparaissent avant les pages originales quand elles apparaissent...).
Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela va juste éviter qu'elle soit indexée à nouveau, c'est tout.
En théorie...
Je crois qu'on peut demander à Google de retirer la page, par contre mais je ne sais plus où...
Je vise le contraire !
Google a récemment modifié son algorithme de classement des sites. Peut-être une explication ?
L'algorithme change à chaque semaine ou presque. Le hic, c'est que ce sont les sites de mauvaise foi qui suivent alors que Google devrait les effacer de sa base (je pense aux yasni, pipl, 123people et autres pirates).
Denis
ST
On 2013-06-05, Denis Beauregard wrote:
L'algorithme change à chaque semaine ou presque. Le hic, c'est que ce sont les sites de mauvaise foi qui suivent alors que Google devrait les effacer de sa base (je pense aux yasni, pipl, 123people et autres pirates).
Il y a deux facons d'aborder son rapport avec Google :
- S'en foutre - Optimiser son site (SEO).
La premiere option n'est pas forcement la plus mauvaise, il y a des tres gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de politique SEO.
La seconde option reste la meilleure a condition de ne pas prioritiser le contenant au detriment du contenu. C'est a dire que le plus important reste ce qu'il y a sur le site, et non la facon dont on le presente a Google.
Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose de permanent.
Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et faire des audits, ecrire du HTML correct ... bref faire du SEO de base.
Apres, on peut aussi ecrire des textes pour privilegier des mots clefs qui sont utilises par les gens qui recherchent un contenu que l'on propose, l'optimisation peut aller assez loin. Il y a des gens dont c'est le metier, ca coute cher et c'est technique.
Bonne chance.
On 2013-06-05, Denis Beauregard <denis.b-at-francogene.com.invalid@nospam.com.invalid> wrote:
L'algorithme change à chaque semaine ou presque. Le hic, c'est que
ce sont les sites de mauvaise foi qui suivent alors que Google
devrait les effacer de sa base (je pense aux yasni, pipl, 123people
et autres pirates).
Il y a deux facons d'aborder son rapport avec Google :
- S'en foutre
- Optimiser son site (SEO).
La premiere option n'est pas forcement la plus mauvaise, il y a des tres
gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de
politique SEO.
La seconde option reste la meilleure a condition de ne pas prioritiser
le contenant au detriment du contenu. C'est a dire que le plus important
reste ce qu'il y a sur le site, et non la facon dont on le presente a
Google.
Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille
d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut
indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de
Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne
faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose
de permanent.
Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et
faire des audits, ecrire du HTML correct ... bref faire du SEO de base.
Apres, on peut aussi ecrire des textes pour privilegier des mots clefs
qui sont utilises par les gens qui recherchent un contenu que l'on
propose, l'optimisation peut aller assez loin. Il y a des gens dont
c'est le metier, ca coute cher et c'est technique.
L'algorithme change à chaque semaine ou presque. Le hic, c'est que ce sont les sites de mauvaise foi qui suivent alors que Google devrait les effacer de sa base (je pense aux yasni, pipl, 123people et autres pirates).
Il y a deux facons d'aborder son rapport avec Google :
- S'en foutre - Optimiser son site (SEO).
La premiere option n'est pas forcement la plus mauvaise, il y a des tres gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de politique SEO.
La seconde option reste la meilleure a condition de ne pas prioritiser le contenant au detriment du contenu. C'est a dire que le plus important reste ce qu'il y a sur le site, et non la facon dont on le presente a Google.
Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose de permanent.
Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et faire des audits, ecrire du HTML correct ... bref faire du SEO de base.
Apres, on peut aussi ecrire des textes pour privilegier des mots clefs qui sont utilises par les gens qui recherchent un contenu que l'on propose, l'optimisation peut aller assez loin. Il y a des gens dont c'est le metier, ca coute cher et c'est technique.
Bonne chance.
Denis Beauregard
Le Thu, 6 Jun 2013 05:36:23 +0800, ST écrivait dans fr.comp.infosystemes.www.auteurs:
On 2013-06-05, Denis Beauregard wrote:
L'algorithme change à chaque semaine ou presque. Le hic, c'est que ce sont les sites de mauvaise foi qui suivent alors que Google devrait les effacer de sa base (je pense aux yasni, pipl, 123people et autres pirates).
Il y a deux facons d'aborder son rapport avec Google :
- S'en foutre - Optimiser son site (SEO).
La premiere option n'est pas forcement la plus mauvaise, il y a des tres gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de politique SEO.
Ici, je pense que c'est l'ancienneté qui compte.
La seconde option reste la meilleure a condition de ne pas prioritiser le contenant au detriment du contenu. C'est a dire que le plus important reste ce qu'il y a sur le site, et non la facon dont on le presente a Google.
Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose de permanent.
Euh, c'est peut-être l'erreur que j'ai faite. J'ai retiré du sitemap les pages que je sais être indexées. Il faudrait peut-être que je garde un registre de mes pages, en plaçant au début ce qui n'arrive pas par Google. Dire que j'ai pris quelques jours pour sortir cette information d'une année de logs.
Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et faire des audits, ecrire du HTML correct ... bref faire du SEO de base.
C'est fait depuis longtemps.
Apres, on peut aussi ecrire des textes pour privilegier des mots clefs qui sont utilises par les gens qui recherchent un contenu que l'on propose, l'optimisation peut aller assez loin. Il y a des gens dont c'est le metier, ca coute cher et c'est technique.
La joie d'optimiser sans savoir ce qui peut marcher. J'ai été obligé de retirer le mot Québec de mon site parce qu'il était trop présent et que cela nuisait !!! Je l'ai remplacé par Qc et tout à coup, la recherche par le mot-clé Québec a augmenté. Mais je pense que l'optimisation est trop spécialisée pour qu'on passe par un spécialiste !
Bonne chance.
Merci. Je pense que j'en aurais besoin !
Denis
Le Thu, 6 Jun 2013 05:36:23 +0800, ST <st@unices.org> écrivait dans
fr.comp.infosystemes.www.auteurs:
On 2013-06-05, Denis Beauregard <denis.b-at-francogene.com.invalid@nospam.com.invalid> wrote:
L'algorithme change à chaque semaine ou presque. Le hic, c'est que
ce sont les sites de mauvaise foi qui suivent alors que Google
devrait les effacer de sa base (je pense aux yasni, pipl, 123people
et autres pirates).
Il y a deux facons d'aborder son rapport avec Google :
- S'en foutre
- Optimiser son site (SEO).
La premiere option n'est pas forcement la plus mauvaise, il y a des tres
gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de
politique SEO.
Ici, je pense que c'est l'ancienneté qui compte.
La seconde option reste la meilleure a condition de ne pas prioritiser
le contenant au detriment du contenu. C'est a dire que le plus important
reste ce qu'il y a sur le site, et non la facon dont on le presente a
Google.
Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille
d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut
indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de
Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne
faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose
de permanent.
Euh, c'est peut-être l'erreur que j'ai faite. J'ai retiré du sitemap
les pages que je sais être indexées. Il faudrait peut-être que je
garde un registre de mes pages, en plaçant au début ce qui n'arrive
pas par Google. Dire que j'ai pris quelques jours pour sortir cette
information d'une année de logs.
Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et
faire des audits, ecrire du HTML correct ... bref faire du SEO de base.
C'est fait depuis longtemps.
Apres, on peut aussi ecrire des textes pour privilegier des mots clefs
qui sont utilises par les gens qui recherchent un contenu que l'on
propose, l'optimisation peut aller assez loin. Il y a des gens dont
c'est le metier, ca coute cher et c'est technique.
La joie d'optimiser sans savoir ce qui peut marcher. J'ai été obligé
de retirer le mot Québec de mon site parce qu'il était trop présent
et que cela nuisait !!! Je l'ai remplacé par Qc et tout à coup, la
recherche par le mot-clé Québec a augmenté. Mais je pense que
l'optimisation est trop spécialisée pour qu'on passe par un
spécialiste !
Le Thu, 6 Jun 2013 05:36:23 +0800, ST écrivait dans fr.comp.infosystemes.www.auteurs:
On 2013-06-05, Denis Beauregard wrote:
L'algorithme change à chaque semaine ou presque. Le hic, c'est que ce sont les sites de mauvaise foi qui suivent alors que Google devrait les effacer de sa base (je pense aux yasni, pipl, 123people et autres pirates).
Il y a deux facons d'aborder son rapport avec Google :
- S'en foutre - Optimiser son site (SEO).
La premiere option n'est pas forcement la plus mauvaise, il y a des tres gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de politique SEO.
Ici, je pense que c'est l'ancienneté qui compte.
La seconde option reste la meilleure a condition de ne pas prioritiser le contenant au detriment du contenu. C'est a dire que le plus important reste ce qu'il y a sur le site, et non la facon dont on le presente a Google.
Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose de permanent.
Euh, c'est peut-être l'erreur que j'ai faite. J'ai retiré du sitemap les pages que je sais être indexées. Il faudrait peut-être que je garde un registre de mes pages, en plaçant au début ce qui n'arrive pas par Google. Dire que j'ai pris quelques jours pour sortir cette information d'une année de logs.
Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et faire des audits, ecrire du HTML correct ... bref faire du SEO de base.
C'est fait depuis longtemps.
Apres, on peut aussi ecrire des textes pour privilegier des mots clefs qui sont utilises par les gens qui recherchent un contenu que l'on propose, l'optimisation peut aller assez loin. Il y a des gens dont c'est le metier, ca coute cher et c'est technique.
La joie d'optimiser sans savoir ce qui peut marcher. J'ai été obligé de retirer le mot Québec de mon site parce qu'il était trop présent et que cela nuisait !!! Je l'ai remplacé par Qc et tout à coup, la recherche par le mot-clé Québec a augmenté. Mais je pense que l'optimisation est trop spécialisée pour qu'on passe par un spécialiste !