Google a désindexé mes pages... (sitemap coupable ?)

Le
Denis Beauregard
Bonjour,

L'an dernier, j'avais environ le tiers de 30 000 pages qui
étaient indexées sur Google. C'est ce que me disait Google
for Webmasters. J'ai alors fait un gros travail à partir des
logs pour retirer de mon sitemap les pages déjà indexées (et
visitées à partir de Google) pour avoir un nouveau sitemap.
Mais voilà, le nombre de pages indexées a fondu pour redescendre
à exactement 200 du sitemap.

Il y a quelque chose à comprendre ? Du genre, si on enlève des
pages du sitemap, google va les retirer ?

Il me semble que si on est honnête avec Google, on est pénalisé
alors que si on est malhonnête, on a toutes sortes de bénéfices
(par exemple, les pages pillées sur mon site apparaissent avant
les pages originales quand elles apparaissent).


Denis
Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos réponses
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
GR
Le #25462382
Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,

L'an dernier, j'avais environ le tiers de 30 000 pages qui
étaient indexées sur Google. C'est ce que me disait Google
for Webmasters. J'ai alors fait un gros travail à partir des
logs pour retirer de mon sitemap les pages déjà indexées (et
visitées à partir de Google) pour avoir un nouveau sitemap.
Mais voilà, le nombre de pages indexées a fondu pour redescendre
à exactement 200 du sitemap.

Il y a quelque chose à comprendre ? Du genre, si on enlève des
pages du sitemap, google va les retirer ?

Il me semble que si on est honnête avec Google, on est pénalisé
alors que si on est malhonnête, on a toutes sortes de bénéfices
(par exemple, les pages pillées sur mon site apparaissent avant
les pages originales quand elles apparaissent...).


Denis




Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela
va juste éviter qu'elle soit indexée à nouveau, c'est tout.

Je crois qu'on peut demander à Google de retirer la page, par contre
mais je ne sais plus où...

Google a récemment modifié son algorithme de classement des sites.
Peut-être une explication ?
--
Site : http://www.grenault.net
Cours photo : http://www.grenault.net/tech.htm
Home cinéma : http://www.grenault.net/homecine.htm
Denis Beauregard
Le #25462392
Le Wed, 05 Jun 2013 20:24:44 +0200, GR écrivait dans fr.comp.infosystemes.www.auteurs:

Le 05/06/2013 20:01, Denis Beauregard a écrit :
Bonjour,

L'an dernier, j'avais environ le tiers de 30 000 pages qui
étaient indexées sur Google. C'est ce que me disait Google
for Webmasters. J'ai alors fait un gros travail à partir des
logs pour retirer de mon sitemap les pages déjà indexées (et
visitées à partir de Google) pour avoir un nouveau sitemap.
Mais voilà, le nombre de pages indexées a fondu pour redescendre
à exactement 200 du sitemap.

Il y a quelque chose à comprendre ? Du genre, si on enlève des
pages du sitemap, google va les retirer ?

Il me semble que si on est honnête avec Google, on est pénalisé
alors que si on est malhonnête, on a toutes sortes de bénéfices
(par exemple, les pages pillées sur mon site apparaissent avant
les pages originales quand elles apparaissent...).




Je ne crois pas que supprimer une page du sitemap va la désindexer. Cela
va juste éviter qu'elle soit indexée à nouveau, c'est tout.



En théorie...

Je crois qu'on peut demander à Google de retirer la page, par contre
mais je ne sais plus où...



Je vise le contraire !

Google a récemment modifié son algorithme de classement des sites.
Peut-être une explication ?



L'algorithme change à chaque semaine ou presque. Le hic, c'est que
ce sont les sites de mauvaise foi qui suivent alors que Google
devrait les effacer de sa base (je pense aux yasni, pipl, 123people
et autres pirates).


Denis
ST
Le #25462842
On 2013-06-05, Denis Beauregard
L'algorithme change à chaque semaine ou presque. Le hic, c'est que
ce sont les sites de mauvaise foi qui suivent alors que Google
devrait les effacer de sa base (je pense aux yasni, pipl, 123people
et autres pirates).



Il y a deux facons d'aborder son rapport avec Google :

- S'en foutre
- Optimiser son site (SEO).

La premiere option n'est pas forcement la plus mauvaise, il y a des tres
gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de
politique SEO.

La seconde option reste la meilleure a condition de ne pas prioritiser
le contenant au detriment du contenu. C'est a dire que le plus important
reste ce qu'il y a sur le site, et non la facon dont on le presente a
Google.

Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille
d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut
indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de
Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne
faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose
de permanent.

Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et
faire des audits, ecrire du HTML correct ... bref faire du SEO de base.

Apres, on peut aussi ecrire des textes pour privilegier des mots clefs
qui sont utilises par les gens qui recherchent un contenu que l'on
propose, l'optimisation peut aller assez loin. Il y a des gens dont
c'est le metier, ca coute cher et c'est technique.

Bonne chance.
Denis Beauregard
Le #25462982
Le Thu, 6 Jun 2013 05:36:23 +0800, ST fr.comp.infosystemes.www.auteurs:

On 2013-06-05, Denis Beauregard
L'algorithme change à chaque semaine ou presque. Le hic, c'est que
ce sont les sites de mauvaise foi qui suivent alors que Google
devrait les effacer de sa base (je pense aux yasni, pipl, 123people
et autres pirates).



Il y a deux facons d'aborder son rapport avec Google :

- S'en foutre
- Optimiser son site (SEO).

La premiere option n'est pas forcement la plus mauvaise, il y a des tres
gros sites, tres bien indexes par Google qui n'ont aucune ou tres peu de
politique SEO.



Ici, je pense que c'est l'ancienneté qui compte.

La seconde option reste la meilleure a condition de ne pas prioritiser
le contenant au detriment du contenu. C'est a dire que le plus important
reste ce qu'il y a sur le site, et non la facon dont on le presente a
Google.

Le Sitemap n'est pas obligatoire pour indexer un site, il est conseille
d'en avoir un et de le tenir a jour et d'y mettre tout ce qu'on veut
indexer. Il faut l'ecrire correctement, c'est a dire lire la doc de
Google, et prevenir Google ou il est. Lorsqu'une page est indexee, il ne
faut pas la retirer du Sitemap, l'indexation d'un site est quelque chose
de permanent.



Euh, c'est peut-être l'erreur que j'ai faite. J'ai retiré du sitemap
les pages que je sais être indexées. Il faudrait peut-être que je
garde un registre de mes pages, en plaçant au début ce qui n'arrive
pas par Google. Dire que j'ai pris quelques jours pour sortir cette
information d'une année de logs.

Il faut aussi un robots.txt, ouvrir un compte Google Webmaster Tool et
faire des audits, ecrire du HTML correct ... bref faire du SEO de base.



C'est fait depuis longtemps.

Apres, on peut aussi ecrire des textes pour privilegier des mots clefs
qui sont utilises par les gens qui recherchent un contenu que l'on
propose, l'optimisation peut aller assez loin. Il y a des gens dont
c'est le metier, ca coute cher et c'est technique.



La joie d'optimiser sans savoir ce qui peut marcher. J'ai été obligé
de retirer le mot Québec de mon site parce qu'il était trop présent
et que cela nuisait !!! Je l'ai remplacé par Qc et tout à coup, la
recherche par le mot-clé Québec a augmenté. Mais je pense que
l'optimisation est trop spécialisée pour qu'on passe par un
spécialiste !


Bonne chance.



Merci. Je pense que j'en aurais besoin !


Denis
Publicité
Poster une réponse
Anonyme