Bonjour,
Le nombre de click sur un lien Google vers un site
influe-t-il sur le positionnement dudit site dans Google.
En d'autres termes, plus le site sera visité via Google
mieux il sera positionné dans Google.
Merci de vos avis ou infos
K
C'est aussi mon avis mais pour pourquoi un éditeur de logiciels a-t-il créé une application pour cela ??
lui
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
C'est aussi mon avis mais pour pourquoi un éditeur de logiciels a-t-il créé une application pour cela ??
Le comportement **officiel** de Google est une chose, son comportement **réel** est autre chose.
Par exemple, Google prétend favoriser le contenu original, mais on trouve beaucoup de pages en plusieurs copies parce que générées automatiquement en plusieurs langues (contenu généalogique, donc les noms, lieux et dates sont les mêmes). De même, un site qui pille les sites A et B va se retrouver mieux placé que les sites A et B parce qu'il a plus de contenu (en d'autres mots, l'algorithme de Google ne favorise pas le contenu original). On a aussi un exemple avec le nombre de pages venant des domaines group.google de chaque pays.
J'ai un exemple d'un site qui pille allègrement du contenu sans donner de source, mais dont les pages ont plus de bannières google que de contenu unique (si on enlève ce qui est répété sur chaque page). Ce site se retrouve en 1re page pour le principal mot-clé.
Officiellement, Google n'utilise que le contenu pour évaluer les pages. Dans la réalité, par instinct, on s'aperçoit que certaines actions faussent cette règle. Qu'il s'agisse de la présence de pubs Google, de cliquer sur la page après une recherche, d'augmenter le contenu en pillant d'autres sites, etc. En bref, Google n'est plus ce qu'il était même s'il continue à avoir autour de 80% du marché des moteurs. Il faut dire que leur but comme moteur de recherche est de travailler sans aucune intervention humaine, ce qui est à mon avis impossible pour éliminer les tricheurs.
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" <kloug-news@yahoo.fr>
écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
C'est aussi mon avis mais pour pourquoi
un éditeur de logiciels a-t-il créé une
application pour cela ??
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
Par exemple, Google prétend favoriser le contenu original, mais on
trouve beaucoup de pages en plusieurs copies parce que générées
automatiquement en plusieurs langues (contenu généalogique, donc les
noms, lieux et dates sont les mêmes). De même, un site qui pille
les sites A et B va se retrouver mieux placé que les sites A et B
parce qu'il a plus de contenu (en d'autres mots, l'algorithme de
Google ne favorise pas le contenu original). On a aussi un exemple
avec le nombre de pages venant des domaines group.google de chaque
pays.
J'ai un exemple d'un site qui pille allègrement du contenu sans donner
de source, mais dont les pages ont plus de bannières google que de
contenu unique (si on enlève ce qui est répété sur chaque page). Ce
site se retrouve en 1re page pour le principal mot-clé.
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
C'est aussi mon avis mais pour pourquoi un éditeur de logiciels a-t-il créé une application pour cela ??
Le comportement **officiel** de Google est une chose, son comportement **réel** est autre chose.
Par exemple, Google prétend favoriser le contenu original, mais on trouve beaucoup de pages en plusieurs copies parce que générées automatiquement en plusieurs langues (contenu généalogique, donc les noms, lieux et dates sont les mêmes). De même, un site qui pille les sites A et B va se retrouver mieux placé que les sites A et B parce qu'il a plus de contenu (en d'autres mots, l'algorithme de Google ne favorise pas le contenu original). On a aussi un exemple avec le nombre de pages venant des domaines group.google de chaque pays.
J'ai un exemple d'un site qui pille allègrement du contenu sans donner de source, mais dont les pages ont plus de bannières google que de contenu unique (si on enlève ce qui est répété sur chaque page). Ce site se retrouve en 1re page pour le principal mot-clé.
Officiellement, Google n'utilise que le contenu pour évaluer les pages. Dans la réalité, par instinct, on s'aperçoit que certaines actions faussent cette règle. Qu'il s'agisse de la présence de pubs Google, de cliquer sur la page après une recherche, d'augmenter le contenu en pillant d'autres sites, etc. En bref, Google n'est plus ce qu'il était même s'il continue à avoir autour de 80% du marché des moteurs. Il faut dire que leur but comme moteur de recherche est de travailler sans aucune intervention humaine, ce qui est à mon avis impossible pour éliminer les tricheurs.
Olivier Masson
a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Le comportement **officiel** de Google est une chose, son comportement **réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les pages. Dans la réalité, par instinct, on s'aperçoit que certaines actions faussent cette règle. Qu'il s'agisse de la présence de pubs Google, de cliquer sur la page après une recherche, d'augmenter le contenu en pillant d'autres sites, etc. En bref, Google n'est plus ce qu'il était même s'il continue à avoir autour de 80% du marché des moteurs. Il faut dire que leur but comme moteur de recherche est de travailler sans aucune intervention humaine, ce qui est à mon avis impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation solide, à nous montrer ?
Maintenant on va réfléchir 2 secondes : - un bon positionnement peu couter très cher et rend Adwords et consorts beaucoup moins utiles ; - des machines zombies sont disponibles partout dans le monde et peuvent être filtrées, selon leur ip, par pays et région/état ; - un script élémentaire permet de simuler des clics et un script un peu plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans aucune documentation valide".
lui@fr.invalid a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" <kloug-news@yahoo.fr>
écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?
Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Le comportement **officiel** de Google est une chose, son comportement **réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les pages. Dans la réalité, par instinct, on s'aperçoit que certaines actions faussent cette règle. Qu'il s'agisse de la présence de pubs Google, de cliquer sur la page après une recherche, d'augmenter le contenu en pillant d'autres sites, etc. En bref, Google n'est plus ce qu'il était même s'il continue à avoir autour de 80% du marché des moteurs. Il faut dire que leur but comme moteur de recherche est de travailler sans aucune intervention humaine, ce qui est à mon avis impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation solide, à nous montrer ?
Maintenant on va réfléchir 2 secondes : - un bon positionnement peu couter très cher et rend Adwords et consorts beaucoup moins utiles ; - des machines zombies sont disponibles partout dans le monde et peuvent être filtrées, selon leur ip, par pays et région/état ; - un script élémentaire permet de simuler des clics et un script un peu plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans aucune documentation valide".
lui
Le Mon, 10 Aug 2009 21:58:37 +0200, Olivier Masson écrivait dans fr.comp.infosystemes.www.auteurs:
a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Je dis que sans référence précise, sans démonstration, cela ne veut rien dire. "mes lectures", sans lien, c'est au pif.
Le comportement **officiel** de Google est une chose, son comportement **réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les pages. Dans la réalité, par instinct, on s'aperçoit que certaines actions faussent cette règle. Qu'il s'agisse de la présence de pubs Google, de cliquer sur la page après une recherche, d'augmenter le contenu en pillant d'autres sites, etc. En bref, Google n'est plus ce qu'il était même s'il continue à avoir autour de 80% du marché des moteurs. Il faut dire que leur but comme moteur de recherche est de travailler sans aucune intervention humaine, ce qui est à mon avis impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation solide, à nous montrer ?
J'observe le positionnement de mon site. Cela me montre bien que l'on peut tirer certaines leçons avec cette observation. Dans mon cas, j'ai vu ma position passer de la 1re à la 3e page. J'ai fait un léger changement (l'URL d'une seule page), ayant identifié le problème, et je suis déjà remonté au début de la 2e page.
Maintenant on va réfléchir 2 secondes : - un bon positionnement peu couter très cher et rend Adwords et consorts beaucoup moins utiles ; - des machines zombies sont disponibles partout dans le monde et peuvent être filtrées, selon leur ip, par pays et région/état ; - un script élémentaire permet de simuler des clics et un script un peu plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans aucune documentation valide".
Sauf que le comportement observé est très différent.
Pour une page avec peu de visites et pour laquelle on n'a pas de millions de visiteurs (donc, pas rentable pour des bannières), la méthode d'auto-référencement par clics pourrait fonctionner. Je pense que cela fait partie de l'algorithme de Google.
Cela doit être démontrable de cette façon.
On crée 3 pages contenant un mot inventé (comme une marque de commerce) sur 3 sites différents. Puis, ajoute disons une centaine de A, de B ou de C (chaque page ayant sa lettre) séparés par des espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le référencement...
Le Mon, 10 Aug 2009 21:58:37 +0200, Olivier Masson
<sisemen@laposte.net> écrivait dans fr.comp.infosystemes.www.auteurs:
lui@fr.invalid a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" <kloug-news@yahoo.fr>
écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Je dis que sans référence précise, sans démonstration, cela ne veut
rien dire. "mes lectures", sans lien, c'est au pif.
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?
J'observe le positionnement de mon site. Cela me montre bien que l'on
peut tirer certaines leçons avec cette observation. Dans mon cas,
j'ai vu ma position passer de la 1re à la 3e page. J'ai fait un léger
changement (l'URL d'une seule page), ayant identifié le problème, et
je suis déjà remonté au début de la 2e page.
Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".
Sauf que le comportement observé est très différent.
Pour une page avec peu de visites et pour laquelle on n'a pas de
millions de visiteurs (donc, pas rentable pour des bannières), la
méthode d'auto-référencement par clics pourrait fonctionner. Je
pense que cela fait partie de l'algorithme de Google.
Cela doit être démontrable de cette façon.
On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...
Le Mon, 10 Aug 2009 21:58:37 +0200, Olivier Masson écrivait dans fr.comp.infosystemes.www.auteurs:
a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Je dis que sans référence précise, sans démonstration, cela ne veut rien dire. "mes lectures", sans lien, c'est au pif.
Le comportement **officiel** de Google est une chose, son comportement **réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les pages. Dans la réalité, par instinct, on s'aperçoit que certaines actions faussent cette règle. Qu'il s'agisse de la présence de pubs Google, de cliquer sur la page après une recherche, d'augmenter le contenu en pillant d'autres sites, etc. En bref, Google n'est plus ce qu'il était même s'il continue à avoir autour de 80% du marché des moteurs. Il faut dire que leur but comme moteur de recherche est de travailler sans aucune intervention humaine, ce qui est à mon avis impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation solide, à nous montrer ?
J'observe le positionnement de mon site. Cela me montre bien que l'on peut tirer certaines leçons avec cette observation. Dans mon cas, j'ai vu ma position passer de la 1re à la 3e page. J'ai fait un léger changement (l'URL d'une seule page), ayant identifié le problème, et je suis déjà remonté au début de la 2e page.
Maintenant on va réfléchir 2 secondes : - un bon positionnement peu couter très cher et rend Adwords et consorts beaucoup moins utiles ; - des machines zombies sont disponibles partout dans le monde et peuvent être filtrées, selon leur ip, par pays et région/état ; - un script élémentaire permet de simuler des clics et un script un peu plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans aucune documentation valide".
Sauf que le comportement observé est très différent.
Pour une page avec peu de visites et pour laquelle on n'a pas de millions de visiteurs (donc, pas rentable pour des bannières), la méthode d'auto-référencement par clics pourrait fonctionner. Je pense que cela fait partie de l'algorithme de Google.
Cela doit être démontrable de cette façon.
On crée 3 pages contenant un mot inventé (comme une marque de commerce) sur 3 sites différents. Puis, ajoute disons une centaine de A, de B ou de C (chaque page ayant sa lettre) séparés par des espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le référencement...
Yop
On attend que les 3 pages sont ajoutées à l'index Google puis on clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et on observe.
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple internet donnant plus d'un milliard de résultats, si ma page est en 9000ème position, il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
On attend que les 3 pages sont ajoutées à l'index Google puis on clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et on observe.
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple internet donnant plus d'un milliard de résultats, si ma page est en 9000ème position, il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
Olivier Masson
a écrit :
On crée 3 pages contenant un mot inventé (comme une marque de commerce) sur 3 sites différents. Puis, ajoute disons une centaine de A, de B ou de C (chaque page ayant sa lettre) séparés par des espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le référencement...
Tout le problème des théories du SEO, c'est qu'elles reposent essentiellement sur du vide. D'ailleurs, en lisant les blogs et recommendations des grands du monde SEO (ouah !), on comprend une chose : personne n'est d'accord, hormis - pour peu de temps encore - sur les points historiques (sémantique, contenu, backlinks). Mis à part quelques rares sites (et bien entendu ceux qui le font en privé) qui réalisent de vrais tests - qu'il faudrait ensuite refaire régulièrement -, chacun ajoute sa touche perso. En résulte une bouillie que l'on peut consulter sur deux ou trois gros forums web français, préparée par de grands experts en lecture de blogs et de posts de ces mêmes forums.
Imaginer une maquette pour étayer des théories, beaucoup aime le faire (dont moi). Mettre cela en pratique demande du temps et un minimum de compétence. Et là, plus grand monde n'est présent.
lui@fr.invalid a écrit :
On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...
Tout le problème des théories du SEO, c'est qu'elles reposent
essentiellement sur du vide.
D'ailleurs, en lisant les blogs et recommendations des grands du monde
SEO (ouah !), on comprend une chose : personne n'est d'accord, hormis -
pour peu de temps encore - sur les points historiques (sémantique,
contenu, backlinks).
Mis à part quelques rares sites (et bien entendu ceux qui le font en
privé) qui réalisent de vrais tests - qu'il faudrait ensuite refaire
régulièrement -, chacun ajoute sa touche perso. En résulte une bouillie
que l'on peut consulter sur deux ou trois gros forums web français,
préparée par de grands experts en lecture de blogs et de posts de ces
mêmes forums.
Imaginer une maquette pour étayer des théories, beaucoup aime le faire
(dont moi). Mettre cela en pratique demande du temps et un minimum de
compétence. Et là, plus grand monde n'est présent.
On crée 3 pages contenant un mot inventé (comme une marque de commerce) sur 3 sites différents. Puis, ajoute disons une centaine de A, de B ou de C (chaque page ayant sa lettre) séparés par des espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le référencement...
Tout le problème des théories du SEO, c'est qu'elles reposent essentiellement sur du vide. D'ailleurs, en lisant les blogs et recommendations des grands du monde SEO (ouah !), on comprend une chose : personne n'est d'accord, hormis - pour peu de temps encore - sur les points historiques (sémantique, contenu, backlinks). Mis à part quelques rares sites (et bien entendu ceux qui le font en privé) qui réalisent de vrais tests - qu'il faudrait ensuite refaire régulièrement -, chacun ajoute sa touche perso. En résulte une bouillie que l'on peut consulter sur deux ou trois gros forums web français, préparée par de grands experts en lecture de blogs et de posts de ces mêmes forums.
Imaginer une maquette pour étayer des théories, beaucoup aime le faire (dont moi). Mettre cela en pratique demande du temps et un minimum de compétence. Et là, plus grand monde n'est présent.
Olivier Masson
Yop a écrit :
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple internet donnant plus d'un milliard de résultats, si ma page est en 9000ème position, il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
On le fait donc de manière automatique. Mais une page en 9000e position qui reçoit plein de clics, quelque soit la théorie, je doute que Google soit assez bête pour apprécier.
Yop a écrit :
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
On le fait donc de manière automatique.
Mais une page en 9000e position qui reçoit plein de clics, quelque soit
la théorie, je doute que Google soit assez bête pour apprécier.
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple internet donnant plus d'un milliard de résultats, si ma page est en 9000ème position, il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
On le fait donc de manière automatique. Mais une page en 9000e position qui reçoit plein de clics, quelque soit la théorie, je doute que Google soit assez bête pour apprécier.