Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Google

8 réponses
Avatar
Kloug
Bonjour,
Le nombre de click sur un lien Google vers un site
influe-t-il sur le positionnement dudit site dans Google.
En d'autres termes, plus le site sera visité via Google
mieux il sera positionné dans Google.
Merci de vos avis ou infos
K

8 réponses

Avatar
David D.
D'après mes lectures : non.
Avatar
Yop
D'après mes lectures : non.



C'est aussi mon avis mais pour pourquoi
un éditeur de logiciels a-t-il créé une
application pour cela ??
Avatar
lui
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:


D'après mes lectures : non.





Donc, au pif et sans aucune documentation valide.

C'est aussi mon avis mais pour pourquoi
un éditeur de logiciels a-t-il créé une
application pour cela ??



Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.

Par exemple, Google prétend favoriser le contenu original, mais on
trouve beaucoup de pages en plusieurs copies parce que générées
automatiquement en plusieurs langues (contenu généalogique, donc les
noms, lieux et dates sont les mêmes). De même, un site qui pille
les sites A et B va se retrouver mieux placé que les sites A et B
parce qu'il a plus de contenu (en d'autres mots, l'algorithme de
Google ne favorise pas le contenu original). On a aussi un exemple
avec le nombre de pages venant des domaines group.google de chaque
pays.

J'ai un exemple d'un site qui pille allègrement du contenu sans donner
de source, mais dont les pages ont plus de bannières google que de
contenu unique (si on enlève ce qui est répété sur chaque page). Ce
site se retrouve en 1re page pour le principal mot-clé.

Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
Avatar
Olivier Masson
a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:

D'après mes lectures : non.





Donc, au pif et sans aucune documentation valide.



Tu affirmes que ses lectures sont hasardeuses et non valides...


Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.



[...]

Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.




...mais que tes allégations sont à prendre au sérieux par contre.

Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?

Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.

En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.

Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".
Avatar
lui
Le Mon, 10 Aug 2009 21:58:37 +0200, Olivier Masson
écrivait dans fr.comp.infosystemes.www.auteurs:

a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:

D'après mes lectures : non.





Donc, au pif et sans aucune documentation valide.



Tu affirmes que ses lectures sont hasardeuses et non valides...



Je dis que sans référence précise, sans démonstration, cela ne veut
rien dire. "mes lectures", sans lien, c'est au pif.

Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.



[...]

Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.




...mais que tes allégations sont à prendre au sérieux par contre.

Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?



J'observe le positionnement de mon site. Cela me montre bien que l'on
peut tirer certaines leçons avec cette observation. Dans mon cas,
j'ai vu ma position passer de la 1re à la 3e page. J'ai fait un léger
changement (l'URL d'une seule page), ayant identifié le problème, et
je suis déjà remonté au début de la 2e page.

Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.

En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.

Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".



Sauf que le comportement observé est très différent.

Pour une page avec peu de visites et pour laquelle on n'a pas de
millions de visiteurs (donc, pas rentable pour des bannières), la
méthode d'auto-référencement par clics pourrait fonctionner. Je
pense que cela fait partie de l'algorithme de Google.

Cela doit être démontrable de cette façon.

On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.

On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.

Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.

Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...
Avatar
Yop
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.



Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
Avatar
Olivier Masson
a écrit :

On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.

On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.

Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.

Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...




Tout le problème des théories du SEO, c'est qu'elles reposent
essentiellement sur du vide.
D'ailleurs, en lisant les blogs et recommendations des grands du monde
SEO (ouah !), on comprend une chose : personne n'est d'accord, hormis -
pour peu de temps encore - sur les points historiques (sémantique,
contenu, backlinks).
Mis à part quelques rares sites (et bien entendu ceux qui le font en
privé) qui réalisent de vrais tests - qu'il faudrait ensuite refaire
régulièrement -, chacun ajoute sa touche perso. En résulte une bouillie
que l'on peut consulter sur deux ou trois gros forums web français,
préparée par de grands experts en lecture de blogs et de posts de ces
mêmes forums.

Imaginer une maquette pour étayer des théories, beaucoup aime le faire
(dont moi). Mettre cela en pratique demande du temps et un minimum de
compétence. Et là, plus grand monde n'est présent.
Avatar
Olivier Masson
Yop a écrit :

Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?






On le fait donc de manière automatique.
Mais une page en 9000e position qui reçoit plein de clics, quelque soit
la théorie, je doute que Google soit assez bête pour apprécier.