D'après mes lectures : non.
D'après mes lectures : non.
D'après mes lectures : non.
D'après mes lectures : non.
C'est aussi mon avis mais pour pourquoi
un éditeur de logiciels a-t-il créé une
application pour cela ??
D'après mes lectures : non.
C'est aussi mon avis mais pour pourquoi
un éditeur de logiciels a-t-il créé une
application pour cela ??
D'après mes lectures : non.
C'est aussi mon avis mais pour pourquoi
un éditeur de logiciels a-t-il créé une
application pour cela ??
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" <kloug-news@yahoo.fr>
écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
a écrit :Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?
Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".
lui@fr.invalid a écrit :
Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop" <kloug-news@yahoo.fr>
écrivait dans fr.comp.infosystemes.www.auteurs:
D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?
Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".
a écrit :Le Sat, 8 Aug 2009 19:15:45 +0200, "Yop"
écrivait dans fr.comp.infosystemes.www.auteurs:D'après mes lectures : non.
Donc, au pif et sans aucune documentation valide.
Tu affirmes que ses lectures sont hasardeuses et non valides...
Le comportement **officiel** de Google est une chose, son comportement
**réel** est autre chose.
[...]
Officiellement, Google n'utilise que le contenu pour évaluer les
pages. Dans la réalité, par instinct, on s'aperçoit que certaines
actions faussent cette règle. Qu'il s'agisse de la présence de
pubs Google, de cliquer sur la page après une recherche, d'augmenter
le contenu en pillant d'autres sites, etc. En bref, Google n'est plus
ce qu'il était même s'il continue à avoir autour de 80% du marché des
moteurs. Il faut dire que leur but comme moteur de recherche est de
travailler sans aucune intervention humaine, ce qui est à mon avis
impossible pour éliminer les tricheurs.
...mais que tes allégations sont à prendre au sérieux par contre.
Tu as donc des statistiques sérieuses, basées sur une expérimentation
solide, à nous montrer ?
Maintenant on va réfléchir 2 secondes :
- un bon positionnement peu couter très cher et rend Adwords et consorts
beaucoup moins utiles ;
- des machines zombies sont disponibles partout dans le monde et peuvent
être filtrées, selon leur ip, par pays et région/état ;
- un script élémentaire permet de simuler des clics et un script un peu
plus poussé de simuler un vague comportement humain.
En somme, c'est un peu comme ceux qui s'évertuent à construire des sites
MFA (c-a-d créer dans le seul but de recevoir un max de pub ou plutôt un
max de clics sur ces pubs) pour gagner 100 euros par mois pour 10 heures
de boulot mensuel.
Mais tout ceci n'est (presque) que supposition et "donc, au pif et sans
aucune documentation valide".
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...
On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...
On crée 3 pages contenant un mot inventé (comme une marque de
commerce) sur 3 sites différents. Puis, ajoute disons une centaine
de A, de B ou de C (chaque page ayant sa lettre) séparés par des
espaces. Puis, on les ajoute à Google (lien depuis la page d'accueil
du site), avec disons comme nom A.php, B.php et C.php.
On attend que les 3 pages sont ajoutées à l'index Google puis on
clique sur le 3e lien (on recherche le mot-clé) 10 fois par jour et
on observe.
Cela devrait donner une idée du fonctionnement **réel** de Google en
ce qui concerne les clics.
Je suppose bien sûr que la pondération de ces clics est basse dans le
référencement...
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?
Admettons mais dans la vie réelle, avec un mot clé "normal" exemple
internet donnant plus d'un milliard de résultats, si ma page est en 9000ème
position,
il faudrait d'abord la trouver pour pouvoir cliquer dessus ?