Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

http://www.metaref.eu

8 réponses
Avatar
azerty
http://www.metaref.eu

MetaRef.eu a =E9t=E9 con=E7u par et pour les Webmasters qui effectuent le
r=E9f=E9rencement de leur(s) site(s) par leur propre moyen.
Seulement, si cette op=E9ration est relativement simple, naviguer =E0
longueur de journ=E9e sur les diff=E9rents Moteurs de Recherche et
d'Annuaires afin de trouver la bonne page de soumission est souvent
longue et fastidieuse.
Sans compter les heures et journ=E9es enti=E8res =E0 surfer devant
d'innombrable page de publicit=E9 !

Vous trouverez donc sur le site de MetaRef.eu les liens de connexions
directs pointant sur la page de soumission de multitude Moteurs de
Recherche et d'Annuaires =E0 travers le monde entier. La seule
contrepartie =E9tant de s'enregistrer comme membre du site MetaRef.eu et
d'indiquer au minimum un lien de soumission d'un site non connu dans
notre base de donn=E9e et c'est tout ! Ensuite, =E0 vous de jouer avec
cette formidable mine d'informations.
En s'y mettant tous, ce n'est plus sur quelques dizaine de Moteurs de
Recherche que vous allez vous inscrire, mais sur des centaines, voir
des milliers ! Quand on connait l'importance du PageRank que vous
attribue Google en fonction de la pr=E9sence du lien de votre site =E0
travers les sites mondiaux, imaginez l'impact sur le PageRank de votre
site en utilisant les liens de MetaRef.eu !

8 réponses

Avatar
Denis Beauregard
Le Mon, 30 Jun 2008 06:13:17 -0700 (PDT), azerty
écrivait dans fr.comp.infosystemes.www.auteurs:

des milliers ! Quand on connait l'importance du PageRank que vous
attribue Google en fonction de la présence du lien de votre site à
travers les sites mondiaux, imaginez l'impact sur le PageRank de votre
site en utilisant les liens de MetaRef.eu !



La tendance chez google est plutôt de baisser le page rank quand
on a un lien sur ce genre de site...


Denis
Avatar
Mihamina Rakotomandimby
Denis Beauregard wrote:
La tendance chez google est plutôt de baisser le page rank quand
on a un lien sur ce genre de site...



Quel serait le critère de reconnaissance de "ce genre de site"?

--
Huile Essentielle de Camphre http://www.huile-camphre.fr
Infogerance http://www.infogerance.us
(Serveurs, Postes de travail, Développement logiciel)
Avatar
Denis Beauregard
Le Tue, 01 Jul 2008 19:38:35 +0300, Mihamina Rakotomandimby
écrivait dans fr.comp.infosystemes.www.auteurs:

Denis Beauregard wrote:
La tendance chez google est plutôt de baisser le page rank quand
on a un lien sur ce genre de site...



Quel serait le critère de reconnaissance de "ce genre de site"?



Les annuaires de sites payants, c'est-à-dire ceux où habituellement
on paie pour être inscrit, et par extension, les annuaires plus ou
moins virtuels qui apparaissent par milliers dans le seul but d'aller
chercher des clics, ceci en construisant des listes de liens avec des
robots.

En d'autres mots, les sites qui sont à la limite du spamdex. Je sais
que Google a fait un premier ménage en début d'année en virant de
nombreux sites .info qui pillaient du contenu et qui apparaissent
quand on fait une recherche. Je m'en suis aperçu quand Google a viré
des milliers de pages de mon site. J'ai ajouté 2 dossiers à mon
robots.txt pour n'avoir qu'un seul dossier qui serait bilingue, et
à cette époque, si je recherchais mon site sur google, je tombais sur
des milliers de pages pillées sur mon site. Par la suite, ces pages
ont disparu d'une recherche sur google mais continuaient à apparaître
avec yahoo, donc google a fait le ménage de ces sites.

Du point de vue du moteur de recherche, quelle est l'utilité d'un
annuaire de liens si les liens sont déjà dans le moteur en soi ?
Et pire, si ces liens ont été trouvés dans ce moteur ? Cela n'a
aucune utilité et cela devrait être considéré à la longue de la même
façon que du spamdex.

Par ailleurs, on peut déduire beaucoup plus si on utilise les outils
de webmaster de google, mais google n'aime pas qu'on parle de son
contenu sur la place publique. Le présent message se base sur ce qui
peut être observé de l'extérieur.

Et mon opinion personnelle, c'est que les fermes de liens et autres
annuaires de liens ne seront plus indexées par google à moyen terme.
Donc des sites comme metaref ne servent à rien.

En passant, quand j'ai enlevé mon annuaire de liens de mon site,
google a "par hasard" indexé presqu'immédiatement un grand nombre
de pages (6 000) de mon site alors que j'avais envoyé un sitemap
depuis plusieurs mois. Je dois dire que mon annuaire devait avoir
50% de liens brisés, ce qui n'aide pas !


Denis
Avatar
Mickaël Wolff
Mihamina Rakotomandimby a écrit :

Quel serait le critère de reconnaissance de "ce genre de site"?



num_outlinks / num_words ;)

--
Mickaël Wolff aka Lupus Michaelis
http://lupusmic.org
Avatar
Denis Beauregard
Le Tue, 01 Jul 2008 19:38:35 +0300, Mihamina Rakotomandimby
écrivait dans fr.comp.infosystemes.www.auteurs:

Denis Beauregard wrote:
La tendance chez google est plutôt de baisser le page rank quand
on a un lien sur ce genre de site...



Quel serait le critère de reconnaissance de "ce genre de site"?



Tu devrais lire la page "Guidelines" disponible sur Google via les
outils pour webmaster. Je sais que cette section est en anglais,
mais cela donne beaucoup d'idées au sujet de ce que Google autorise
ou pas. En particulier, pour le cas présent, lis le 3e paragraphe
de la section "Quality guidelines - basic principles" qui reprend
ce que je disais mais en d'autres termes.

Si la version courante de Google n'a pas automatisé exactement ce que
suggèrent ces lignes-guides, on peut supposer que le développement des
algorithmes se fera tout de même en fonction de ce que Google demande
aux développeurs. En tous cas, ce serait bizarre de suggérer quelque
chose et de faire de nouveaux algorithmes donnant le contraire comme
résultat !

Évidemment, Google ne permet pas qu'on discute de ces pages, donc il
est difficile d'en parler autrement que d'un oeil extérieur, en
fonction de ce que l'on voit sans recourir aux services de Google
autres que le moteur de recherche.


Denis
Avatar
Mihamina Rakotomandimby
Mickaël Wolff wrote:
Quel serait le critère de reconnaissance de "ce genre de site"?


num_outlinks / num_words ;)



Merci Denis, mais je réponds ceci à ce qui a été dit: Quand je fais des
recherches (tres orientées informatique en général) je tombe en première
page de résultats sur des liens répertoriés par swik et del.icio.us.
Pourtant je considère ces deux "outils" comme des fermes de liens,
aussi, moi.
Et le rapport évoqué par M.Wolff est tres grand pour ces deux derniers.

--
Huile Essentielle de Camphre http://www.huile-camphre.fr
Infogerance http://www.infogerance.us
(Serveurs, Postes de travail, Développement logiciel)
Avatar
Mickaël Wolff
Mihamina Rakotomandimby a écrit :

Et le rapport évoqué par M.Wolff est tres grand pour ces deux derniers.



La seule explication raisonnable est donc que Google fait du favoritisme.

--
Mickaël Wolff aka Lupus Michaelis
http://lupusmic.org
Avatar
Denis Beauregard
Le Mon, 07 Jul 2008 23:13:07 +0300, Mihamina Rakotomandimby
écrivait dans fr.comp.infosystemes.www.auteurs:

Mickaël Wolff wrote:
Quel serait le critère de reconnaissance de "ce genre de site"?


num_outlinks / num_words ;)



Merci Denis, mais je réponds ceci à ce qui a été dit: Quand je fais des
recherches (tres orientées informatique en général) je tombe en première
page de résultats sur des liens répertoriés par swik et del.icio.us.
Pourtant je considère ces deux "outils" comme des fermes de liens,
aussi, moi.
Et le rapport évoqué par M.Wolff est tres grand pour ces deux derniers.



De temps en temps, je fais des recherches pour savoir comment sort
mon propre site. C'est une recherche relativement stable, avec les
mêmes mots-clés, faite au hasard et en supposant que cela ne va pas
influencer les futurs résultats de recherches (mais je pense que
le choix des visiteurs peut être utilisé par certains moteurs).

Tout d'abord, Google semble alterner ses algorithmes, à moins que
ses algorithmes ne soient dynamiques. Les résultats varient d'un
jour à l'autre pour la même recherche. La conclusion de cela, c'est
qu'il est très difficile de tirer une conclusion sur le fonctionnement
de Google. On peut avoir une impression et le lendemain ou quelques
jours plus tard, une autre impression.

Ceci est très logique. En variant les algorithmes, on réduit les
possibilités de tricher puisqu'il est plus difficile pour un tricheur
de savoir comment tricher. Mais cela empêche de savoir si Google
applique ou pas ses règles.

Deuxio, il est évident que Google n'applique pas certaines de ses
règles. Par exemple, le contenu recopié sur plusieurs sites est
interdit mais Google indexe un grand nombre de sites qui reproduisent
les messages des forums même si c'est évident et facile à savoir
qu'il s'agit de messages provenant des forums (la plupart ont comme
nom de dossier le nom du forum !). Donc, entre ce que Google demande
(ses règles ou le comportement suggéré ou annoncé sur son site) et
ce que Google fait (les résultats d'une recherche), il y a une
différence.

Tercio, et ceci peu importe le moteur, ce n'est pas évident de livrer
le résultat demandé. Je fais certaines recherches pour trouver de
l'information que je veux utiliser. Parfois, j'espère trouver de
l'information nouvelle et inédite, donc que le moteur indexe les
blogues et forums rapidement car ils peuvent contenir la réponse.
Parfois, j'espère retrouver une information que j'ai déjà vue pour
montrer à quelqu'un d'autre, donc que le moteur priorise les
informations plus anciennes. Parfois, je veux simplement savoir
si un autre trouvera mon site en recherchant telle ou telle
information. En ce moment, aucun moteur ne permet de biaiser les
résultats en fonction des besoins de l'utilisateur et on livre la
même chose à tout le monde.

Il est donc évident que certains résultats décevant pour nous sont
excellents pour d'autres, et vice-versa.

En théorie, tout ce que l'on peut faire comme auteur de site, c'est
d'ignorer les moteurs de recherche. En pratique, c'est assez
évident qu'il faut en tenir compte, mais qu'il y a des limites que
l'on finit par connaître. Par exemple, j'ai enlevé le mot "Québec"
dans les endroits sur mon site parce que ce mot apparaissait trop
souvent et donc nuisait à l'indexation. De même, j'ai remplacé
deux dossiers en français et en anglais par un seul bilingue pour
les moteurs parce qu'ils n'indexaient qu'une seule version.
Moralement, je ne pense pas avoir triché, mais je ne sais pas si
l'algorithme de tel moteur le présume et donc me pénalise. Par
contre, il y a des gestes que l'on reconnaît immédiatement comme
de la triche, parce que nous sommes humains.


Pour revenir à la question initiale, je pense qu'en ce moment, Google
n'exclut pas les fermes de liens ni certaines formes de spamdexing.
De plus, del.icio.us est tout de même quelque chose de spécial puisque
la liste dépend des visiteurs et que ce n'est pas quelque chose de
fabriqué par un robot (même si je peux avoir des doutes pour certains
résultats). Et SWiK semble fonctionner de la même façon. Tiens, si
j'en faisais un moi aussi...


Denis