OVH Cloud OVH Cloud

Site dynamique et moteurs de recherche

15 réponses
Avatar
Denis Beauregard
Bonjour,

Est-ce que quelqu'un a déjà fait un site dont le contenu change
durant une visite ?

Quand un visiteur arrive sur une page sans cookie, sans
paramètres "POST" et sans referer du même site, je lui donne un
contenu X.

Mais s'il a un cookie, un POST ou un referer de mon site, je
lui donne un contenu Y un peu différent.

Les moteurs verraient le contenu X et les visiteurs qui
regardent plus d'une page le contenu Y (qui est le contenu
X avec un peu plus d'informations).

Je sais que la règle de Google, c'est que la page indexée doit
avoir le même contenu que la page visitée par un humain, mais
pour empêcher de tricher en attirant un visiteur avec du
contenu qui disparaitra. Ici, au contraire, l'ancien contenu
serait conservé et un visiteur qui s'intéresse réellement au
contenu du site aurait plus d'informations, ce qui est dans l'esprit
des moteurs de recherche.

Ai-je l'esprit trop tordu ?


Denis

5 réponses

1 2
Avatar
Denis Beauregard
Le Tue, 11 Apr 2006 18:42:34 +0200, David JOURAND
écrivait dans
fr.comp.infosystemes.www.auteurs:

Bonjour,

J'ai un peu de mal a saisir votre besoin... qui me semble être
"bicéphale" :

1 - Afficher un contenu différent d'une même page sous certaines
conditions. La condition qui semble apparaître des discussions dans ce
thread est la langue. Si c'est cela, il suffit, côté serveur, de
détecter la langue du navigateur (en-tête "Accept-Language") et de
générer la page en conséquence.



La langue n'est pas nécessairement le seul critère. Mais c'est
suffisant pour exposer le problème principal. Un autre problème,
ce sont les pirates qui viennent recopier tout le site. Une
généalogie est faite de données qui sont toutes interreliées.
Donc, en prenant une famille et celles qui sont enchaînées, on
prend le site au complet. Si c'est une fois par mois ou par deux
mois, ce n'est pas trop grave (si le but n'est pas de tout republier
sous un autre nom ailleurs). Mais si cela commence à se répéter,
c'est la bande passante qui monte, les logs qu'on n'arrive plus à
suivre, etc. Qu'un vrai robot indexe tout le site, ce n'est pas
trop grave. Mais si cela signifie des requêtes en SQL à chaque
fois (et ma version suivante sera en SQL), c'est le serveur qui
va être surchargé.

Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.

2 - Comment laisser google indexer le site en plusieurs langues ?
Je ne pense pas que cela soit possible... Mais est-ce utile ?
Seules des pages très très similaires générées automatiquement à
partir des données d'une base (généalogique) sont susceptibles d'être
internationalisées dynamiquement. Mais dans ce cas, la pertinence de
l'information réside dans ce qui n'est pas internationalisé !



Effectivement. Les noms sont les mêmes, donc l'élément distinctif est
le même si on a 2 copies des mêmes données, une en français et une en
anglais par exemple. Mais pour google (le moteur le plus utilisé, je
le rappelle), c'est de l'information en double, donc de nature à
pousser le site plus loin dans les résultats de recherche.

Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au
contraire des autres sites plus ou moins similaires), certains sites
viennent piller le contenu pour leur propre référencement. Cela a
alors un contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que cette
opération s'est faite contre mon gré).

Une autre idée, qui me vient à l'esprit : lorsque le client ne précise
pas de langage (ce qui doit être le cas quasi exclusivement pour les
robots), vous pouvez générer la page dans les deux langues l'une au
dessus de l'autre... Si elle ne sont pas trop grosse, le robot indexera le
tout. Bien sûr dans ce cas, omettez l'attribut lang de la page.



C'est une possibilité en effet. Mais du point de vue ergonomique,
c'est à éviter quand un visiteur arrive. En d'autres mots, il ne
doit pas voir le site en plusieurs langues. Les Américains ignorant
le plus souvent l'existence des autres langues ne spécifient que
rarement la langue du navigateur, ce qui n'aide pas non plus.

Je préfère afficher le site en 2 langues quand le visiteur arrive
et qu'il ne précise pas la langue, puis l'inviter à continuer dans
une langue préférée (que je peux conserver par cookie).

En ce qui concerne mon autre problème, je veux suivre mon visiteur
et compter le nombre de pages lues, en le bloquant après disons 10
pages (je pourrais lui offrir de voir 100 pages gratuites par jour
sans frais s'il s'enregistre), ce qui devrait décourager les abus.
Mes visiteurs normaux regardent en moyenne autour de 4 pages par
visite.


Denis
Avatar
David JOURAND
Bonjour,

Un autre problème, ce sont les pirates qui viennent recopier tout le
site.



Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.

D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !


Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.



Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...


Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.

Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).



A mon avis, le contenu de la base n'a pas a être indexé sur Google ou
Yahoo! qui n'ont pas vocation à être des moteurs de recherches
généalogiques. Mieux vaut un très bon référencement sur par exemple
"genealogie français amerique" que sur "famille Jean AIMERY Jeanne
BOUCHER" (qui est excellent actuellement). Un généalogiste ayant des
ancêtres français en amérique cherchera plus facilement la première
que la seconde.


vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.



Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.



Placer la version dans un div que vous n'afficherez pas ! Avec en plus un
petit lien sur un JavaScript qui inversera l'affichage des div et vous
avez un effet très web 2.0 des plus merveilleux ;-)


Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).



Ou le choix est bon.


En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.



C'est une solution très radicale... et dans ce cas adieu l'indexation sur
Google! Vous pouvez plus simplement filtrer à l'entrer de la base avec un
captcha.

--
David Jourand
Avatar
Denis Beauregard
Le Tue, 11 Apr 2006 20:38:06 +0200, David JOURAND
écrivait dans
fr.comp.infosystemes.www.auteurs:

Bonjour,

Un autre problème, ce sont les pirates qui viennent recopier tout le
site.



Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.

D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !



Justement, comme il est reconnu, quelle est l'utilité d'en faire une
copie ? Si tout le monde commence à le faire, mes coûts montent, mes
revenus ne bougent pas (ceux qui viennent des bannières ne changent
pas et sont de toutes façons faibles au départ) et mon humeur baisse,
ce qui m'incite moins à ajouter des informations.

Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.



Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...



C'est ce que je fais pour le moment.

Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.

Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.

Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).



A mon avis, le contenu de la base n'a pas a être indexé sur Google ou
Yahoo! qui n'ont pas vocation à être des moteurs de recherches
généalogiques. Mieux vaut un très bon référencement sur par exemple
"genealogie français amerique" que sur "famille Jean AIMERY Jeanne
BOUCHER" (qui est excellent actuellement). Un généalogiste ayant des
ancêtres français en amérique cherchera plus facilement la première
que la seconde.



Avec google.fr (via www.google-dance-tool.com/cgi-bin/gdance.cgi):
genealogie 60
genealogie france 29
genealogie quebec 5
genealogie canada 1
genealogy france 22
genealogy quebec 99
genealogy canada 28

Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !

Et le référencement par les noms a un inconvénient majeur: la graphie
des noms de famille peut changer. Mon premier intérêt est d'aider à
trouver des données outremer, donc à permettre aux chercheurs en
France de tomber par hasard sur mes données, puis parce que cela les
intéresse, de les inciter à débloquer un des 10 000 dossiers (en fait,
on estime qu'il y aurait 30 000 immigrants français venus au Québec
avant 1850, pratiquement tous avant 1765). Mais si le nom utilisé
avant l'immigration (contexte de la paroisse de départ) n'est pas
celui utilisé après (contexte d'un patois souvent différent), le
chercheur français ne pourra pas trouver la page. Il me reste alors
la génération "intelligente" de la page. Par exemple, si un couple
est un Gauthier et une Larivière, il me faudrait ajouter comme
mots-clés des variations comme Gautier, Gaultier, Gotié, etc. et
Rivière, Larivier, etc. Là encore, on a le problème des réactions du
moteur de recherche. Si j'aide le visiteur à trouver mon site avec
ces variations destinées uniquement à la recherche, mais pas aux
visiteurs (puisqu'on ne voit pas les META d'une page), et que la liste
des variations est très longue (j'ai plus de 60 variations pour
Beauregard), est-ce que le moteur ne va pas me déréférencer parce que
le contenu n'est pas le même pour le robot et pour le visiteur humain?


vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.



Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.



Placer la version dans un div que vous n'afficherez pas ! Avec en plus un
petit lien sur un JavaScript qui inversera l'affichage des div et vous
avez un effet très web 2.0 des plus merveilleux ;-)



Hum, je ne savais pas que l'on pouvait le faire...

Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).



Ou le choix est bon.


En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.



C'est une solution très radicale... et dans ce cas adieu l'indexation sur
Google! Vous pouvez plus simplement filtrer à l'entrer de la base avec un
captcha.



Je ne sais pas si l'indexation sur google serait touchée. Je peux
filtrer d'après l'IP (donc, 10 pages par IP par jour, pas de limite si
c'est un robot connu), ce qui permettrait de laisser les vrais moteurs
indexer à leur guise. Ou bien, à chaque 10 pages, j'impose une clé
(comme chez gandi quand on fait un whois).

Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout
ce que cela implique en bien ou en mal. Et puis, j'ai d'autres
projets qui pourraient suivre et pour lesquels je ne pourrais pas
utiliser l'indexation externe parce qu'il y aurait trop de données.


Denis
Avatar
David JOURAND
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.



Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.

D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !



Justement, comme il est reconnu, quelle est l'utilité d'en faire une
copie ? Si tout le monde commence à le faire, mes coûts montent, mes
revenus ne bougent pas (ceux qui viennent des bannières ne changent
pas et sont de toutes façons faibles au départ) et mon humeur baisse,
ce qui m'incite moins à ajouter des informations.



Je vous comprends...


Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.



Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...



C'est ce que je fais pour le moment.




Dans ce cas où est le problème ?


Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.



Oui, à condition de ne pas se tromper... google.com ? googlebot.com ? et
pour yahoo! ?


Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !



C'est parfait ! Les annuaires sont là pour ça ! Je pense que l'on donne
beaucoup trop d'importance aux moteurs de recherche en général. C'est
vrai qu'il draine des visiteurs... mais de quelle qualité ? Trouvent-ils
sur votre site ce qu'ils cherchaient ? Il ne faut pas se leurrer, rien de
mieux qu'un site ayant un crédo bien défini, avec du contenu de
qualité, référencé sur les annuaires, sur les blogs et tout autre site
sérieux en relation avec votre sujet. Votre site n'est peut être pas le
mieux classer sur la recherche "genealogie" parce que ce n'est pas un site
de généalogie mais un site de généalogie des français d'amérique !
Pourquoi voudriez-vous être le premier sur "genealogie" ou "genealogie
france" cela n'a pas de sens ! Vous verriez arriver des hordes de
visiteurs qui se fichent complètement des français d'amérique ! Vous
sortez en 2ème sur la requete "genealogie france amerique" ! Je crois
qu'on peut difficilement faire mieux !


Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).



Je ne pense pas que le hasard vous sera d'un grand secours.... Mieux
vaudrait solliciter les généalogiste à débloquer ces dossiers en
ayant une attitude proactive.


Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?



D'abord les moteurs ne se fient plus aux META depuis bien longtemps.
Ensuite une grande liste de META peut même pénaliser le score de la page
car susceptible d'être une sorte de spam. Si vous voulez attirer des gens
sur les variations faites des pages spécifiques dédiées à ce thème :
les variations seront visibles et des robots et des visiteurs, et les
pages seront correctement indexer comme variation des patronymes X, Y, Z...


vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.



Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.



Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)



Hum, je ne savais pas que l'on pouvait le faire...



On peut faire beaucoup de chose... et si vous me permettez une critique de
votre site : il fait vieux, et il aurait beaucoup plus à gagner en étant
relooké ésthétiquement et ergonomiquement, plus qu'a vouloir à tout
pris être en tête du classement Google.


Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.



Si vous voulez mon avis, vous devriez remettre le projet à plat :
réfléchir à ses objectifs (commerciaux, public visé, etc...) et
seulement ensuite vous attaquer à sa refonte.

N'hésitez pas à me contacter en privé si vous souhaitez prolonger cette
discussion.

--
David Jourand
Avatar
Denis Beauregard
Le Tue, 11 Apr 2006 23:41:21 +0200, David JOURAND
écrivait dans
fr.comp.infosystemes.www.auteurs:

Un autre problème, ce sont les pirates qui viennent recopier tout le
site.



Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...



C'est ce que je fais pour le moment.




Dans ce cas où est le problème ?



Ce n'est pas suffisant.

Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.



Oui, à condition de ne pas se tromper... google.com ? googlebot.com ? et
pour yahoo! ?



On a des logs pour se guider.

Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !



C'est parfait ! Les annuaires sont là pour ça ! Je pense que l'on donne
beaucoup trop d'importance aux moteurs de recherche en général. C'est
vrai qu'il draine des visiteurs... mais de quelle qualité ? Trouvent-ils
sur votre site ce qu'ils cherchaient ? Il ne faut pas se leurrer, rien de
mieux qu'un site ayant un crédo bien défini, avec du contenu de
qualité, référencé sur les annuaires, sur les blogs et tout autre site
sérieux en relation avec votre sujet. Votre site n'est peut être pas le
mieux classer sur la recherche "genealogie" parce que ce n'est pas un site
de généalogie mais un site de généalogie des français d'amérique !
Pourquoi voudriez-vous être le premier sur "genealogie" ou "genealogie
france" cela n'a pas de sens ! Vous verriez arriver des hordes de



En fait, cela ne me dérangerait pas si c'était vraiment des sites
de référence avec beaucoup de contenu qui sortaient avant le mien.
Mais ce n'est pas cela du tout. Il y a des sites avec peu de
contenu qui sortent beaucoup plus haut.

visiteurs qui se fichent complètement des français d'amérique ! Vous
sortez en 2ème sur la requete "genealogie france amerique" ! Je crois
qu'on peut difficilement faire mieux !


Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).



Je ne pense pas que le hasard vous sera d'un grand secours.... Mieux
vaudrait solliciter les généalogiste à débloquer ces dossiers en
ayant une attitude proactive.



Il y a plusieurs façons d'être proactif. L'une d'entre elle, c'est
d'avoir du contenu pour inviter ces chercheurs (comme les listes par
département). Mais une autre, c'est d'avoir des outils que ces mêmes
chercheurs peuvent utiliser pour leurs propres besoins. En d'autres
mots, une forme d'échange au lieu de demander sans rien donner en
retour. Les outils que j'ai en tête ont le défaut de faire beaucoup
plus de pages que ce que j'ai déjà.

Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?



D'abord les moteurs ne se fient plus aux META depuis bien longtemps.
Ensuite une grande liste de META peut même pénaliser le score de la page
car susceptible d'être une sorte de spam. Si vous voulez attirer des gens
sur les variations faites des pages spécifiques dédiées à ce thème :
les variations seront visibles et des robots et des visiteurs, et les
pages seront correctement indexer comme variation des patronymes X, Y, Z...



C'est sans doute une façon de voir les choses. Il me faut trouver une
façon de la réaliser. Ainsi, si j'ai 10 façons d'écrire le nom de
l'homme et 10 pour la femme, je fais 100 pages avec uniquement ces
noms ou une page avec les 100 variations (ce qui me paraît plus
efficace) et ensuite un bouton clicable vers les détails. C'est sans
doute la bonne façon de faire les choses.

vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.



Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.



Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)



Hum, je ne savais pas que l'on pouvait le faire...



On peut faire beaucoup de chose... et si vous me permettez une critique de
votre site : il fait vieux, et il aurait beaucoup plus à gagner en étant
relooké ésthétiquement et ergonomiquement, plus qu'a vouloir à tout
pris être en tête du classement Google.



C'est vrai qu'il est vieux... Il est même le plus vieux dans sa
catégorie (c'est le problème quand on est le premier !). Il y a
beaucoup de sections que je voudrais refaire au complet. Par
exemple, j'ai des listes d'endroits par région mais pas de moteur
interne pour rechercher un endroit. Et pour chacun de ces endroits,
il y a même des produits que je peux vendre (l'état civil de chaque
paroisse sur CD). Je suis peut-être dans la position de celui qui
accumule les choses pendant des années (depuis 1995 dans mon cas)
et qui panique devant l'ampleur du travail pour tout revoir.

Il y a tout de même des combinaisons de mots chez google où je
devrais être bien placé. Ce n'est pas normal que je sois en
position 100 avec genealogy quebec...

Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.



Si vous voulez mon avis, vous devriez remettre le projet à plat :
réfléchir à ses objectifs (commerciaux, public visé, etc...) et
seulement ensuite vous attaquer à sa refonte.

N'hésitez pas à me contacter en privé si vous souhaitez prolonger cette
discussion.



D'accord.

Merci pour les commentaires, etc.


Denis
1 2