Bonjour,
J'ai un peu de mal a saisir votre besoin... qui me semble être
"bicéphale" :
1 - Afficher un contenu différent d'une même page sous certaines
conditions. La condition qui semble apparaître des discussions dans ce
thread est la langue. Si c'est cela, il suffit, côté serveur, de
détecter la langue du navigateur (en-tête "Accept-Language") et de
générer la page en conséquence.
2 - Comment laisser google indexer le site en plusieurs langues ?
Je ne pense pas que cela soit possible... Mais est-ce utile ?
Seules des pages très très similaires générées automatiquement à
partir des données d'une base (généalogique) sont susceptibles d'être
internationalisées dynamiquement. Mais dans ce cas, la pertinence de
l'information réside dans ce qui n'est pas internationalisé !
Une autre idée, qui me vient à l'esprit : lorsque le client ne précise
pas de langage (ce qui doit être le cas quasi exclusivement pour les
robots), vous pouvez générer la page dans les deux langues l'une au
dessus de l'autre... Si elle ne sont pas trop grosse, le robot indexera le
tout. Bien sûr dans ce cas, omettez l'attribut lang de la page.
Bonjour,
J'ai un peu de mal a saisir votre besoin... qui me semble être
"bicéphale" :
1 - Afficher un contenu différent d'une même page sous certaines
conditions. La condition qui semble apparaître des discussions dans ce
thread est la langue. Si c'est cela, il suffit, côté serveur, de
détecter la langue du navigateur (en-tête "Accept-Language") et de
générer la page en conséquence.
2 - Comment laisser google indexer le site en plusieurs langues ?
Je ne pense pas que cela soit possible... Mais est-ce utile ?
Seules des pages très très similaires générées automatiquement à
partir des données d'une base (généalogique) sont susceptibles d'être
internationalisées dynamiquement. Mais dans ce cas, la pertinence de
l'information réside dans ce qui n'est pas internationalisé !
Une autre idée, qui me vient à l'esprit : lorsque le client ne précise
pas de langage (ce qui doit être le cas quasi exclusivement pour les
robots), vous pouvez générer la page dans les deux langues l'une au
dessus de l'autre... Si elle ne sont pas trop grosse, le robot indexera le
tout. Bien sûr dans ce cas, omettez l'attribut lang de la page.
Bonjour,
J'ai un peu de mal a saisir votre besoin... qui me semble être
"bicéphale" :
1 - Afficher un contenu différent d'une même page sous certaines
conditions. La condition qui semble apparaître des discussions dans ce
thread est la langue. Si c'est cela, il suffit, côté serveur, de
détecter la langue du navigateur (en-tête "Accept-Language") et de
générer la page en conséquence.
2 - Comment laisser google indexer le site en plusieurs langues ?
Je ne pense pas que cela soit possible... Mais est-ce utile ?
Seules des pages très très similaires générées automatiquement à
partir des données d'une base (généalogique) sont susceptibles d'être
internationalisées dynamiquement. Mais dans ce cas, la pertinence de
l'information réside dans ce qui n'est pas internationalisé !
Une autre idée, qui me vient à l'esprit : lorsque le client ne précise
pas de langage (ce qui doit être le cas quasi exclusivement pour les
robots), vous pouvez générer la page dans les deux langues l'une au
dessus de l'autre... Si elle ne sont pas trop grosse, le robot indexera le
tout. Bien sûr dans ce cas, omettez l'attribut lang de la page.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.
Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).
En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.
Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).
En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.
Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).
En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.
Bonjour,Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.
D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.
Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).
A mon avis, le contenu de la base n'a pas a être indexé sur Google ou
Yahoo! qui n'ont pas vocation à être des moteurs de recherches
généalogiques. Mieux vaut un très bon référencement sur par exemple
"genealogie français amerique" que sur "famille Jean AIMERY Jeanne
BOUCHER" (qui est excellent actuellement). Un généalogiste ayant des
ancêtres français en amérique cherchera plus facilement la première
que la seconde.
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus un
petit lien sur un JavaScript qui inversera l'affichage des div et vous
avez un effet très web 2.0 des plus merveilleux ;-)
Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).
Ou le choix est bon.En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.
C'est une solution très radicale... et dans ce cas adieu l'indexation sur
Google! Vous pouvez plus simplement filtrer à l'entrer de la base avec un
captcha.
Bonjour,
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.
D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.
Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).
A mon avis, le contenu de la base n'a pas a être indexé sur Google ou
Yahoo! qui n'ont pas vocation à être des moteurs de recherches
généalogiques. Mieux vaut un très bon référencement sur par exemple
"genealogie français amerique" que sur "famille Jean AIMERY Jeanne
BOUCHER" (qui est excellent actuellement). Un généalogiste ayant des
ancêtres français en amérique cherchera plus facilement la première
que la seconde.
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus un
petit lien sur un JavaScript qui inversera l'affichage des div et vous
avez un effet très web 2.0 des plus merveilleux ;-)
Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).
Ou le choix est bon.
En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.
C'est une solution très radicale... et dans ce cas adieu l'indexation sur
Google! Vous pouvez plus simplement filtrer à l'entrer de la base avec un
captcha.
Bonjour,Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.
D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
Effectivement. Les noms sont les mêmes, donc l'élément distinctif
est le même si on a 2 copies des mêmes données, une en français et
une en anglais par exemple. Mais pour google (le moteur le plus
utilisé, je le rappelle), c'est de l'information en double, donc de
nature à pousser le site plus loin dans les résultats de recherche.
Mon cas est encore plus pathétique car à cause de la qualité de
l'information (les noms des villes de France sont copiées-collées à
partir d'une base de données avec le nom exact des villes, au contraire
des autres sites plus ou moins similaires), certains sites viennent
piller le contenu pour leur propre référencement. Cela a alors un
contre-effet négatif car cela repousse encore plus loin le
référencement de mon site (car le robot de google calcule que j'ai
payé pour améliorer artificiellement mon référencement alors que
cette opération s'est faite contre mon gré).
A mon avis, le contenu de la base n'a pas a être indexé sur Google ou
Yahoo! qui n'ont pas vocation à être des moteurs de recherches
généalogiques. Mieux vaut un très bon référencement sur par exemple
"genealogie français amerique" que sur "famille Jean AIMERY Jeanne
BOUCHER" (qui est excellent actuellement). Un généalogiste ayant des
ancêtres français en amérique cherchera plus facilement la première
que la seconde.
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus un
petit lien sur un JavaScript qui inversera l'affichage des div et vous
avez un effet très web 2.0 des plus merveilleux ;-)
Je préfère afficher le site en 2 langues quand le visiteur arrive et
qu'il ne précise pas la langue, puis l'inviter à continuer dans une
langue préférée (que je peux conserver par cookie).
Ou le choix est bon.En ce qui concerne mon autre problème, je veux suivre mon visiteur et
compter le nombre de pages lues, en le bloquant après disons 10 pages
(je pourrais lui offrir de voir 100 pages gratuites par jour sans frais
s'il s'enregistre), ce qui devrait décourager les abus. Mes visiteurs
normaux regardent en moyenne autour de 4 pages par visite.
C'est une solution très radicale... et dans ce cas adieu l'indexation sur
Google! Vous pouvez plus simplement filtrer à l'entrer de la base avec un
captcha.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.
D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !
Justement, comme il est reconnu, quelle est l'utilité d'en faire une
copie ? Si tout le monde commence à le faire, mes coûts montent, mes
revenus ne bougent pas (ceux qui viennent des bannières ne changent
pas et sont de toutes façons faibles au départ) et mon humeur baisse,
ce qui m'incite moins à ajouter des informations.
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
C'est ce que je fais pour le moment.
Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.
Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !
Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).
Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)
Hum, je ne savais pas que l'on pouvait le faire...
Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.
D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !
Justement, comme il est reconnu, quelle est l'utilité d'en faire une
copie ? Si tout le monde commence à le faire, mes coûts montent, mes
revenus ne bougent pas (ceux qui viennent des bannières ne changent
pas et sont de toutes façons faibles au départ) et mon humeur baisse,
ce qui m'incite moins à ajouter des informations.
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
C'est ce que je fais pour le moment.
Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.
Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !
Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).
Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)
Hum, je ne savais pas que l'on pouvait le faire...
Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Il ne faut pas toujours vouloir tout régler par la technologie... Vous
pouvez peut-être vous plaindre auprès de l'hébergeur puis porter
plainte en justice si cela est nécessaire.
D'un autre côté, si on vous pirate, c'est que votre site est connu (et
il l'est) et reconnu (il l'est également). C'est en quelques sorte la
rançon du succès !
Justement, comme il est reconnu, quelle est l'utilité d'en faire une
copie ? Si tout le monde commence à le faire, mes coûts montent, mes
revenus ne bougent pas (ceux qui viennent des bannières ne changent
pas et sont de toutes façons faibles au départ) et mon humeur baisse,
ce qui m'incite moins à ajouter des informations.
Donc, je veux à la fois permettre aux vrais robots indexeurs de
visiter tout le site et de l'indexer comme il faut (par rapport
au contenu), bloquer les pirates et ne pas gêner les visiteurs
gentils.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
C'est ce que je fais pour le moment.
Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.
Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !
Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).
Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)
Hum, je ne savais pas que l'on pouvait le faire...
Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
C'est ce que je fais pour le moment.
Dans ce cas où est le problème ?
Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.
Oui, à condition de ne pas se tromper... google.com ? googlebot.com ? et
pour yahoo! ?
Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !
C'est parfait ! Les annuaires sont là pour ça ! Je pense que l'on donne
beaucoup trop d'importance aux moteurs de recherche en général. C'est
vrai qu'il draine des visiteurs... mais de quelle qualité ? Trouvent-ils
sur votre site ce qu'ils cherchaient ? Il ne faut pas se leurrer, rien de
mieux qu'un site ayant un crédo bien défini, avec du contenu de
qualité, référencé sur les annuaires, sur les blogs et tout autre site
sérieux en relation avec votre sujet. Votre site n'est peut être pas le
mieux classer sur la recherche "genealogie" parce que ce n'est pas un site
de généalogie mais un site de généalogie des français d'amérique !
Pourquoi voudriez-vous être le premier sur "genealogie" ou "genealogie
france" cela n'a pas de sens ! Vous verriez arriver des hordes de
visiteurs qui se fichent complètement des français d'amérique ! Vous
sortez en 2ème sur la requete "genealogie france amerique" ! Je crois
qu'on peut difficilement faire mieux !Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).
Je ne pense pas que le hasard vous sera d'un grand secours.... Mieux
vaudrait solliciter les généalogiste à débloquer ces dossiers en
ayant une attitude proactive.
Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?
D'abord les moteurs ne se fient plus aux META depuis bien longtemps.
Ensuite une grande liste de META peut même pénaliser le score de la page
car susceptible d'être une sorte de spam. Si vous voulez attirer des gens
sur les variations faites des pages spécifiques dédiées à ce thème :
les variations seront visibles et des robots et des visiteurs, et les
pages seront correctement indexer comme variation des patronymes X, Y, Z...
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)
Hum, je ne savais pas que l'on pouvait le faire...
On peut faire beaucoup de chose... et si vous me permettez une critique de
votre site : il fait vieux, et il aurait beaucoup plus à gagner en étant
relooké ésthétiquement et ergonomiquement, plus qu'a vouloir à tout
pris être en tête du classement Google.
Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.
Si vous voulez mon avis, vous devriez remettre le projet à plat :
réfléchir à ses objectifs (commerciaux, public visé, etc...) et
seulement ensuite vous attaquer à sa refonte.
N'hésitez pas à me contacter en privé si vous souhaitez prolonger cette
discussion.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
C'est ce que je fais pour le moment.
Dans ce cas où est le problème ?
Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.
Oui, à condition de ne pas se tromper... google.com ? googlebot.com ? et
pour yahoo! ?
Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !
C'est parfait ! Les annuaires sont là pour ça ! Je pense que l'on donne
beaucoup trop d'importance aux moteurs de recherche en général. C'est
vrai qu'il draine des visiteurs... mais de quelle qualité ? Trouvent-ils
sur votre site ce qu'ils cherchaient ? Il ne faut pas se leurrer, rien de
mieux qu'un site ayant un crédo bien défini, avec du contenu de
qualité, référencé sur les annuaires, sur les blogs et tout autre site
sérieux en relation avec votre sujet. Votre site n'est peut être pas le
mieux classer sur la recherche "genealogie" parce que ce n'est pas un site
de généalogie mais un site de généalogie des français d'amérique !
Pourquoi voudriez-vous être le premier sur "genealogie" ou "genealogie
france" cela n'a pas de sens ! Vous verriez arriver des hordes de
visiteurs qui se fichent complètement des français d'amérique ! Vous
sortez en 2ème sur la requete "genealogie france amerique" ! Je crois
qu'on peut difficilement faire mieux !
Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).
Je ne pense pas que le hasard vous sera d'un grand secours.... Mieux
vaudrait solliciter les généalogiste à débloquer ces dossiers en
ayant une attitude proactive.
Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?
D'abord les moteurs ne se fient plus aux META depuis bien longtemps.
Ensuite une grande liste de META peut même pénaliser le score de la page
car susceptible d'être une sorte de spam. Si vous voulez attirer des gens
sur les variations faites des pages spécifiques dédiées à ce thème :
les variations seront visibles et des robots et des visiteurs, et les
pages seront correctement indexer comme variation des patronymes X, Y, Z...
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)
Hum, je ne savais pas que l'on pouvait le faire...
On peut faire beaucoup de chose... et si vous me permettez une critique de
votre site : il fait vieux, et il aurait beaucoup plus à gagner en étant
relooké ésthétiquement et ergonomiquement, plus qu'a vouloir à tout
pris être en tête du classement Google.
Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.
Si vous voulez mon avis, vous devriez remettre le projet à plat :
réfléchir à ses objectifs (commerciaux, public visé, etc...) et
seulement ensuite vous attaquer à sa refonte.
N'hésitez pas à me contacter en privé si vous souhaitez prolonger cette
discussion.
Un autre problème, ce sont les pirates qui viennent recopier tout le
site.
Cela me parait parfaitement impossible... les robots pirates pouvant se
faire facilement passer pour un robot Google, vous ne pouvez pas faire le
tri... sauf à ne laisser passer que les robots provenant des adresses ip
attribuées à Google, Yahoo!, etc...
C'est ce que je fais pour le moment.
Dans ce cas où est le problème ?
Je pourrais peut-être commencer à regarder les adresses canoniques.
Si cela se termine par google.com, je crois qu'il est impossible
que ce soit un usager de free.fr ou de verizon.net.
Oui, à condition de ne pas se tromper... google.com ? googlebot.com ? et
pour yahoo! ?
Quelqu'un qui ne connaît pas mon site a plus de chances de le trouver
dans les annuaires que par les moteurs de recherche !
C'est parfait ! Les annuaires sont là pour ça ! Je pense que l'on donne
beaucoup trop d'importance aux moteurs de recherche en général. C'est
vrai qu'il draine des visiteurs... mais de quelle qualité ? Trouvent-ils
sur votre site ce qu'ils cherchaient ? Il ne faut pas se leurrer, rien de
mieux qu'un site ayant un crédo bien défini, avec du contenu de
qualité, référencé sur les annuaires, sur les blogs et tout autre site
sérieux en relation avec votre sujet. Votre site n'est peut être pas le
mieux classer sur la recherche "genealogie" parce que ce n'est pas un site
de généalogie mais un site de généalogie des français d'amérique !
Pourquoi voudriez-vous être le premier sur "genealogie" ou "genealogie
france" cela n'a pas de sens ! Vous verriez arriver des hordes de
visiteurs qui se fichent complètement des français d'amérique ! Vous
sortez en 2ème sur la requete "genealogie france amerique" ! Je crois
qu'on peut difficilement faire mieux !Mon premier intérêt est d'aider à trouver des données outremer, donc
à permettre aux chercheurs en France de tomber par hasard sur mes
données, puis parce que cela les intéresse, de les inciter à
débloquer un des 10 000 dossiers (en fait, on estime qu'il y aurait 30
000 immigrants français venus au Québec avant 1850, pratiquement tous
avant 1765).
Je ne pense pas que le hasard vous sera d'un grand secours.... Mieux
vaudrait solliciter les généalogiste à débloquer ces dossiers en
ayant une attitude proactive.
Si j'aide le visiteur à trouver mon site avec ces variations destinées
uniquement à la recherche, mais pas aux visiteurs (puisqu'on ne voit
pas les META d'une page), et que la liste des variations est très
longue (j'ai plus de 60 variations pour Beauregard), est-ce que le
moteur ne va pas me déréférencer parce que le contenu n'est pas le
même pour le robot et pour le visiteur humain?
D'abord les moteurs ne se fient plus aux META depuis bien longtemps.
Ensuite une grande liste de META peut même pénaliser le score de la page
car susceptible d'être une sorte de spam. Si vous voulez attirer des gens
sur les variations faites des pages spécifiques dédiées à ce thème :
les variations seront visibles et des robots et des visiteurs, et les
pages seront correctement indexer comme variation des patronymes X, Y, Z...
vous pouvez générer la page dans les deux langues l'une au dessus de
l'autre... Si elle ne sont pas trop grosse, le robot indexera le tout.
Bien sûr dans ce cas, omettez l'attribut lang de la page.
Mais du point de vue ergonomique, c'est à éviter quand un visiteur
arrive. En d'autres mots, il ne doit pas voir le site en plusieurs
langues. Les Américains ignorant le plus souvent l'existence des
autres langues ne spécifient que rarement la langue du navigateur, ce
qui n'aide pas non plus.
Placer la version dans un div que vous n'afficherez pas ! Avec en plus
un petit lien sur un JavaScript qui inversera l'affichage des div et
vous avez un effet très web 2.0 des plus merveilleux ;-)
Hum, je ne savais pas que l'on pouvait le faire...
On peut faire beaucoup de chose... et si vous me permettez une critique de
votre site : il fait vieux, et il aurait beaucoup plus à gagner en étant
relooké ésthétiquement et ergonomiquement, plus qu'a vouloir à tout
pris être en tête du classement Google.
Je vois que je ne suis pas encore sorti de l'auberge ! Avant de me
lancer dans la nouvelle version, je veux avoir un bon aperçu de tout ce
que cela implique en bien ou en mal. Et puis, j'ai d'autres projets qui
pourraient suivre et pour lesquels je ne pourrais pas utiliser
l'indexation externe parce qu'il y aurait trop de données.
Si vous voulez mon avis, vous devriez remettre le projet à plat :
réfléchir à ses objectifs (commerciaux, public visé, etc...) et
seulement ensuite vous attaquer à sa refonte.
N'hésitez pas à me contacter en privé si vous souhaitez prolonger cette
discussion.