Je viens de voir cet article :
http://solutions.journaldunet.com/0512/051209_referencement-caracteres-speciaux.shtml
Et son contenu me laisse pantois. Autant je conçois qu'il puisse y avoir
des prb avec des % quelques choses dans les URL (or caractères compris
dans us-ascii quoi), autant dans le contenu je reste très dubitatif. Par
ailleurs, il est question d'un "codage CML" dont je n'ai jamais entendu
parler.
Quelqu'un aurait des idées ?
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Ludovic LE MOAL
Pierre Goiffon nous a schtroumpfé :
Je viens de voir cet article : http://solutions.journaldunet.com/0512/051209_referencement-caracteres- speciaux.shtml
Et son contenu me laisse pantois. Autant je conçois qu'il puisse y avoir des prb avec des % quelques choses dans les URL (or caractères compris dans us-ascii quoi), autant dans le contenu je reste très dubitatif.
Idem. L'article n'est pas très très clair. En fait, je pense que l'article ne s'appliquait qu'au nommage des fichiers. Parce que bon, si l'encodage est conforme à ce qui est déclaré, je ne vois pas pourquoi un robot ne se débrouillerait pas, à l'heure où les navigateurs prennent en charge des tonnes de jeu de caractère plus ou moins exotiques.
Par ailleurs, il est question d'un "codage CML" dont je n'ai jamais entendu parler. Quelqu'un aurait des idées ?
Aucune idée. J'ai fait une recherche sur ce terme ce qui n'a rien ramené. Je sais pas mais j'ai quand même des doutes quand je lis cette phrase : « Ceci fut tout du moins vrai lorsque le codage était hétérogène, avec plusieurs normes, comme l'ISO 852 ou l'UTF8 ». J'ai l'impression en lisant que ça date de la préhistoire de l'informatique alors qu'UTF-8 est relativement récent (1995 ou un truc dans le genre).
Ou encore, alors que le « codage CML » est présenté comme la solution miracle en matière d'encodage, on lit « Le CML a cependant quelques limites, en particulier avec les alphabets jugés "exotiques". Le chinois, le japonais, le russe et l'hébreu ne sont pas toujours pris en compte comme souhaité. » Bon, dans ces cas-là, autant dire que ça ne sert pas à grand chose... -- Ludovic LE MOAL
Pierre Goiffon nous a schtroumpfé :
Je viens de voir cet article :
http://solutions.journaldunet.com/0512/051209_referencement-caracteres-
speciaux.shtml
Et son contenu me laisse pantois. Autant je conçois qu'il puisse y
avoir des prb avec des % quelques choses dans les URL (or caractères
compris dans us-ascii quoi), autant dans le contenu je reste très
dubitatif.
Idem. L'article n'est pas très très clair. En fait, je pense que
l'article ne s'appliquait qu'au nommage des fichiers. Parce que bon, si
l'encodage est conforme à ce qui est déclaré, je ne vois pas pourquoi un
robot ne se débrouillerait pas, à l'heure où les navigateurs prennent en
charge des tonnes de jeu de caractère plus ou moins exotiques.
Par ailleurs, il est question d'un "codage CML" dont je n'ai jamais
entendu parler. Quelqu'un aurait des idées ?
Aucune idée. J'ai fait une recherche sur ce terme ce qui n'a rien ramené.
Je sais pas mais j'ai quand même des doutes quand je lis cette phrase :
« Ceci fut tout du moins vrai lorsque le codage était hétérogène, avec
plusieurs normes, comme l'ISO 852 ou l'UTF8 ». J'ai l'impression en
lisant que ça date de la préhistoire de l'informatique alors qu'UTF-8 est
relativement récent (1995 ou un truc dans le genre).
Ou encore, alors que le « codage CML » est présenté comme la solution
miracle en matière d'encodage, on lit « Le CML a cependant quelques
limites, en particulier avec les alphabets jugés "exotiques". Le chinois,
le japonais, le russe et l'hébreu ne sont pas toujours pris en compte
comme souhaité. » Bon, dans ces cas-là, autant dire que ça ne sert pas à
grand chose...
--
Ludovic LE MOAL
Je viens de voir cet article : http://solutions.journaldunet.com/0512/051209_referencement-caracteres- speciaux.shtml
Et son contenu me laisse pantois. Autant je conçois qu'il puisse y avoir des prb avec des % quelques choses dans les URL (or caractères compris dans us-ascii quoi), autant dans le contenu je reste très dubitatif.
Idem. L'article n'est pas très très clair. En fait, je pense que l'article ne s'appliquait qu'au nommage des fichiers. Parce que bon, si l'encodage est conforme à ce qui est déclaré, je ne vois pas pourquoi un robot ne se débrouillerait pas, à l'heure où les navigateurs prennent en charge des tonnes de jeu de caractère plus ou moins exotiques.
Par ailleurs, il est question d'un "codage CML" dont je n'ai jamais entendu parler. Quelqu'un aurait des idées ?
Aucune idée. J'ai fait une recherche sur ce terme ce qui n'a rien ramené. Je sais pas mais j'ai quand même des doutes quand je lis cette phrase : « Ceci fut tout du moins vrai lorsque le codage était hétérogène, avec plusieurs normes, comme l'ISO 852 ou l'UTF8 ». J'ai l'impression en lisant que ça date de la préhistoire de l'informatique alors qu'UTF-8 est relativement récent (1995 ou un truc dans le genre).
Ou encore, alors que le « codage CML » est présenté comme la solution miracle en matière d'encodage, on lit « Le CML a cependant quelques limites, en particulier avec les alphabets jugés "exotiques". Le chinois, le japonais, le russe et l'hébreu ne sont pas toujours pris en compte comme souhaité. » Bon, dans ces cas-là, autant dire que ça ne sert pas à grand chose... -- Ludovic LE MOAL