Je reviens du site d'Arnaud Frich, et j'aimerais que vous confirmiez ce
que je crois avoir compris au sujet du gamma (qu'on prend égal à 2.2).
L'oeil étant plus sensible aux écarts de luminosité dans les basses
lumières que dans les hautes, on peut modéliser sa réponse comme une
courbe logarithmique (y = x^(-1.2)).
Ainsi, si on envoie à l'oeil un signal linéaire, celui-ci le déforme, et
un gris moyen sera perçu plus clair que ce qu'il est en réalité.
Pour compenser cela, on applique à l'écran une correction gamma
exponentielle (y = x^(+2.2)), qui est une fonction réciproque de la
réponse du système oculaire. De cette manière, si on envoie un signal
linéaire au couple périphérique + oeil (y = x^(-1.2) * x^(2.2) = x), on
perçoit une réponse linéaire.
Des infos sur la correction gamma : http://fr.wikipedia.org/wiki/Correction_gamma
J'ai rapidement donné un coup de roulette à ma souris, et je suis pile-poil tombé sur LA phrase qui répondait à ma question.
Merci. :)
Charles VASSALLO
Oodini wrote:
Hello,
Je reviens du site d'Arnaud Frich, et j'aimerais que vous confirmiez ce que je crois avoir compris au sujet du gamma (qu'on prend égal à 2.2).
L'oeil étant plus sensible aux écarts de luminosité dans les basses lumières que dans les hautes, on peut modéliser sa réponse comme une courbe logarithmique (y = x^(-1.2)).
Ainsi, si on envoie à l'oeil un signal linéaire, celui-ci le déforme, et un gris moyen sera perçu plus clair que ce qu'il est en réalité.
Allez hop, tout de suite une formule... Si tu commençais par définir ce que sont les x et les y, qu'on sache de quoi on parle ? Et puis, en passant, attention à ne pas confondre loi logarithmique et loi puissance...
Regarde le document suivant, qui émane d'un site universitaire : http://www.ecse.rpi.edu/schubert/Light-Emitting-Diodes-dot-org/Sample-Chapter.pdf tu y trouveras l'affirmation suivante « Standard CIE photometry assumes human vision to be LINEAR within the photopic regime» (c'est moi qui souligne) Et toc ! Bon, chipotons maintenant (au sens français, hein, JCG) : cette note beaucoup plus savante que le site de Frich ne définit pas non plus ce qu'on mesure avec le «human vision» quand on fait varier la puissance de l'éclairage. De quoi on cause, je vous dis...
Alors, linéaire, gamma ou quoi ? Sur le web, on trouve beaucoup de références sur la sensibilité spectrale de l'oeil (dépendance en lambda) mais fort peu sur la sensibilité en puissance. On devrait aboutir à une introduction de la luminance L au sens des composantes LAB, mais je n'ai pas trouvé jusqu'ici de référence idoine
Pour compenser cela, on applique à l'écran une correction gamma exponentielle (y = x^(+2.2)), qui est une fonction réciproque de la réponse du système oculaire. De cette manière, si on envoie un signal linéaire au couple périphérique + oeil (y = x^(-1.2) * x^(2.2) = x), on perçoit une réponse linéaire.
J'ai bon ?
Non. Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit aux affirmations de la CIE. Point barre.
Charles
Oodini wrote:
Hello,
Je reviens du site d'Arnaud Frich, et j'aimerais que vous confirmiez ce
que je crois avoir compris au sujet du gamma (qu'on prend égal à 2.2).
L'oeil étant plus sensible aux écarts de luminosité dans les basses
lumières que dans les hautes, on peut modéliser sa réponse comme une
courbe logarithmique (y = x^(-1.2)).
Ainsi, si on envoie à l'oeil un signal linéaire, celui-ci le déforme, et
un gris moyen sera perçu plus clair que ce qu'il est en réalité.
Allez hop, tout de suite une formule... Si tu commençais par définir ce
que sont les x et les y, qu'on sache de quoi on parle ? Et puis, en
passant, attention à ne pas confondre loi logarithmique et loi puissance...
Regarde le document suivant, qui émane d'un site universitaire :
http://www.ecse.rpi.edu/schubert/Light-Emitting-Diodes-dot-org/Sample-Chapter.pdf
tu y trouveras l'affirmation suivante
« Standard CIE photometry assumes human vision to be LINEAR
within the photopic regime»
(c'est moi qui souligne) Et toc ! Bon, chipotons maintenant (au sens
français, hein, JCG) : cette note beaucoup plus savante que le site de
Frich ne définit pas non plus ce qu'on mesure avec le «human vision»
quand on fait varier la puissance de l'éclairage.
De quoi on cause, je vous dis...
Alors, linéaire, gamma ou quoi ?
Sur le web, on trouve beaucoup de références sur la sensibilité
spectrale de l'oeil (dépendance en lambda) mais fort peu sur la
sensibilité en puissance. On devrait aboutir à une introduction de la
luminance L au sens des composantes LAB, mais je n'ai pas trouvé
jusqu'ici de référence idoine
Pour compenser cela, on applique à l'écran une correction gamma
exponentielle (y = x^(+2.2)), qui est une fonction réciproque de la
réponse du système oculaire. De cette manière, si on envoie un signal
linéaire au couple périphérique + oeil (y = x^(-1.2) * x^(2.2) = x), on
perçoit une réponse linéaire.
J'ai bon ?
Non.
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer
quelque chose correspondant à la luminosité de la scène réelle, c.à.d.
des watts proportionnels au tristimulus Y, si on croit aux affirmations
de la CIE.
Point barre.
Je reviens du site d'Arnaud Frich, et j'aimerais que vous confirmiez ce que je crois avoir compris au sujet du gamma (qu'on prend égal à 2.2).
L'oeil étant plus sensible aux écarts de luminosité dans les basses lumières que dans les hautes, on peut modéliser sa réponse comme une courbe logarithmique (y = x^(-1.2)).
Ainsi, si on envoie à l'oeil un signal linéaire, celui-ci le déforme, et un gris moyen sera perçu plus clair que ce qu'il est en réalité.
Allez hop, tout de suite une formule... Si tu commençais par définir ce que sont les x et les y, qu'on sache de quoi on parle ? Et puis, en passant, attention à ne pas confondre loi logarithmique et loi puissance...
Regarde le document suivant, qui émane d'un site universitaire : http://www.ecse.rpi.edu/schubert/Light-Emitting-Diodes-dot-org/Sample-Chapter.pdf tu y trouveras l'affirmation suivante « Standard CIE photometry assumes human vision to be LINEAR within the photopic regime» (c'est moi qui souligne) Et toc ! Bon, chipotons maintenant (au sens français, hein, JCG) : cette note beaucoup plus savante que le site de Frich ne définit pas non plus ce qu'on mesure avec le «human vision» quand on fait varier la puissance de l'éclairage. De quoi on cause, je vous dis...
Alors, linéaire, gamma ou quoi ? Sur le web, on trouve beaucoup de références sur la sensibilité spectrale de l'oeil (dépendance en lambda) mais fort peu sur la sensibilité en puissance. On devrait aboutir à une introduction de la luminance L au sens des composantes LAB, mais je n'ai pas trouvé jusqu'ici de référence idoine
Pour compenser cela, on applique à l'écran une correction gamma exponentielle (y = x^(+2.2)), qui est une fonction réciproque de la réponse du système oculaire. De cette manière, si on envoie un signal linéaire au couple périphérique + oeil (y = x^(-1.2) * x^(2.2) = x), on perçoit une réponse linéaire.
J'ai bon ?
Non. Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit aux affirmations de la CIE. Point barre.
Charles
Sansame
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit aux affirmations de la CIE.
Exactement. Autrement dit, en faisant l'hypothèse que les courbes de réponse de tous les composants d'une chaîne graphique sont de la forme "courbe gamma", la courbe de réponse de l'ensemble de la chaîne graphique doit être théoriquement égale à 1 (enfin, pas tout à fait, car si on regarde l'image dans l'ombre, genre salle de cinéma, il faut un gamma un peu plus grand pour satisfaire le spectateur). Pour un poste de travail placé dans un environnement pas trop sombre, il faut un gamma global d'environ 1,1.
Pour que le gamma global soit de 1,1 il faut que le produit de tous les gammas des maillons de la chaîne soit égal à 1,1. Comme le gamma natif d'un écran est généralement de 2,5, il faut que dans la chaîne un appareil ait un gamma d'à peu près 0,45. Parfait, c'est justement celui qui est imposé par l'espace colorimétrique de l'APN (sRGB ou Adobe RGB, gamma = 1/2,2).
Le truc étonnant et même franchement un peu magique, c'est que la courbe de réponse de l'oeuil (sensibilité à la luminance) est à peu près l'inverse de celle de l'écran (donc 1/2,5). C'est donc dans les zones ou l'écran est "imprécis" que l'oeuil l'est aussi. Voila pourquoi la codification sur 8 bits à l'entrée d'un écran est suffisante. Grace au gamma de l'écran et à celui de l'oeil (son inverse) les malheureux 8 bits vont codifier des couleurs trés proches les unes des autres dans les zones ou l'oeil sait les distinguer, et des couleurs plus éloignées les unes des autres dans les zones ou l'oeil ne sait pas faire mieux.
-- Sansame
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer
quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des
watts proportionnels au tristimulus Y, si on croit aux affirmations de la
CIE.
Exactement. Autrement dit, en faisant l'hypothèse que les courbes de
réponse de tous les composants d'une chaîne graphique sont de la forme
"courbe gamma", la courbe de réponse de l'ensemble de la chaîne
graphique doit être théoriquement égale à 1 (enfin, pas tout à fait,
car si on regarde l'image dans l'ombre, genre salle de cinéma, il faut
un gamma un peu plus grand pour satisfaire le spectateur). Pour un
poste de travail placé dans un environnement pas trop sombre, il faut
un gamma global d'environ 1,1.
Pour que le gamma global soit de 1,1 il faut que le produit de tous les
gammas des maillons de la chaîne soit égal à 1,1. Comme le gamma natif
d'un écran est généralement de 2,5, il faut que dans la chaîne un
appareil ait un gamma d'à peu près 0,45. Parfait, c'est justement celui
qui est imposé par l'espace colorimétrique de l'APN (sRGB ou Adobe RGB,
gamma = 1/2,2).
Le truc étonnant et même franchement un peu magique, c'est que la
courbe de réponse de l'oeuil (sensibilité à la luminance) est à peu
près l'inverse de celle de l'écran (donc 1/2,5). C'est donc dans les
zones ou l'écran est "imprécis" que l'oeuil l'est aussi. Voila pourquoi
la codification sur 8 bits à l'entrée d'un écran est suffisante. Grace
au gamma de l'écran et à celui de l'oeil (son inverse) les malheureux 8
bits vont codifier des couleurs trés proches les unes des autres dans
les zones ou l'oeil sait les distinguer, et des couleurs plus éloignées
les unes des autres dans les zones ou l'oeil ne sait pas faire mieux.
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit aux affirmations de la CIE.
Exactement. Autrement dit, en faisant l'hypothèse que les courbes de réponse de tous les composants d'une chaîne graphique sont de la forme "courbe gamma", la courbe de réponse de l'ensemble de la chaîne graphique doit être théoriquement égale à 1 (enfin, pas tout à fait, car si on regarde l'image dans l'ombre, genre salle de cinéma, il faut un gamma un peu plus grand pour satisfaire le spectateur). Pour un poste de travail placé dans un environnement pas trop sombre, il faut un gamma global d'environ 1,1.
Pour que le gamma global soit de 1,1 il faut que le produit de tous les gammas des maillons de la chaîne soit égal à 1,1. Comme le gamma natif d'un écran est généralement de 2,5, il faut que dans la chaîne un appareil ait un gamma d'à peu près 0,45. Parfait, c'est justement celui qui est imposé par l'espace colorimétrique de l'APN (sRGB ou Adobe RGB, gamma = 1/2,2).
Le truc étonnant et même franchement un peu magique, c'est que la courbe de réponse de l'oeuil (sensibilité à la luminance) est à peu près l'inverse de celle de l'écran (donc 1/2,5). C'est donc dans les zones ou l'écran est "imprécis" que l'oeuil l'est aussi. Voila pourquoi la codification sur 8 bits à l'entrée d'un écran est suffisante. Grace au gamma de l'écran et à celui de l'oeil (son inverse) les malheureux 8 bits vont codifier des couleurs trés proches les unes des autres dans les zones ou l'oeil sait les distinguer, et des couleurs plus éloignées les unes des autres dans les zones ou l'oeil ne sait pas faire mieux.
-- Sansame
Charles VASSALLO
Sansame wrote:
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit aux affirmations de la CIE.
Exactement. Autrement dit, en faisant l'hypothèse que les courbes de réponse de tous les composants d'une chaîne graphique sont de la forme "courbe gamma", la courbe de réponse de l'ensemble de la chaîne graphique doit être théoriquement égale à 1 (enfin, pas tout à fait, car si on regarde l'image dans l'ombre, genre salle de cinéma, il faut un gamma un peu plus grand pour satisfaire le spectateur). Pour un poste de travail placé dans un environnement pas trop sombre, il faut un gamma global d'environ 1,1.
Pour que le gamma global soit de 1,1 il faut que le produit de tous les gammas des maillons de la chaîne soit égal à 1,1. Comme le gamma natif d'un écran est généralement de 2,5, il faut que dans la chaîne un appareil ait un gamma d'à peu près 0,45. Parfait, c'est justement celui qui est imposé par l'espace colorimétrique de l'APN (sRGB ou Adobe RGB, gamma = 1/2,2).
C'est l'explication historique donnée par Poynton dans sa FAQ : à mon avis, simple coup de chance, antérieur à l'arrivée de la gestion de la couleur. Apple a commencé avec un gamma de 1,8 avec des résultats apparemment honorables, et même, gestion de la couleur aidant, exactement les mêmes résultats : ce n'est pas comme ça qu'on doit justifier le 2,2 dans les profils. Et avec un écran plat, a-t-on toujours un gamma écran de 2,5 ? Et que vient faire dans l'histoire le gamma approximatif de la perception par l'oeil, toujours dans ces mêmes eaux ? Bref, à tout mélanger on ne comprend rien.
Je préfère suivre la présentation de Lindbloom et justifier le 2.2 par un raisonnement sur la discrétisation en 8-bits, via la minimisation de l'écart deltaE entre deux niveaux successifs. Ce choix n'a rien à voir avec la plomberie vidéo, à charge pour elle d'amener correctement à l'écran cette composante Y et c'est un problème hard dans lequel je ne veux pas entrer :-))
Charles
Sansame wrote:
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit
envoyer quelque chose correspondant à la luminosité de la scène
réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit
aux affirmations de la CIE.
Exactement. Autrement dit, en faisant l'hypothèse que les courbes de
réponse de tous les composants d'une chaîne graphique sont de la forme
"courbe gamma", la courbe de réponse de l'ensemble de la chaîne
graphique doit être théoriquement égale à 1 (enfin, pas tout à fait, car
si on regarde l'image dans l'ombre, genre salle de cinéma, il faut un
gamma un peu plus grand pour satisfaire le spectateur). Pour un poste de
travail placé dans un environnement pas trop sombre, il faut un gamma
global d'environ 1,1.
Pour que le gamma global soit de 1,1 il faut que le produit de tous les
gammas des maillons de la chaîne soit égal à 1,1. Comme le gamma natif
d'un écran est généralement de 2,5, il faut que dans la chaîne un
appareil ait un gamma d'à peu près 0,45. Parfait, c'est justement celui
qui est imposé par l'espace colorimétrique de l'APN (sRGB ou Adobe RGB,
gamma = 1/2,2).
C'est l'explication historique donnée par Poynton dans sa FAQ : à mon
avis, simple coup de chance, antérieur à l'arrivée de la gestion de la
couleur. Apple a commencé avec un gamma de 1,8 avec des résultats
apparemment honorables, et même, gestion de la couleur aidant,
exactement les mêmes résultats : ce n'est pas comme ça qu'on doit
justifier le 2,2 dans les profils. Et avec un écran plat, a-t-on
toujours un gamma écran de 2,5 ? Et que vient faire dans l'histoire le
gamma approximatif de la perception par l'oeil, toujours dans ces mêmes
eaux ? Bref, à tout mélanger on ne comprend rien.
Je préfère suivre la présentation de Lindbloom et justifier le 2.2 par
un raisonnement sur la discrétisation en 8-bits, via la minimisation de
l'écart deltaE entre deux niveaux successifs. Ce choix n'a rien à voir
avec la plomberie vidéo, à charge pour elle d'amener correctement à
l'écran cette composante Y et c'est un problème hard dans lequel je ne
veux pas entrer :-))
Il ne s'agit pas de corriger quoi que ce soit; le moniteur doit envoyer quelque chose correspondant à la luminosité de la scène réelle, c.à.d. des watts proportionnels au tristimulus Y, si on croit aux affirmations de la CIE.
Exactement. Autrement dit, en faisant l'hypothèse que les courbes de réponse de tous les composants d'une chaîne graphique sont de la forme "courbe gamma", la courbe de réponse de l'ensemble de la chaîne graphique doit être théoriquement égale à 1 (enfin, pas tout à fait, car si on regarde l'image dans l'ombre, genre salle de cinéma, il faut un gamma un peu plus grand pour satisfaire le spectateur). Pour un poste de travail placé dans un environnement pas trop sombre, il faut un gamma global d'environ 1,1.
Pour que le gamma global soit de 1,1 il faut que le produit de tous les gammas des maillons de la chaîne soit égal à 1,1. Comme le gamma natif d'un écran est généralement de 2,5, il faut que dans la chaîne un appareil ait un gamma d'à peu près 0,45. Parfait, c'est justement celui qui est imposé par l'espace colorimétrique de l'APN (sRGB ou Adobe RGB, gamma = 1/2,2).
C'est l'explication historique donnée par Poynton dans sa FAQ : à mon avis, simple coup de chance, antérieur à l'arrivée de la gestion de la couleur. Apple a commencé avec un gamma de 1,8 avec des résultats apparemment honorables, et même, gestion de la couleur aidant, exactement les mêmes résultats : ce n'est pas comme ça qu'on doit justifier le 2,2 dans les profils. Et avec un écran plat, a-t-on toujours un gamma écran de 2,5 ? Et que vient faire dans l'histoire le gamma approximatif de la perception par l'oeil, toujours dans ces mêmes eaux ? Bref, à tout mélanger on ne comprend rien.
Je préfère suivre la présentation de Lindbloom et justifier le 2.2 par un raisonnement sur la discrétisation en 8-bits, via la minimisation de l'écart deltaE entre deux niveaux successifs. Ce choix n'a rien à voir avec la plomberie vidéo, à charge pour elle d'amener correctement à l'écran cette composante Y et c'est un problème hard dans lequel je ne veux pas entrer :-))
Charles
Sansame
C'est l'explication historique donnée par Poynton dans sa FAQ : à mon avis, simple coup de chance, antérieur à l'arrivée de la gestion de la couleur.
Poynton et Lindbloom ont raison tous les deux et je ne suis pas certaine que la chance joue un rôle déterminant dans leurs travaux. Le premier a raison de dire que les corrections de gamma infligées par les logiciels avaient pour objectif de compenser les gammas "naturels" produits par les technologies d'affichage ou d'impression et d'aboutir à un gamma global de chaîne d'environ 1. La fameuse spécialité Apple d'un gamma de 1,8 est due à une correction logicielle faites par les Macs pour s'adapter à je ne sais plus quel modèle d'imprimante. Le gamma de o,45 des espaces de travail (sRGB) est fait pour avoir de jolies images sur un écran CRT, ce qui est l'exact équivalent de la recherche d'un gamma global de 1,1...etc...etc
Et avec un écran plat, a-t-on toujours un gamma écran de 2,5 ?
Les écrans plats de TV reproduisent le gamma historique des tubes cathodiques (destinés à produire un gamma global de 1,2 à 1,5 dans un salon placé dans la pénombre). Les écrans plats pour postes de travail itou.
que vient faire dans l'histoire le gamma approximatif de la perception par l'oeil, toujours dans ces mêmes eaux ? Bref, à tout mélanger on ne comprend rien. Je préfère suivre la présentation de Lindbloom et justifier le 2.2 par un raisonnement sur la discrétisation en 8-bits, via la minimisation de l'écart deltaE entre deux niveaux successifs.
C'est précisément parceque les gammas de l'écran et de la vision sont à peu près inverses l'un de l'autre qu'on peut "économiser" les bits et se contenter de 8 pour mesurer les valeurs RGB ou les voltages à l'entrée d'un écran CRT. C'est dans les niveaux "mal distingués" par la vision que deux nombres successifs représentent des valeur relativement éloignées, ce qui tombe bien, et c'est dans les niveaux "bien distingués" par la vision, que deux nombres successifs représentent des valeurs proches, ce qui tombe encore mieux.
C'est cette "optimisation" naturelle de l'usage des 8 bits que montre Lindbloom. Il utilise à juste titre la mesure DeltaE dans l'espace CIELAB, parceque cet espace représente à peu près les écarts de couleurs tels qu'ils sont perçus. Et si cet espace est "à peu pres perceptuel" c'est tout particulièrement parcequ'il élève à la puissance 1/3 la luminance Y pour mieux modéliser la courbe de réponse (c'est à dire le gamma) de la vision.
-- Sansame
C'est l'explication historique donnée par Poynton dans sa FAQ : à mon avis,
simple coup de chance, antérieur à l'arrivée de la gestion de la couleur.
Poynton et Lindbloom ont raison tous les deux et je ne suis pas
certaine que la chance joue un rôle déterminant dans leurs travaux. Le
premier a raison de dire que les corrections de gamma infligées par les
logiciels avaient pour objectif de compenser les gammas "naturels"
produits par les technologies d'affichage ou d'impression et d'aboutir
à un gamma global de chaîne d'environ 1. La fameuse spécialité Apple
d'un gamma de 1,8 est due à une correction logicielle faites par les
Macs pour s'adapter à je ne sais plus quel modèle d'imprimante. Le
gamma de o,45 des espaces de travail (sRGB) est fait pour avoir de
jolies images sur un écran CRT, ce qui est l'exact équivalent de la
recherche d'un gamma global de 1,1...etc...etc
Et avec un écran plat, a-t-on toujours un gamma écran de 2,5 ?
Les écrans plats de TV reproduisent le gamma historique des tubes
cathodiques (destinés à produire un gamma global de 1,2 à 1,5 dans un
salon placé dans la pénombre). Les écrans plats pour postes de travail
itou.
que vient faire dans l'histoire le gamma approximatif de la perception par
l'oeil, toujours dans ces mêmes eaux ? Bref, à tout mélanger on ne comprend
rien.
Je préfère suivre la présentation de Lindbloom et justifier le 2.2 par un
raisonnement sur la discrétisation en 8-bits, via la minimisation de l'écart
deltaE entre deux niveaux successifs.
C'est précisément parceque les gammas de l'écran et de la vision sont à
peu près inverses l'un de l'autre qu'on peut "économiser" les bits et
se contenter de 8 pour mesurer les valeurs RGB ou les voltages à
l'entrée d'un écran CRT. C'est dans les niveaux "mal distingués" par la
vision que deux nombres successifs représentent des valeur relativement
éloignées, ce qui tombe bien, et c'est dans les niveaux "bien
distingués" par la vision, que deux nombres successifs représentent des
valeurs proches, ce qui tombe encore mieux.
C'est cette "optimisation" naturelle de l'usage des 8 bits que montre
Lindbloom. Il utilise à juste titre la mesure DeltaE dans l'espace
CIELAB, parceque cet espace représente à peu près les écarts de
couleurs tels qu'ils sont perçus. Et si cet espace est "à peu pres
perceptuel" c'est tout particulièrement parcequ'il élève à la puissance
1/3 la luminance Y pour mieux modéliser la courbe de réponse (c'est à
dire le gamma) de la vision.
C'est l'explication historique donnée par Poynton dans sa FAQ : à mon avis, simple coup de chance, antérieur à l'arrivée de la gestion de la couleur.
Poynton et Lindbloom ont raison tous les deux et je ne suis pas certaine que la chance joue un rôle déterminant dans leurs travaux. Le premier a raison de dire que les corrections de gamma infligées par les logiciels avaient pour objectif de compenser les gammas "naturels" produits par les technologies d'affichage ou d'impression et d'aboutir à un gamma global de chaîne d'environ 1. La fameuse spécialité Apple d'un gamma de 1,8 est due à une correction logicielle faites par les Macs pour s'adapter à je ne sais plus quel modèle d'imprimante. Le gamma de o,45 des espaces de travail (sRGB) est fait pour avoir de jolies images sur un écran CRT, ce qui est l'exact équivalent de la recherche d'un gamma global de 1,1...etc...etc
Et avec un écran plat, a-t-on toujours un gamma écran de 2,5 ?
Les écrans plats de TV reproduisent le gamma historique des tubes cathodiques (destinés à produire un gamma global de 1,2 à 1,5 dans un salon placé dans la pénombre). Les écrans plats pour postes de travail itou.
que vient faire dans l'histoire le gamma approximatif de la perception par l'oeil, toujours dans ces mêmes eaux ? Bref, à tout mélanger on ne comprend rien. Je préfère suivre la présentation de Lindbloom et justifier le 2.2 par un raisonnement sur la discrétisation en 8-bits, via la minimisation de l'écart deltaE entre deux niveaux successifs.
C'est précisément parceque les gammas de l'écran et de la vision sont à peu près inverses l'un de l'autre qu'on peut "économiser" les bits et se contenter de 8 pour mesurer les valeurs RGB ou les voltages à l'entrée d'un écran CRT. C'est dans les niveaux "mal distingués" par la vision que deux nombres successifs représentent des valeur relativement éloignées, ce qui tombe bien, et c'est dans les niveaux "bien distingués" par la vision, que deux nombres successifs représentent des valeurs proches, ce qui tombe encore mieux.
C'est cette "optimisation" naturelle de l'usage des 8 bits que montre Lindbloom. Il utilise à juste titre la mesure DeltaE dans l'espace CIELAB, parceque cet espace représente à peu près les écarts de couleurs tels qu'ils sont perçus. Et si cet espace est "à peu pres perceptuel" c'est tout particulièrement parcequ'il élève à la puissance 1/3 la luminance Y pour mieux modéliser la courbe de réponse (c'est à dire le gamma) de la vision.