J'ai essayé photomatix pour le hdr.
J'ai fait des photos en activant le bracketing puis les soumettant à
photomatix et les résultats sont vraiment bons.
Un ami m'a dit (en coup de vent...d'où la question) qu'il n'était pas
nécessaire de faire du bracketing mais qu'on pouvait faire une copie de
la photo raw en modifiant l'exposition de + 1IL et - 1IL, puis de
soumettre les 3 photos à photomatix.
Est-ce exact; si oui quel est le programme qui permet de le faire, en
étant certain qu'on fait bien les copies avec la bonne modification
d'exposition ?
J'ai par ex regardé dans raw therapee mais ne vois pas comment faire
dans la rubrique exposition.
Merci pour vos éclaircissements.
"Sylvain SF" a écrit dans le message de news: 49404cfb$0$932$
je disais cela. tu rends les noirs gris beurk et crame le reste. ce qui est différent d'exposer à +5IL car là tu crames pareil les blancs mais élargie (différencie, ...) les noirs.
ok on est d'accord sur ce ça mais pourquoi ça rend les noirs gris beurk ?
juste à cause de la quantification trop faible.
prenons une image n&b sous ex à mort, tous les pixels sont regroupés dans 5% de la pleine echelle de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit, tu as une image où tous les pixels sont entre 0 et 10, si tu multiplies par 25 pour avoir une image pleine echelle, ça va être immonde car tu n'auras que 10 nuances d'intensité....
mais tu si quantifies sur 16bit la même image, les pixels seront entre 0 et 2621 !
alors si tu multiplies par 25 pour obtenir une image pleine echelle comme tout à l'heure, tu auras une belle image car tu as 2621 nuances...
largement de quoi faire un jpeg parfait...
c'est pour ça que je dis que sur le plan théorique, exposer correctement et jouer du curseur brightness, c'est pareil... plus la quantification est grande plus la pratique rejoint la théorie...
"Sylvain SF" <sylvain@boiteaspam.info> a écrit dans le message de news:
49404cfb$0$932$ba4acef3@news.orange.fr...
je disais cela. tu rends les noirs gris beurk et crame le reste.
ce qui est différent d'exposer à +5IL car là tu crames pareil
les blancs mais élargie (différencie, ...) les noirs.
ok on est d'accord sur ce ça
mais pourquoi ça rend les noirs gris beurk ?
juste à cause de la quantification trop faible.
prenons une image n&b sous ex à mort, tous
les pixels sont regroupés dans 5% de la pleine echelle
de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
tu as une image où tous les
pixels sont entre 0 et 10, si tu multiplies
par 25 pour avoir une image pleine echelle,
ça va être immonde car tu n'auras que 10 nuances
d'intensité....
mais tu si quantifies sur 16bit la même image,
les pixels seront entre 0 et 2621 !
alors si tu multiplies par 25 pour obtenir une image pleine echelle
comme tout à l'heure, tu auras une belle image car tu as 2621 nuances...
largement de quoi faire un jpeg parfait...
c'est pour ça que je dis que sur le plan
théorique, exposer correctement et jouer du curseur
brightness, c'est pareil... plus la quantification est grande plus
la pratique rejoint la théorie...
"Sylvain SF" a écrit dans le message de news: 49404cfb$0$932$
je disais cela. tu rends les noirs gris beurk et crame le reste. ce qui est différent d'exposer à +5IL car là tu crames pareil les blancs mais élargie (différencie, ...) les noirs.
ok on est d'accord sur ce ça mais pourquoi ça rend les noirs gris beurk ?
juste à cause de la quantification trop faible.
prenons une image n&b sous ex à mort, tous les pixels sont regroupés dans 5% de la pleine echelle de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit, tu as une image où tous les pixels sont entre 0 et 10, si tu multiplies par 25 pour avoir une image pleine echelle, ça va être immonde car tu n'auras que 10 nuances d'intensité....
mais tu si quantifies sur 16bit la même image, les pixels seront entre 0 et 2621 !
alors si tu multiplies par 25 pour obtenir une image pleine echelle comme tout à l'heure, tu auras une belle image car tu as 2621 nuances...
largement de quoi faire un jpeg parfait...
c'est pour ça que je dis que sur le plan théorique, exposer correctement et jouer du curseur brightness, c'est pareil... plus la quantification est grande plus la pratique rejoint la théorie...
JMR
Bour-Brown wrote:
JMR a écrit ( news:ghotj8$fi6$ )
Un ami m'a dit (en coup de vent...d'où la question) qu'il n'était pas nécessaire de faire du bracketing
Pour accroître la dynamique d'une photo, c'est à dire avoir un écart de luminosité plus grand que celui d'une prise unique, il n'y a pas de mystère il *faut* avoir des prises de vue avec différentes vitesses. La vitesse lente permet d'avoir des informations fiables pour les basses lumières, la vitesse rapide permet d'avoir des détails dans les hautes lumières.
En schématisant, Photomatix va se servir de la photo du milieu comme base et va remplacer les zones mal exposées dans cette photo par celles qui l'auront bien été avec les autres prises.
mais qu'on pouvait faire une copie de la photo raw en modifiant l'exposition de + 1IL et - 1IL, puis de soumettre les 3 photos à photomatix.
On peut effectivement tromper le programme pour qu'il fasse la même chose à partir de la même photo traitée trois fois différemment, mais les défauts de la photo d'origine seront bien sûr inchangés. Cela revient à jouer des courbes et du contraste local à partir du raw d'origine, sauf que là c'est automatique et optimisé, mais ce ne sera pas à proprement parler du HDR.
Merci pour les explications; mon ami n'a donc pas tout à fait raison... Je me suis interrogé sur le fait que c'est la vitesse qu'il faut changer (et pas l'ouverture), j'imagine que c'est pour ne pas changer la profondeur de champ.
Autre question : si l'appareil n'a pas le bracketing on doit le faire soi-même; cela implique-t'il obligatoirement l'utilisation d'un pied ou, si on est soigneux quant au cadrage, le programme corrige-t'il ces minimes différences de cadrage ?
JMR
Bour-Brown wrote:
JMR a écrit
( news:ghotj8$fi6$1@aioe.org )
Un ami m'a dit (en coup de vent...d'où la question) qu'il n'était pas
nécessaire de faire du bracketing
Pour accroître la dynamique d'une photo, c'est à dire avoir un écart de
luminosité plus grand que celui d'une prise unique, il n'y a pas de
mystère il *faut* avoir des prises de vue avec différentes vitesses. La
vitesse lente permet d'avoir des informations fiables pour les basses
lumières, la vitesse rapide permet d'avoir des détails dans les hautes
lumières.
En schématisant, Photomatix va se servir de la photo du milieu comme base
et va remplacer les zones mal exposées dans cette photo par celles qui
l'auront bien été avec les autres prises.
mais qu'on pouvait faire une copie de la photo raw en modifiant
l'exposition de + 1IL et - 1IL, puis de soumettre les 3 photos à
photomatix.
On peut effectivement tromper le programme pour qu'il fasse la même chose
à partir de la même photo traitée trois fois différemment, mais les
défauts de la photo d'origine seront bien sûr inchangés. Cela revient à
jouer des courbes et du contraste local à partir du raw d'origine, sauf
que là c'est automatique et optimisé, mais ce ne sera pas à proprement
parler du HDR.
Merci pour les explications; mon ami n'a donc pas tout à fait raison...
Je me suis interrogé sur le fait que c'est la vitesse qu'il faut changer (et
pas l'ouverture), j'imagine que c'est pour ne pas changer la profondeur de
champ.
Autre question : si l'appareil n'a pas le bracketing on doit le faire
soi-même; cela implique-t'il obligatoirement l'utilisation d'un pied ou, si
on est soigneux quant au cadrage, le programme corrige-t'il ces minimes
différences de cadrage ?
Un ami m'a dit (en coup de vent...d'où la question) qu'il n'était pas nécessaire de faire du bracketing
Pour accroître la dynamique d'une photo, c'est à dire avoir un écart de luminosité plus grand que celui d'une prise unique, il n'y a pas de mystère il *faut* avoir des prises de vue avec différentes vitesses. La vitesse lente permet d'avoir des informations fiables pour les basses lumières, la vitesse rapide permet d'avoir des détails dans les hautes lumières.
En schématisant, Photomatix va se servir de la photo du milieu comme base et va remplacer les zones mal exposées dans cette photo par celles qui l'auront bien été avec les autres prises.
mais qu'on pouvait faire une copie de la photo raw en modifiant l'exposition de + 1IL et - 1IL, puis de soumettre les 3 photos à photomatix.
On peut effectivement tromper le programme pour qu'il fasse la même chose à partir de la même photo traitée trois fois différemment, mais les défauts de la photo d'origine seront bien sûr inchangés. Cela revient à jouer des courbes et du contraste local à partir du raw d'origine, sauf que là c'est automatique et optimisé, mais ce ne sera pas à proprement parler du HDR.
Merci pour les explications; mon ami n'a donc pas tout à fait raison... Je me suis interrogé sur le fait que c'est la vitesse qu'il faut changer (et pas l'ouverture), j'imagine que c'est pour ne pas changer la profondeur de champ.
Autre question : si l'appareil n'a pas le bracketing on doit le faire soi-même; cela implique-t'il obligatoirement l'utilisation d'un pied ou, si on est soigneux quant au cadrage, le programme corrige-t'il ces minimes différences de cadrage ?
JMR
sebastienmarty
JMR wrote:
Je suppose que cela revient au même si on joue sur l'ouverture.
Comme dit ailleurs, ça va faire varier la profondeur de champ.
-- [SbM] <http://sebastienmarty.free.fr> - <http://tradintosh.free.fr> <http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr> "If the French were really intelligent, they'd speak English" (W. Sheed)
JMR <jmr@nowhere.be> wrote:
Je suppose que cela revient au même si on joue sur l'ouverture.
Comme dit ailleurs, ça va faire varier la profondeur de champ.
--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
Je suppose que cela revient au même si on joue sur l'ouverture.
Comme dit ailleurs, ça va faire varier la profondeur de champ.
J'avais posté ce mail avant de réfléchir au problème de profondeur de champ...
Sylvain SF
Stephane Legras-Decussy a écrit :
ok on est d'accord sur ce ça mais pourquoi ça rend les noirs gris beurk ?
"beurk" pour faire court, ils seront mal résolus car la plage des noirs étaient très (trop) compactée dans l'original (de notre hypothèse).
juste à cause de la quantification trop faible.
oui, et AMHO elle sera bien plus faible que tu l'estimes...
prenons une image n&b sous ex à mort, tous les pixels sont regroupés dans 5% de la pleine echelle de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
quantisation.
tous les pixels sont entre 0 et 10, [...] ça va être immonde car tu n'auras que 10 nuances d'intensité....
oui.
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
les pixels seront entre 0 et 2621
oui mais non, tu extrapole linéairement sans aucune prise en compte de la sensibilité du capteur et la dynamique de sa réponse (pas sa gamme de réponse mais bien le gain en sortie selon les photons en entrée); je ne dis pas que c'est "trop osé" mais c'est une affirmation non prouvée.
dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits (un bit est formé de 2 kouilles, c'est connu).
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127 nuances bien loin de tes 2621.
c'est pour ça que je dis que sur le plan théorique, exposer correctement et jouer du curseur brightness, c'est pareil... plus la quantification est grande plus la pratique rejoint la théorie...
avec une dynamique infinie, oui, je ne connais pas de tel capteur.
Sylvain.
Stephane Legras-Decussy a écrit :
ok on est d'accord sur ce ça
mais pourquoi ça rend les noirs gris beurk ?
"beurk" pour faire court, ils seront mal résolus car
la plage des noirs étaient très (trop) compactée
dans l'original (de notre hypothèse).
juste à cause de la quantification trop faible.
oui, et AMHO elle sera bien plus faible que tu l'estimes...
prenons une image n&b sous ex à mort, tous
les pixels sont regroupés dans 5% de la pleine echelle
de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
quantisation.
tous les pixels sont entre 0 et 10, [...]
ça va être immonde car tu n'auras que 10 nuances
d'intensité....
oui.
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
les pixels seront entre 0 et 2621
oui mais non, tu extrapole linéairement sans aucune prise
en compte de la sensibilité du capteur et la dynamique de
sa réponse (pas sa gamme de réponse mais bien le gain
en sortie selon les photons en entrée); je ne dis pas
que c'est "trop osé" mais c'est une affirmation non prouvée.
dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de
gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits
(un bit est formé de 2 kouilles, c'est connu).
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127
nuances bien loin de tes 2621.
c'est pour ça que je dis que sur le plan théorique,
exposer correctement et jouer du curseur brightness,
c'est pareil... plus la quantification est grande plus
la pratique rejoint la théorie...
avec une dynamique infinie, oui, je ne connais pas de tel capteur.
ok on est d'accord sur ce ça mais pourquoi ça rend les noirs gris beurk ?
"beurk" pour faire court, ils seront mal résolus car la plage des noirs étaient très (trop) compactée dans l'original (de notre hypothèse).
juste à cause de la quantification trop faible.
oui, et AMHO elle sera bien plus faible que tu l'estimes...
prenons une image n&b sous ex à mort, tous les pixels sont regroupés dans 5% de la pleine echelle de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
quantisation.
tous les pixels sont entre 0 et 10, [...] ça va être immonde car tu n'auras que 10 nuances d'intensité....
oui.
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
les pixels seront entre 0 et 2621
oui mais non, tu extrapole linéairement sans aucune prise en compte de la sensibilité du capteur et la dynamique de sa réponse (pas sa gamme de réponse mais bien le gain en sortie selon les photons en entrée); je ne dis pas que c'est "trop osé" mais c'est une affirmation non prouvée.
dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits (un bit est formé de 2 kouilles, c'est connu).
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127 nuances bien loin de tes 2621.
c'est pour ça que je dis que sur le plan théorique, exposer correctement et jouer du curseur brightness, c'est pareil... plus la quantification est grande plus la pratique rejoint la théorie...
avec une dynamique infinie, oui, je ne connais pas de tel capteur.
Sylvain.
Bour-Brown
JMR a écrit ( news:ghpbda$84i$ )
Je suppose que cela revient au même si on joue sur l'ouverture. C'est quand même la quantité de lumière qui fait l'exposition ou alors il faut aussi m'expliquer...
Oui, cela devrait revenir au même, mais il n'est pas rare d'avoir des différences entre les images si la mise au point se fait sur une zone légèrement différente, ou si les diaphragmes sont différents. Comme dans une photo on va remplacer une surface par une autre, il faut que les zones d'ajustement coïncident au mieux. L'idée est donc de mettre l'appareil sur pied, de bloquer le focus et le diaphragme et de ne jouer que sur la vitesse, par exemple +/- 3 IL par rapport à la photo de base quand les écarts sont vraiment grands.
(perso j'en fais plus d'une dizaine à 1IL, en numérique ça ne coûte rien...)
Si je comprends bien on n'aura pas un résultat valable si on fait des copies à différentes expositions, il faut vraiment prendre trois photos avec des expositions différentes.
Exactement. Un exemple avec cette lampe sur un piano : http://cjoint.com/?mmi2ROZ7Re
Voilà une photo standard. L'idée va être de remplacer toute la zone complètement brûlée par celle-ci : http://cjoint.com/?mmi3q6cgGD
On comprend bien qu'un simple copié-collé ne va pas le faire, ou alors c'est du boulot. Même chose pour la zone sombre que l'on va remplacer par des valeurs tirées de cette photo : http://cjoint.com/?mmi4z2aaMw
On voit une situation qu'un capteur ordinaire ne peut pas prendre. Plus on ajuste l'expo pour une partie éloignée de la lampe, plus la zone surexposée devient importante.
Donc oui, un pied et plusieurs prises. Photomatix (ou Photoshop) va s'occuper du truc en jouant des niveaux sur chaque photo et en affadissant plus ou moins les zones de transition.
À noter qu'on n'est pas obligé de faire des traitements caricaturaux et qu'on peut très bien garder un écart global : http://cjoint.com/?mmi7IImpc6
JMR a écrit
( news:ghpbda$84i$1@aioe.org )
Je suppose que cela revient au même si on joue sur l'ouverture.
C'est quand même la quantité de lumière qui fait l'exposition ou alors il
faut aussi m'expliquer...
Oui, cela devrait revenir au même, mais il n'est pas rare d'avoir des
différences entre les images si la mise au point se fait sur une zone
légèrement différente, ou si les diaphragmes sont différents. Comme dans une
photo on va remplacer une surface par une autre, il faut que les zones
d'ajustement coïncident au mieux. L'idée est donc de mettre l'appareil sur
pied, de bloquer le focus et le diaphragme et de ne jouer que sur la
vitesse, par exemple +/- 3 IL par rapport à la photo de base quand les
écarts sont vraiment grands.
(perso j'en fais plus d'une dizaine à 1IL, en numérique ça ne coûte rien...)
Si je comprends bien on n'aura pas un résultat valable si on fait des
copies à différentes expositions, il faut vraiment prendre trois photos
avec des expositions différentes.
Exactement. Un exemple avec cette lampe sur un piano :
http://cjoint.com/?mmi2ROZ7Re
Voilà une photo standard. L'idée va être de remplacer toute la zone
complètement brûlée par celle-ci :
http://cjoint.com/?mmi3q6cgGD
On comprend bien qu'un simple copié-collé ne va pas le faire, ou alors c'est
du boulot. Même chose pour la zone sombre que l'on va remplacer par des
valeurs tirées de cette photo :
http://cjoint.com/?mmi4z2aaMw
On voit une situation qu'un capteur ordinaire ne peut pas prendre. Plus on
ajuste l'expo pour une partie éloignée de la lampe, plus la zone surexposée
devient importante.
Donc oui, un pied et plusieurs prises. Photomatix (ou Photoshop) va
s'occuper du truc en jouant des niveaux sur chaque photo et en affadissant
plus ou moins les zones de transition.
À noter qu'on n'est pas obligé de faire des traitements caricaturaux et
qu'on peut très bien garder un écart global :
http://cjoint.com/?mmi7IImpc6
Je suppose que cela revient au même si on joue sur l'ouverture. C'est quand même la quantité de lumière qui fait l'exposition ou alors il faut aussi m'expliquer...
Oui, cela devrait revenir au même, mais il n'est pas rare d'avoir des différences entre les images si la mise au point se fait sur une zone légèrement différente, ou si les diaphragmes sont différents. Comme dans une photo on va remplacer une surface par une autre, il faut que les zones d'ajustement coïncident au mieux. L'idée est donc de mettre l'appareil sur pied, de bloquer le focus et le diaphragme et de ne jouer que sur la vitesse, par exemple +/- 3 IL par rapport à la photo de base quand les écarts sont vraiment grands.
(perso j'en fais plus d'une dizaine à 1IL, en numérique ça ne coûte rien...)
Si je comprends bien on n'aura pas un résultat valable si on fait des copies à différentes expositions, il faut vraiment prendre trois photos avec des expositions différentes.
Exactement. Un exemple avec cette lampe sur un piano : http://cjoint.com/?mmi2ROZ7Re
Voilà une photo standard. L'idée va être de remplacer toute la zone complètement brûlée par celle-ci : http://cjoint.com/?mmi3q6cgGD
On comprend bien qu'un simple copié-collé ne va pas le faire, ou alors c'est du boulot. Même chose pour la zone sombre que l'on va remplacer par des valeurs tirées de cette photo : http://cjoint.com/?mmi4z2aaMw
On voit une situation qu'un capteur ordinaire ne peut pas prendre. Plus on ajuste l'expo pour une partie éloignée de la lampe, plus la zone surexposée devient importante.
Donc oui, un pied et plusieurs prises. Photomatix (ou Photoshop) va s'occuper du truc en jouant des niveaux sur chaque photo et en affadissant plus ou moins les zones de transition.
À noter qu'on n'est pas obligé de faire des traitements caricaturaux et qu'on peut très bien garder un écart global : http://cjoint.com/?mmi7IImpc6
ARNAUD
bonjour
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple: http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
"Sylvain SF" a écrit dans le message de news: 4941a240$0$872$
Stephane Legras-Decussy a écrit :
ok on est d'accord sur ce ça mais pourquoi ça rend les noirs gris beurk ?
"beurk" pour faire court, ils seront mal résolus car la plage des noirs étaient très (trop) compactée dans l'original (de notre hypothèse).
juste à cause de la quantification trop faible.
oui, et AMHO elle sera bien plus faible que tu l'estimes...
prenons une image n&b sous ex à mort, tous les pixels sont regroupés dans 5% de la pleine echelle de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
quantisation.
tous les pixels sont entre 0 et 10, [...] ça va être immonde car tu n'auras que 10 nuances d'intensité....
oui.
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
les pixels seront entre 0 et 2621
oui mais non, tu extrapole linéairement sans aucune prise en compte de la sensibilité du capteur et la dynamique de sa réponse (pas sa gamme de réponse mais bien le gain en sortie selon les photons en entrée); je ne dis pas que c'est "trop osé" mais c'est une affirmation non prouvée.
dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits (un bit est formé de 2 kouilles, c'est connu).
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127 nuances bien loin de tes 2621.
c'est pour ça que je dis que sur le plan théorique, exposer correctement et jouer du curseur brightness, c'est pareil... plus la quantification est grande plus la pratique rejoint la théorie...
avec une dynamique infinie, oui, je ne connais pas de tel capteur.
Sylvain.
bonjour
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple:
http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
"Sylvain SF" <sylvain@boiteaspam.info> a écrit dans le message de news:
4941a240$0$872$ba4acef3@news.orange.fr...
Stephane Legras-Decussy a écrit :
ok on est d'accord sur ce ça
mais pourquoi ça rend les noirs gris beurk ?
"beurk" pour faire court, ils seront mal résolus car
la plage des noirs étaient très (trop) compactée
dans l'original (de notre hypothèse).
juste à cause de la quantification trop faible.
oui, et AMHO elle sera bien plus faible que tu l'estimes...
prenons une image n&b sous ex à mort, tous
les pixels sont regroupés dans 5% de la pleine echelle
de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
quantisation.
tous les pixels sont entre 0 et 10, [...]
ça va être immonde car tu n'auras que 10 nuances
d'intensité....
oui.
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
les pixels seront entre 0 et 2621
oui mais non, tu extrapole linéairement sans aucune prise
en compte de la sensibilité du capteur et la dynamique de
sa réponse (pas sa gamme de réponse mais bien le gain
en sortie selon les photons en entrée); je ne dis pas
que c'est "trop osé" mais c'est une affirmation non prouvée.
dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de
gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits
(un bit est formé de 2 kouilles, c'est connu).
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127
nuances bien loin de tes 2621.
c'est pour ça que je dis que sur le plan théorique,
exposer correctement et jouer du curseur brightness,
c'est pareil... plus la quantification est grande plus
la pratique rejoint la théorie...
avec une dynamique infinie, oui, je ne connais pas de tel capteur.
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple: http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
"Sylvain SF" a écrit dans le message de news: 4941a240$0$872$
Stephane Legras-Decussy a écrit :
ok on est d'accord sur ce ça mais pourquoi ça rend les noirs gris beurk ?
"beurk" pour faire court, ils seront mal résolus car la plage des noirs étaient très (trop) compactée dans l'original (de notre hypothèse).
juste à cause de la quantification trop faible.
oui, et AMHO elle sera bien plus faible que tu l'estimes...
prenons une image n&b sous ex à mort, tous les pixels sont regroupés dans 5% de la pleine echelle de l'histogramme (tassés à gauche donc).
avec une quantification sur 8 bit,
quantisation.
tous les pixels sont entre 0 et 10, [...] ça va être immonde car tu n'auras que 10 nuances d'intensité....
oui.
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
les pixels seront entre 0 et 2621
oui mais non, tu extrapole linéairement sans aucune prise en compte de la sensibilité du capteur et la dynamique de sa réponse (pas sa gamme de réponse mais bien le gain en sortie selon les photons en entrée); je ne dis pas que c'est "trop osé" mais c'est une affirmation non prouvée.
dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits (un bit est formé de 2 kouilles, c'est connu).
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127 nuances bien loin de tes 2621.
c'est pour ça que je dis que sur le plan théorique, exposer correctement et jouer du curseur brightness, c'est pareil... plus la quantification est grande plus la pratique rejoint la théorie...
avec une dynamique infinie, oui, je ne connais pas de tel capteur.
Sylvain.
Ofnuts
ARNAUD wrote:
bonjour
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple: http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
On voit bien le halo clair autour de l'arbre... -- Bertrand
ARNAUD wrote:
bonjour
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple:
http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
On voit bien le halo clair autour de l'arbre...
--
Bertrand
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple: http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
On voit bien le halo clair autour de l'arbre... -- Bertrand
Charles VASSALLO
Ofnuts wrote:
ARNAUD wrote:
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX par contre pour cree certains effets pas mal exemple: http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
On voit bien le halo clair autour de l'arbre...
Une image aussi simple se traite très aisément avec des courbes (et des masques, of course -- important, d'apprendre à se servir des masques...) http://www.cijoint.fr/cj200812/cij6nqOjMz.jpg
Charles
Ofnuts wrote:
ARNAUD wrote:
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple:
http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
On voit bien le halo clair autour de l'arbre...
Une image aussi simple se traite très aisément avec des courbes (et des
masques, of course -- important, d'apprendre à se servir des masques...)
http://www.cijoint.fr/cj200812/cij6nqOjMz.jpg
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX par contre pour cree certains effets pas mal exemple: http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg
On voit bien le halo clair autour de l'arbre...
Une image aussi simple se traite très aisément avec des courbes (et des masques, of course -- important, d'apprendre à se servir des masques...) http://www.cijoint.fr/cj200812/cij6nqOjMz.jpg
Charles
Stephane Legras-Decussy
"Sylvain SF" a écrit dans le message de news: 4941a240$0$872$
quantisation.
quantification en français quantization en anglais (avec un Z)
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
non, quand tu echantillones un signal, il n'y a encore aucun bit et aucune mesure...
un signal echantilloné est encore analogique, il est juste "découpé en tranches"...
tu obtiens un signal numérique quand tu quantifies sur n bits le signal échantilloné...
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127 nuances bien loin de tes 2621.
? alors là je vois pas du tout....
"Sylvain SF" <sylvain@boiteaspam.info> a écrit dans le message de news:
4941a240$0$872$ba4acef3@news.orange.fr...
quantisation.
quantification en français
quantization en anglais (avec un Z)
mais tu si quantifies sur 16bit la même image,
(échantillonnes)
non, quand tu echantillones un signal,
il n'y a encore aucun bit et aucune mesure...
un signal echantilloné est encore analogique,
il est juste "découpé en tranches"...
tu obtiens un signal numérique quand tu quantifies sur n bits
le signal échantilloné...
en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127
nuances bien loin de tes 2621.