Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

HDR

24 réponses
Avatar
JMR
Bonsoir,

J'ai essayé photomatix pour le hdr.
J'ai fait des photos en activant le bracketing puis les soumettant à
photomatix et les résultats sont vraiment bons.

Un ami m'a dit (en coup de vent...d'où la question) qu'il n'était pas
nécessaire de faire du bracketing mais qu'on pouvait faire une copie de
la photo raw en modifiant l'exposition de + 1IL et - 1IL, puis de
soumettre les 3 photos à photomatix.
Est-ce exact; si oui quel est le programme qui permet de le faire, en
étant certain qu'on fait bien les copies avec la bonne modification
d'exposition ?
J'ai par ex regardé dans raw therapee mais ne vois pas comment faire
dans la rubrique exposition.
Merci pour vos éclaircissements.

JMR

10 réponses

1 2 3
Avatar
Stephane Legras-Decussy
"Sylvain SF" a écrit dans le message de news:
49404cfb$0$932$
je disais cela. tu rends les noirs gris beurk et crame le reste.
ce qui est différent d'exposer à +5IL car là tu crames pareil
les blancs mais élargie (différencie, ...) les noirs.



ok on est d'accord sur ce ça
mais pourquoi ça rend les noirs gris beurk ?

juste à cause de la quantification trop faible.

prenons une image n&b sous ex à mort, tous
les pixels sont regroupés dans 5% de la pleine echelle
de l'histogramme (tassés à gauche donc).

avec une quantification sur 8 bit,
tu as une image où tous les
pixels sont entre 0 et 10, si tu multiplies
par 25 pour avoir une image pleine echelle,
ça va être immonde car tu n'auras que 10 nuances
d'intensité....

mais tu si quantifies sur 16bit la même image,
les pixels seront entre 0 et 2621 !

alors si tu multiplies par 25 pour obtenir une image pleine echelle
comme tout à l'heure, tu auras une belle image car tu as 2621 nuances...

largement de quoi faire un jpeg parfait...

c'est pour ça que je dis que sur le plan
théorique, exposer correctement et jouer du curseur
brightness, c'est pareil... plus la quantification est grande plus
la pratique rejoint la théorie...
Avatar
JMR
Bour-Brown wrote:

JMR a écrit
( news:ghotj8$fi6$ )

Un ami m'a dit (en coup de vent...d'où la question) qu'il n'était pas
nécessaire de faire du bracketing



Pour accroître la dynamique d'une photo, c'est à dire avoir un écart de
luminosité plus grand que celui d'une prise unique, il n'y a pas de
mystère il *faut* avoir des prises de vue avec différentes vitesses. La
vitesse lente permet d'avoir des informations fiables pour les basses
lumières, la vitesse rapide permet d'avoir des détails dans les hautes
lumières.

En schématisant, Photomatix va se servir de la photo du milieu comme base
et va remplacer les zones mal exposées dans cette photo par celles qui
l'auront bien été avec les autres prises.

mais qu'on pouvait faire une copie de la photo raw en modifiant
l'exposition de + 1IL et - 1IL, puis de soumettre les 3 photos à
photomatix.



On peut effectivement tromper le programme pour qu'il fasse la même chose
à partir de la même photo traitée trois fois différemment, mais les
défauts de la photo d'origine seront bien sûr inchangés. Cela revient à
jouer des courbes et du contraste local à partir du raw d'origine, sauf
que là c'est automatique et optimisé, mais ce ne sera pas à proprement
parler du HDR.



Merci pour les explications; mon ami n'a donc pas tout à fait raison...
Je me suis interrogé sur le fait que c'est la vitesse qu'il faut changer (et
pas l'ouverture), j'imagine que c'est pour ne pas changer la profondeur de
champ.

Autre question : si l'appareil n'a pas le bracketing on doit le faire
soi-même; cela implique-t'il obligatoirement l'utilisation d'un pied ou, si
on est soigneux quant au cadrage, le programme corrige-t'il ces minimes
différences de cadrage ?

JMR
Avatar
sebastienmarty
JMR wrote:

Je suppose que cela revient au même si on joue sur l'ouverture.



Comme dit ailleurs, ça va faire varier la profondeur de champ.

--
[SbM]
<http://sebastienmarty.free.fr> - <http://tradintosh.free.fr>
<http://sbm.ordinotheque.free.fr> - <http://palmiciel.free.fr>
"If the French were really intelligent, they'd speak English" (W. Sheed)
Avatar
JMR
SbM a écrit :
JMR wrote:

Je suppose que cela revient au même si on joue sur l'ouverture.



Comme dit ailleurs, ça va faire varier la profondeur de champ.



J'avais posté ce mail avant de réfléchir au problème de profondeur de
champ...
Avatar
Sylvain SF
Stephane Legras-Decussy a écrit :

ok on est d'accord sur ce ça
mais pourquoi ça rend les noirs gris beurk ?



"beurk" pour faire court, ils seront mal résolus car
la plage des noirs étaient très (trop) compactée
dans l'original (de notre hypothèse).

juste à cause de la quantification trop faible.



oui, et AMHO elle sera bien plus faible que tu l'estimes...

prenons une image n&b sous ex à mort, tous
les pixels sont regroupés dans 5% de la pleine echelle
de l'histogramme (tassés à gauche donc).

avec une quantification sur 8 bit,



quantisation.

tous les pixels sont entre 0 et 10, [...]
ça va être immonde car tu n'auras que 10 nuances
d'intensité....



oui.

mais tu si quantifies sur 16bit la même image,



(échantillonnes)

les pixels seront entre 0 et 2621



oui mais non, tu extrapole linéairement sans aucune prise
en compte de la sensibilité du capteur et la dynamique de
sa réponse (pas sa gamme de réponse mais bien le gain
en sortie selon les photons en entrée); je ne dis pas
que c'est "trop osé" mais c'est une affirmation non prouvée.

dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de
gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits
(un bit est formé de 2 kouilles, c'est connu).

en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127
nuances bien loin de tes 2621.

c'est pour ça que je dis que sur le plan théorique,
exposer correctement et jouer du curseur brightness,
c'est pareil... plus la quantification est grande plus
la pratique rejoint la théorie...



avec une dynamique infinie, oui, je ne connais pas de tel capteur.

Sylvain.
Avatar
Bour-Brown
JMR a écrit
( news:ghpbda$84i$ )

Je suppose que cela revient au même si on joue sur l'ouverture.
C'est quand même la quantité de lumière qui fait l'exposition ou alors il
faut aussi m'expliquer...



Oui, cela devrait revenir au même, mais il n'est pas rare d'avoir des
différences entre les images si la mise au point se fait sur une zone
légèrement différente, ou si les diaphragmes sont différents. Comme dans une
photo on va remplacer une surface par une autre, il faut que les zones
d'ajustement coïncident au mieux. L'idée est donc de mettre l'appareil sur
pied, de bloquer le focus et le diaphragme et de ne jouer que sur la
vitesse, par exemple +/- 3 IL par rapport à la photo de base quand les
écarts sont vraiment grands.

(perso j'en fais plus d'une dizaine à 1IL, en numérique ça ne coûte rien...)


Si je comprends bien on n'aura pas un résultat valable si on fait des
copies à différentes expositions, il faut vraiment prendre trois photos
avec des expositions différentes.



Exactement. Un exemple avec cette lampe sur un piano :
http://cjoint.com/?mmi2ROZ7Re

Voilà une photo standard. L'idée va être de remplacer toute la zone
complètement brûlée par celle-ci :
http://cjoint.com/?mmi3q6cgGD

On comprend bien qu'un simple copié-collé ne va pas le faire, ou alors c'est
du boulot. Même chose pour la zone sombre que l'on va remplacer par des
valeurs tirées de cette photo :
http://cjoint.com/?mmi4z2aaMw

On voit une situation qu'un capteur ordinaire ne peut pas prendre. Plus on
ajuste l'expo pour une partie éloignée de la lampe, plus la zone surexposée
devient importante.

Donc oui, un pied et plusieurs prises. Photomatix (ou Photoshop) va
s'occuper du truc en jouant des niveaux sur chaque photo et en affadissant
plus ou moins les zones de transition.

À noter qu'on n'est pas obligé de faire des traitements caricaturaux et
qu'on peut très bien garder un écart global :
http://cjoint.com/?mmi7IImpc6
Avatar
ARNAUD
bonjour

ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX

par contre pour cree certains effets pas mal exemple:
http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg


"Sylvain SF" a écrit dans le message de news:
4941a240$0$872$
Stephane Legras-Decussy a écrit :

ok on est d'accord sur ce ça
mais pourquoi ça rend les noirs gris beurk ?



"beurk" pour faire court, ils seront mal résolus car
la plage des noirs étaient très (trop) compactée
dans l'original (de notre hypothèse).

juste à cause de la quantification trop faible.



oui, et AMHO elle sera bien plus faible que tu l'estimes...

prenons une image n&b sous ex à mort, tous
les pixels sont regroupés dans 5% de la pleine echelle
de l'histogramme (tassés à gauche donc).

avec une quantification sur 8 bit,



quantisation.

tous les pixels sont entre 0 et 10, [...]
ça va être immonde car tu n'auras que 10 nuances
d'intensité....



oui.

mais tu si quantifies sur 16bit la même image,



(échantillonnes)

les pixels seront entre 0 et 2621



oui mais non, tu extrapole linéairement sans aucune prise
en compte de la sensibilité du capteur et la dynamique de
sa réponse (pas sa gamme de réponse mais bien le gain
en sortie selon les photons en entrée); je ne dis pas
que c'est "trop osé" mais c'est une affirmation non prouvée.

dans ton premier calcul , tu poses l'hypothèse de 10 valeurs de
gris/noirs pour une gamme 2^8, donc l'utilisation de +/- 3,5 bits
(un bit est formé de 2 kouilles, c'est connu).

en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127
nuances bien loin de tes 2621.

c'est pour ça que je dis que sur le plan théorique,
exposer correctement et jouer du curseur brightness,
c'est pareil... plus la quantification est grande plus
la pratique rejoint la théorie...



avec une dynamique infinie, oui, je ne connais pas de tel capteur.

Sylvain.


Avatar
Ofnuts
ARNAUD wrote:
bonjour

ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX

par contre pour cree certains effets pas mal exemple:
http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg



On voit bien le halo clair autour de l'arbre...
--
Bertrand
Avatar
Charles VASSALLO
Ofnuts wrote:
ARNAUD wrote:
ayant teste le logiciel pour ouvrir en raw pas aussi bon que NX
par contre pour cree certains effets pas mal exemple:
http://www.cijoint.fr/cjlink.php?file=cj200812/cijQAvNSIJ.jpg



On voit bien le halo clair autour de l'arbre...



Une image aussi simple se traite très aisément avec des courbes (et des
masques, of course -- important, d'apprendre à se servir des masques...)
http://www.cijoint.fr/cj200812/cij6nqOjMz.jpg

Charles
Avatar
Stephane Legras-Decussy
"Sylvain SF" a écrit dans le message de news:
4941a240$0$872$

quantisation.



quantification en français
quantization en anglais (avec un Z)


mais tu si quantifies sur 16bit la même image,



(échantillonnes)



non, quand tu echantillones un signal,
il n'y a encore aucun bit et aucune mesure...

un signal echantilloné est encore analogique,
il est juste "découpé en tranches"...

tu obtiens un signal numérique quand tu quantifies sur n bits
le signal échantilloné...



en 16 bits, tu codes donc ton image sur +/- 7 bits, soit 127
nuances bien loin de tes 2621.



? alors là je vois pas du tout....
1 2 3