OVH Cloud OVH Cloud

Embruns d'automne

239 réponses
Avatar
Thierry Houx
Bon, effectivement, ce n'est pas Tahiti, mais le bord de mer de mon bon
vieux Pays de Caux, avec ses falaise, mais je l'aime bien:
https://www.cjoint.com/data/HIAglTphsli_-1020667.jpg

Intéressant de voir les embruns se lever de la surface de l'eau.
Le temps de la baignade est passé, pas celui de la pêche sur l'estran.
--
Thierry Houx (thierry.houx@free.fr)
Président du CGPCSM (Geneacaux)
Webmestre du site http://www.geneacaux.org/
Membre CGPCSM N°72-2576

10 réponses

Avatar
Nul
Le vendredi 28 septembre 2018 21:52:48 UTC+2, Pierre Maurette a écrit  :
jdd :
Le 28/09/2018 à 20:53, Nul a écrit :
Panasonic fait plusieurs images dans un temps très court et super pose ces
images, comme le bruit est de position aléatoire, cette superposi tion
occulte
le bruit.

pas vraiment, mais si on ne garde que les données communes aux ima ges on peut
(peut-être) considérer qu'on a éliminé tout ce qui est aléatoire

Pas tout. Le signal cohérent sera multiplié par 2, le bruit al éatoire
par 1,414. C'est enseigné au lycée.
on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)

Faut breveter...

déjà fait par Panasonic.
Avatar
efji
Le 28/09/2018 à 20:53, Nul a écrit :
Le vendredi 28 septembre 2018 20:31:11 UTC+2, GhostRaider a écrit :
Le 28/09/2018 à 16:43, Nul a écrit :
Le vendredi 28 septembre 2018 16:13:49 UTC+2, GhostRaider a écrit :
Le 28/09/2018 à 15:03, Nul a écrit :
Le bruit est une information, le supprimer est supprimer de l'information, ça c'est évident, mais pas pour tous apparemment.

Il faudrait quand même que tu te souviennes que si le bruit est
effectivement de l'information, c'est un artefact, une fausse
information qui n'a rien à faire dans la photo.

bien d'accord, c'est un parasite, mais il reste une quantité non négligeable d'information, suivant sa densité bien sûr.
Et pour l'enlever, rien à faire,
il faut soit supprimer en réduisant l'image, c'est destructeur,
soit
échanger ces pixels parasités par d'autres copiés sur ceux proches,
le lissage.

Mais comment font les constructeurs pour le faire disparaître ou
l'amoindrir ?
Je serais eux, je prendrais deux photos successives pour en soustraire
le bruit, comme ils font pour les poussières.

De par le même proche principe que le HDR:
le HDR consistant à faire plusieurs images avec des ouvertures et mise aux points focales de plusieurs "sujets" à différentes distances, puis superposer ces images.
Panasonic fait plusieurs images dans un temps très court et superpose ces images, comme le bruit est de position aléatoire, cette superposition occulte
le bruit.

Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
De fait ça supprime aussi le bruit :
https://www.lesnumeriques.com/appareil-photo-numerique/sony-a7r-iii-p47969/premiers-essais-en-pixel-shift-avec-le-sony-a7r-iii-pu121731.html
--
F.J.
Avatar
efji
Le 28/09/2018 à 21:52, Pierre Maurette a écrit :
jdd :
Le 28/09/2018 à 20:53, Nul a écrit :
Panasonic fait plusieurs images dans un temps très court et superpose
ces images, comme le bruit est de position aléatoire, cette
superposition occulte
le bruit.

pas vraiment, mais si on ne garde que les données communes aux images
on peut (peut-être) considérer qu'on a éliminé tout ce qui est aléatoire

Pas tout. Le signal cohérent sera multiplié par 2, le bruit aléatoire
par 1,414. C'est enseigné au lycée.
on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)

Faut breveter...

Trop tard :)
Voir mon post précédent. En fait tous les constructeurs sauf les 2 gros
mammouths le font déjà.
--
F.J.
Avatar
efji
Le 28/09/2018 à 21:41, GhostRaider a écrit :
Le 28/09/2018 à 11:35, Benoit a écrit :
efji wrote:
Un raw 14 bits contient exactement 14 bits par pixel. Le raw n'a pas 3
couleurs par pixel comme les vrais formats d'image mais une seule. 4
pixels contigus sont assemblé en post traitement pour reconstituer la
couleur. C'est ça qu'on appelle matrice de Bayer et le passage du
monochrome à la couleur s'appelle le dématriçage.
Sans compression, un jpeg 16 bits devrait supporter 3x16 bits par pixel,
pour les 3 canaux de couleur. Appelle ça "création d'information" si tu
veux mais c'est ce qui est fait en pratique (mais avec 3x8 bits
seulement dans le vrai jpg).

C'est de la création d'information, comme l'écriture qui utilisait un
codage sur 8 bits par caractère et qui propose aujourd'hui un codage 16
bits. On est passé de 8 à 16 bits pour avoir plus de caractères dans une
même police. Ici on a plus de couleurs disponibles, c'est tout.
mais surtout il n'aurait pas du tout les même capacités de
compression :
en gros être "proches" sur une échelle de 0 à 255 ça arrive assez
souvent,
mais sur une échelle de 0 à 65535 c'est vachement plus rare.

Non, si tu comprimes, tu supprimes des éléments qui apportent peu : tu
passes d'une droite à un escalier.


Pourquoi non ?

Parce que tu as une échelle plus importante et tu peux réduire plus
fortement. La preuve : tu peux passer à 8 bits par pixels et ce sera
invisible, avec perte d'information, comme tout effet jpeg, sauf que là
j'ai appliqué une méthode assez brutale si je supprime 6 bits sur 14
(les premiers ou les derniers, je ne sais) plutôt que de faire comme du
jpeg qui me permettrait de retrouver plus de nuances en revenant à 14
bits après décompression.

J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.

Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
--
F.J.
Avatar
benoit
efji wrote:
Le 28/09/2018 à 21:41, GhostRaider a écrit :
J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.


Merci pour les bénédictins ;)
Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...

Bon, je vais essayer de faire simple, on est en N&B.
Imaginons que l'octet soit entre 0 et 100 (et non 256), on a une image
qui a donc 100 valeurs possible. Si je passe à 16 bit on a donc 10 000
valeurs possible, mais 0 = 0 pour tous les deux et 100 = 100 idem.
Comment je m'en sors ? Je sors ma virgule tranchante et douloureuse :
Dans un cas j'ai les valeurs entre 0 et 100 et dans l'autre 0,00 et
100,00. Quand le premier reçoit 10,49 il enregistre 10, le second 10,49.
À partir de là, si je commence à modifier et que je double les valeurs
j'ai 20 dans un cas et 20,98 dans l'autre (donc 21 pour le premier).
Vous voyez que ça décroche. Et plus je touche aux molettes de mon
logiciel...
Les retouches étant du calcul (donc sur des chiffres) plus les chiffres
sont précis plus le résultat est proche de la vérité. Faites de la
compta avec des arrondis à 100¤ et passez me voir quand le fisc déboule.
Et 14 bits est 64 fois plus précis que le 8 bits pas loin des 100.
Dernier truc à propos de la précision de l'information enregistrée. Si 6
bits de plus sont inutiles, pourquoi ne pas travailler en 2 bits ?
Hein ? 64 couleurs ça vous suffit.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoit chez lui à leraillez.com
Avatar
benoit
Stephane Legras-Decussy wrote:
Le 28/09/2018 15:03, Nul a écrit :
corriger, non, le seul intérêt est de pouvoir interpréter les données du
RAW suivant ses goûts/envies/pensées. On ne crée pas de l'information,
on la duplique de par les pixels proches.

c'est beaucoup plus sophistiqué que ça, sinon ce serait dégueu et
surtout archi mou.
ce sont des polynomes d'interpolation qui *inventent* des valeurs
de couleur pour les pixels manquant, et on ajoute dessus une bonne dose
accentuation unsharp mask, qui comme chacun le sait, invente des
couleurs en créant des lisérés.
Le bruit est une information, le supprimer est supprimer de
l'information, ça c'est évident, mais pas pour tous apparemment.
par définition, non ce n'est pas de l'information.

Si ! Cela te donne de l'information sur ton système et ses défauts.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoit chez lui à leraillez.com
Avatar
benoit
efji wrote:
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :

Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic

Le lien que tu donnes est plutôt bon.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoit chez lui à leraillez.com
Avatar
efji
Le 28/09/2018 à 23:36, Benoit a écrit :
efji wrote:
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :

Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic

Le lien que tu donnes est plutôt bon.

Oui mais tu ne l'as pas lu :)
Le principe du pixelshift est bien de prendre 4 photos décalées d'un
pixel (et non 1/2 comme j'avais dit) et de les recombiner. Et le capteur
bouge bien physiquement*. Il va sans dire que le pied doit être solide
et le vent faible...
* "data is recorded from the four photosites. Next, the sensor “shifts”
in 1-photosite increments three times. During this process, data from
four photosites (two green, one red, one blue) is acquired for each
pixel, resulting in more robust color values and less intrusive
interpolation."
--
F.J.
Avatar
efji
Le 28/09/2018 à 23:36, Benoit a écrit :
efji wrote:
Le 28/09/2018 à 21:41, GhostRaider a écrit :

J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.


Merci pour les bénédictins ;)
Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...

Bon, je vais essayer de faire simple, on est en N&B.
Imaginons que l'octet soit entre 0 et 100 (et non 256), on a une image
qui a donc 100 valeurs possible. Si je passe à 16 bit on a donc 10 000
valeurs possible, mais 0 = 0 pour tous les deux et 100 = 100 idem.
Comment je m'en sors ? Je sors ma virgule tranchante et douloureuse :
Dans un cas j'ai les valeurs entre 0 et 100 et dans l'autre 0,00 et
100,00. Quand le premier reçoit 10,49 il enregistre 10, le second 10,49.
À partir de là, si je commence à modifier et que je double les valeurs
j'ai 20 dans un cas et 20,98 dans l'autre (donc 21 pour le premier).
Vous voyez que ça décroche. Et plus je touche aux molettes de mon
logiciel...

C'est cela même. Sauf qu'en fait c'est plus compliqué à cause du
dématriçage. Chaque photosite code une donnée monochrome sur 14 bits et
on en déduit 3x8 bits couleur en utilisant ses voisins qui codent les
autres couleurs.
--
F.J.
Avatar
René
Le vendredi 28 septembre 2018 17:36:45 UTC-4, Benoit a écrit :
efji wrote:
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comme nt
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :

Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).

Ce déplacement du capteur concerne certains Hasselblab (et/ou autres) de 50
ou 100 megapixels pour produire des images de 200 ou 400 megapixels.
Le résultat est enregistré en une seule image TIFF 16 bits 2.4 GB
https://www.hasselblad.com/h6d-multishot/
René