jdd :Le 28/09/2018 à 20:53, Nul a écrit :Panasonic fait plusieurs images dans un temps très court et super pose ces
images, comme le bruit est de position aléatoire, cette superposi tion
occulte
le bruit.
pas vraiment, mais si on ne garde que les données communes aux ima ges on peut
(peut-être) considérer qu'on a éliminé tout ce qui est aléatoire
Pas tout. Le signal cohérent sera multiplié par 2, le bruit al éatoire
par 1,414. C'est enseigné au lycée.on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)
Faut breveter...
jdd :
> Le 28/09/2018 à 20:53, Nul a écrit :
>
>> Panasonic fait plusieurs images dans un temps très court et super pose ces
>> images, comme le bruit est de position aléatoire, cette superposi tion
>> occulte
>> le bruit.
>
> pas vraiment, mais si on ne garde que les données communes aux ima ges on peut
> (peut-être) considérer qu'on a éliminé tout ce qui est aléatoire
Pas tout. Le signal cohérent sera multiplié par 2, le bruit al éatoire
par 1,414. C'est enseigné au lycée.
> on va aussi éliminer tout mouvement rapide...
>
> idée intéressante, à creuser :-)
Faut breveter...
jdd :Le 28/09/2018 à 20:53, Nul a écrit :Panasonic fait plusieurs images dans un temps très court et super pose ces
images, comme le bruit est de position aléatoire, cette superposi tion
occulte
le bruit.
pas vraiment, mais si on ne garde que les données communes aux ima ges on peut
(peut-être) considérer qu'on a éliminé tout ce qui est aléatoire
Pas tout. Le signal cohérent sera multiplié par 2, le bruit al éatoire
par 1,414. C'est enseigné au lycée.on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)
Faut breveter...
Le vendredi 28 septembre 2018 20:31:11 UTC+2, GhostRaider a écrit :Le 28/09/2018 à 16:43, Nul a écrit :Le vendredi 28 septembre 2018 16:13:49 UTC+2, GhostRaider a écrit :Le 28/09/2018 à 15:03, Nul a écrit :Le bruit est une information, le supprimer est supprimer de l'information, ça c'est évident, mais pas pour tous apparemment.
Il faudrait quand même que tu te souviennes que si le bruit est
effectivement de l'information, c'est un artefact, une fausse
information qui n'a rien à faire dans la photo.
bien d'accord, c'est un parasite, mais il reste une quantité non négligeable d'information, suivant sa densité bien sûr.
Et pour l'enlever, rien à faire,
il faut soit supprimer en réduisant l'image, c'est destructeur,
soit
échanger ces pixels parasités par d'autres copiés sur ceux proches,
le lissage.
Mais comment font les constructeurs pour le faire disparaître ou
l'amoindrir ?
Je serais eux, je prendrais deux photos successives pour en soustraire
le bruit, comme ils font pour les poussières.
De par le même proche principe que le HDR:
le HDR consistant à faire plusieurs images avec des ouvertures et mise aux points focales de plusieurs "sujets" à différentes distances, puis superposer ces images.
Panasonic fait plusieurs images dans un temps très court et superpose ces images, comme le bruit est de position aléatoire, cette superposition occulte
le bruit.
Le vendredi 28 septembre 2018 20:31:11 UTC+2, GhostRaider a écrit :
Le 28/09/2018 à 16:43, Nul a écrit :
Le vendredi 28 septembre 2018 16:13:49 UTC+2, GhostRaider a écrit :
Le 28/09/2018 à 15:03, Nul a écrit :
Le bruit est une information, le supprimer est supprimer de l'information, ça c'est évident, mais pas pour tous apparemment.
Il faudrait quand même que tu te souviennes que si le bruit est
effectivement de l'information, c'est un artefact, une fausse
information qui n'a rien à faire dans la photo.
bien d'accord, c'est un parasite, mais il reste une quantité non négligeable d'information, suivant sa densité bien sûr.
Et pour l'enlever, rien à faire,
il faut soit supprimer en réduisant l'image, c'est destructeur,
soit
échanger ces pixels parasités par d'autres copiés sur ceux proches,
le lissage.
Mais comment font les constructeurs pour le faire disparaître ou
l'amoindrir ?
Je serais eux, je prendrais deux photos successives pour en soustraire
le bruit, comme ils font pour les poussières.
De par le même proche principe que le HDR:
le HDR consistant à faire plusieurs images avec des ouvertures et mise aux points focales de plusieurs "sujets" à différentes distances, puis superposer ces images.
Panasonic fait plusieurs images dans un temps très court et superpose ces images, comme le bruit est de position aléatoire, cette superposition occulte
le bruit.
Le vendredi 28 septembre 2018 20:31:11 UTC+2, GhostRaider a écrit :Le 28/09/2018 à 16:43, Nul a écrit :Le vendredi 28 septembre 2018 16:13:49 UTC+2, GhostRaider a écrit :Le 28/09/2018 à 15:03, Nul a écrit :Le bruit est une information, le supprimer est supprimer de l'information, ça c'est évident, mais pas pour tous apparemment.
Il faudrait quand même que tu te souviennes que si le bruit est
effectivement de l'information, c'est un artefact, une fausse
information qui n'a rien à faire dans la photo.
bien d'accord, c'est un parasite, mais il reste une quantité non négligeable d'information, suivant sa densité bien sûr.
Et pour l'enlever, rien à faire,
il faut soit supprimer en réduisant l'image, c'est destructeur,
soit
échanger ces pixels parasités par d'autres copiés sur ceux proches,
le lissage.
Mais comment font les constructeurs pour le faire disparaître ou
l'amoindrir ?
Je serais eux, je prendrais deux photos successives pour en soustraire
le bruit, comme ils font pour les poussières.
De par le même proche principe que le HDR:
le HDR consistant à faire plusieurs images avec des ouvertures et mise aux points focales de plusieurs "sujets" à différentes distances, puis superposer ces images.
Panasonic fait plusieurs images dans un temps très court et superpose ces images, comme le bruit est de position aléatoire, cette superposition occulte
le bruit.
jdd :Le 28/09/2018 à 20:53, Nul a écrit :Panasonic fait plusieurs images dans un temps très court et superpose
ces images, comme le bruit est de position aléatoire, cette
superposition occulte
le bruit.
pas vraiment, mais si on ne garde que les données communes aux images
on peut (peut-être) considérer qu'on a éliminé tout ce qui est aléatoire
Pas tout. Le signal cohérent sera multiplié par 2, le bruit aléatoire
par 1,414. C'est enseigné au lycée.on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)
Faut breveter...
jdd :
Le 28/09/2018 à 20:53, Nul a écrit :
Panasonic fait plusieurs images dans un temps très court et superpose
ces images, comme le bruit est de position aléatoire, cette
superposition occulte
le bruit.
pas vraiment, mais si on ne garde que les données communes aux images
on peut (peut-être) considérer qu'on a éliminé tout ce qui est aléatoire
Pas tout. Le signal cohérent sera multiplié par 2, le bruit aléatoire
par 1,414. C'est enseigné au lycée.
on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)
Faut breveter...
jdd :Le 28/09/2018 à 20:53, Nul a écrit :Panasonic fait plusieurs images dans un temps très court et superpose
ces images, comme le bruit est de position aléatoire, cette
superposition occulte
le bruit.
pas vraiment, mais si on ne garde que les données communes aux images
on peut (peut-être) considérer qu'on a éliminé tout ce qui est aléatoire
Pas tout. Le signal cohérent sera multiplié par 2, le bruit aléatoire
par 1,414. C'est enseigné au lycée.on va aussi éliminer tout mouvement rapide...
idée intéressante, à creuser :-)
Faut breveter...
Le 28/09/2018 à 11:35, Benoit a écrit :efji wrote:Un raw 14 bits contient exactement 14 bits par pixel. Le raw n'a pas 3
couleurs par pixel comme les vrais formats d'image mais une seule. 4
pixels contigus sont assemblé en post traitement pour reconstituer la
couleur. C'est ça qu'on appelle matrice de Bayer et le passage du
monochrome à la couleur s'appelle le dématriçage.
Sans compression, un jpeg 16 bits devrait supporter 3x16 bits par pixel,
pour les 3 canaux de couleur. Appelle ça "création d'information" si tu
veux mais c'est ce qui est fait en pratique (mais avec 3x8 bits
seulement dans le vrai jpg).
C'est de la création d'information, comme l'écriture qui utilisait un
codage sur 8 bits par caractère et qui propose aujourd'hui un codage 16
bits. On est passé de 8 à 16 bits pour avoir plus de caractères dans une
même police. Ici on a plus de couleurs disponibles, c'est tout.mais surtout il n'aurait pas du tout les même capacités de
compression :
en gros être "proches" sur une échelle de 0 à 255 ça arrive assez
souvent,
mais sur une échelle de 0 à 65535 c'est vachement plus rare.
Non, si tu comprimes, tu supprimes des éléments qui apportent peu : tu
passes d'une droite à un escalier.Pourquoi non ?
Parce que tu as une échelle plus importante et tu peux réduire plus
fortement. La preuve : tu peux passer à 8 bits par pixels et ce sera
invisible, avec perte d'information, comme tout effet jpeg, sauf que là
j'ai appliqué une méthode assez brutale si je supprime 6 bits sur 14
(les premiers ou les derniers, je ne sais) plutôt que de faire comme du
jpeg qui me permettrait de retrouver plus de nuances en revenant à 14
bits après décompression.
J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Le 28/09/2018 à 11:35, Benoit a écrit :
efji <efji@efi.efji> wrote:
Un raw 14 bits contient exactement 14 bits par pixel. Le raw n'a pas 3
couleurs par pixel comme les vrais formats d'image mais une seule. 4
pixels contigus sont assemblé en post traitement pour reconstituer la
couleur. C'est ça qu'on appelle matrice de Bayer et le passage du
monochrome à la couleur s'appelle le dématriçage.
Sans compression, un jpeg 16 bits devrait supporter 3x16 bits par pixel,
pour les 3 canaux de couleur. Appelle ça "création d'information" si tu
veux mais c'est ce qui est fait en pratique (mais avec 3x8 bits
seulement dans le vrai jpg).
C'est de la création d'information, comme l'écriture qui utilisait un
codage sur 8 bits par caractère et qui propose aujourd'hui un codage 16
bits. On est passé de 8 à 16 bits pour avoir plus de caractères dans une
même police. Ici on a plus de couleurs disponibles, c'est tout.
mais surtout il n'aurait pas du tout les même capacités de
compression :
en gros être "proches" sur une échelle de 0 à 255 ça arrive assez
souvent,
mais sur une échelle de 0 à 65535 c'est vachement plus rare.
Non, si tu comprimes, tu supprimes des éléments qui apportent peu : tu
passes d'une droite à un escalier.
Pourquoi non ?
Parce que tu as une échelle plus importante et tu peux réduire plus
fortement. La preuve : tu peux passer à 8 bits par pixels et ce sera
invisible, avec perte d'information, comme tout effet jpeg, sauf que là
j'ai appliqué une méthode assez brutale si je supprime 6 bits sur 14
(les premiers ou les derniers, je ne sais) plutôt que de faire comme du
jpeg qui me permettrait de retrouver plus de nuances en revenant à 14
bits après décompression.
J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Le 28/09/2018 à 11:35, Benoit a écrit :efji wrote:Un raw 14 bits contient exactement 14 bits par pixel. Le raw n'a pas 3
couleurs par pixel comme les vrais formats d'image mais une seule. 4
pixels contigus sont assemblé en post traitement pour reconstituer la
couleur. C'est ça qu'on appelle matrice de Bayer et le passage du
monochrome à la couleur s'appelle le dématriçage.
Sans compression, un jpeg 16 bits devrait supporter 3x16 bits par pixel,
pour les 3 canaux de couleur. Appelle ça "création d'information" si tu
veux mais c'est ce qui est fait en pratique (mais avec 3x8 bits
seulement dans le vrai jpg).
C'est de la création d'information, comme l'écriture qui utilisait un
codage sur 8 bits par caractère et qui propose aujourd'hui un codage 16
bits. On est passé de 8 à 16 bits pour avoir plus de caractères dans une
même police. Ici on a plus de couleurs disponibles, c'est tout.mais surtout il n'aurait pas du tout les même capacités de
compression :
en gros être "proches" sur une échelle de 0 à 255 ça arrive assez
souvent,
mais sur une échelle de 0 à 65535 c'est vachement plus rare.
Non, si tu comprimes, tu supprimes des éléments qui apportent peu : tu
passes d'une droite à un escalier.Pourquoi non ?
Parce que tu as une échelle plus importante et tu peux réduire plus
fortement. La preuve : tu peux passer à 8 bits par pixels et ce sera
invisible, avec perte d'information, comme tout effet jpeg, sauf que là
j'ai appliqué une méthode assez brutale si je supprime 6 bits sur 14
(les premiers ou les derniers, je ne sais) plutôt que de faire comme du
jpeg qui me permettrait de retrouver plus de nuances en revenant à 14
bits après décompression.
J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Le 28/09/2018 à 21:41, GhostRaider a écrit :J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
Le 28/09/2018 à 21:41, GhostRaider a écrit :
> J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
Le 28/09/2018 à 21:41, GhostRaider a écrit :J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
Le 28/09/2018 15:03, Nul a écrit :corriger, non, le seul intérêt est de pouvoir interpréter les données du
RAW suivant ses goûts/envies/pensées. On ne crée pas de l'information,
on la duplique de par les pixels proches.
c'est beaucoup plus sophistiqué que ça, sinon ce serait dégueu et
surtout archi mou.
ce sont des polynomes d'interpolation qui *inventent* des valeurs
de couleur pour les pixels manquant, et on ajoute dessus une bonne dose
accentuation unsharp mask, qui comme chacun le sait, invente des
couleurs en créant des lisérés.Le bruit est une information, le supprimer est supprimer depar définition, non ce n'est pas de l'information.
l'information, ça c'est évident, mais pas pour tous apparemment.
Le 28/09/2018 15:03, Nul a écrit :
> corriger, non, le seul intérêt est de pouvoir interpréter les données du
> RAW suivant ses goûts/envies/pensées. On ne crée pas de l'information,
> on la duplique de par les pixels proches.
c'est beaucoup plus sophistiqué que ça, sinon ce serait dégueu et
surtout archi mou.
ce sont des polynomes d'interpolation qui *inventent* des valeurs
de couleur pour les pixels manquant, et on ajoute dessus une bonne dose
accentuation unsharp mask, qui comme chacun le sait, invente des
couleurs en créant des lisérés.
> Le bruit est une information, le supprimer est supprimer de
>l'information, ça c'est évident, mais pas pour tous apparemment.
>
par définition, non ce n'est pas de l'information.
Le 28/09/2018 15:03, Nul a écrit :corriger, non, le seul intérêt est de pouvoir interpréter les données du
RAW suivant ses goûts/envies/pensées. On ne crée pas de l'information,
on la duplique de par les pixels proches.
c'est beaucoup plus sophistiqué que ça, sinon ce serait dégueu et
surtout archi mou.
ce sont des polynomes d'interpolation qui *inventent* des valeurs
de couleur pour les pixels manquant, et on ajoute dessus une bonne dose
accentuation unsharp mask, qui comme chacun le sait, invente des
couleurs en créant des lisérés.Le bruit est une information, le supprimer est supprimer depar définition, non ce n'est pas de l'information.
l'information, ça c'est évident, mais pas pour tous apparemment.
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
efji wrote:Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
Le lien que tu donnes est plutôt bon.
efji <efji@efi.efji> wrote:
Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).
https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
Le lien que tu donnes est plutôt bon.
efji wrote:Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comment
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).https://www.bhphotovideo.com/explora/photography/tips-and-solutions/pixel-
shift-shootout-olympus-vs-pentax-vs-sony-vs-panasonic
Le lien que tu donnes est plutôt bon.
efji wrote:Le 28/09/2018 à 21:41, GhostRaider a écrit :J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Merci pour les bénédictins ;)Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
Bon, je vais essayer de faire simple, on est en N&B.
Imaginons que l'octet soit entre 0 et 100 (et non 256), on a une image
qui a donc 100 valeurs possible. Si je passe à 16 bit on a donc 10 000
valeurs possible, mais 0 = 0 pour tous les deux et 100 = 100 idem.
Comment je m'en sors ? Je sors ma virgule tranchante et douloureuse :
Dans un cas j'ai les valeurs entre 0 et 100 et dans l'autre 0,00 et
100,00. Quand le premier reçoit 10,49 il enregistre 10, le second 10,49.
À partir de là, si je commence à modifier et que je double les valeurs
j'ai 20 dans un cas et 20,98 dans l'autre (donc 21 pour le premier).
Vous voyez que ça décroche. Et plus je touche aux molettes de mon
logiciel...
efji <efji@efi.efji> wrote:
Le 28/09/2018 à 21:41, GhostRaider a écrit :
J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Merci pour les bénédictins ;)
Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
Bon, je vais essayer de faire simple, on est en N&B.
Imaginons que l'octet soit entre 0 et 100 (et non 256), on a une image
qui a donc 100 valeurs possible. Si je passe à 16 bit on a donc 10 000
valeurs possible, mais 0 = 0 pour tous les deux et 100 = 100 idem.
Comment je m'en sors ? Je sors ma virgule tranchante et douloureuse :
Dans un cas j'ai les valeurs entre 0 et 100 et dans l'autre 0,00 et
100,00. Quand le premier reçoit 10,49 il enregistre 10, le second 10,49.
À partir de là, si je commence à modifier et que je double les valeurs
j'ai 20 dans un cas et 20,98 dans l'autre (donc 21 pour le premier).
Vous voyez que ça décroche. Et plus je touche aux molettes de mon
logiciel...
efji wrote:Le 28/09/2018 à 21:41, GhostRaider a écrit :J'attendais que Efji décrypte ces textes bénédictins mais ça ne vient pas.
Merci pour les bénédictins ;)Je n'ai pas de doctorat d'exégèse es Benoit et je n'ai rien compris.
Alors je me tais.
J'aurais juste pu pointer que passer de 16 à 8 bits ne se fait pas en en
supprimant 6, ce qui serait un rien cavalier et très sombre ou
aveuglant, selon que les bits seraient pris au début ou à la fin. Ils
auraient pu être pris au milieu aussi pour donner des chose
imprévisibles. Bref je suis un peu las...
Bon, je vais essayer de faire simple, on est en N&B.
Imaginons que l'octet soit entre 0 et 100 (et non 256), on a une image
qui a donc 100 valeurs possible. Si je passe à 16 bit on a donc 10 000
valeurs possible, mais 0 = 0 pour tous les deux et 100 = 100 idem.
Comment je m'en sors ? Je sors ma virgule tranchante et douloureuse :
Dans un cas j'ai les valeurs entre 0 et 100 et dans l'autre 0,00 et
100,00. Quand le premier reçoit 10,49 il enregistre 10, le second 10,49.
À partir de là, si je commence à modifier et que je double les valeurs
j'ai 20 dans un cas et 20,98 dans l'autre (donc 21 pour le premier).
Vous voyez que ça décroche. Et plus je touche aux molettes de mon
logiciel...
efji wrote:Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comme nt
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).
efji <efji@efi.efji> wrote:
> Ca se fait non pas pour diminuer le bruit mais pour augmenter la
> résolution : on décale le capteur d'un demi-pixel (mais comme nt
> font-ils?) et on prend une autre photo. On recommence et finalement on
> sort une photo composite avec une résolution quadruplée :
Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).
efji wrote:Ca se fait non pas pour diminuer le bruit mais pour augmenter la
résolution : on décale le capteur d'un demi-pixel (mais comme nt
font-ils?) et on prend une autre photo. On recommence et finalement on
sort une photo composite avec une résolution quadruplée :
Non, on ne fait qu'une seul photo. Le capteur n'est pas décalé du tout,
il ne bouge pas. Un pixel est basé sur les données provenant de 4
capteurs (2 verts, 1 rouge, 1 bleu).