Je veux accroître le piqué, donc baisser le bruit. Tous les pixels sont utiles. Là j'avais utilisé le bruit dû à un ISO élevé pour voir : ça marche. Maintenant je passe à un ISO 200.
aucun rapport... un image floue n'a aucun piqué et aucun bruit.
Bin voyons. Parce qu'un zone qui a du piqué n'est pas floue à partir d'un certain grossissement ? Prends une photo avec un 50mm de compétition, utilise-le à la place d'un 200mm. Il est passé où le piqué de la mort qui tue du 50mm ? -- Vie : n.f. maladie mortelle sexuellement transmissible Benoit chez lui à leraillez.com
> Je veux accroître le piqué, donc baisser le bruit. Tous les pixels sont
> utiles. Là j'avais utilisé le bruit dû à un ISO élevé pour voir : ça
> marche. Maintenant je passe à un ISO 200.
>
aucun rapport... un image floue n'a aucun piqué et aucun bruit.
Bin voyons. Parce qu'un zone qui a du piqué n'est pas floue à partir
d'un certain grossissement ? Prends une photo avec un 50mm de
compétition, utilise-le à la place d'un 200mm. Il est passé où le piqué
de la mort qui tue du 50mm ?
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoit chez lui à leraillez.com
Je veux accroître le piqué, donc baisser le bruit. Tous les pixels sont utiles. Là j'avais utilisé le bruit dû à un ISO élevé pour voir : ça marche. Maintenant je passe à un ISO 200.
aucun rapport... un image floue n'a aucun piqué et aucun bruit.
Bin voyons. Parce qu'un zone qui a du piqué n'est pas floue à partir d'un certain grossissement ? Prends une photo avec un 50mm de compétition, utilise-le à la place d'un 200mm. Il est passé où le piqué de la mort qui tue du 50mm ? -- Vie : n.f. maladie mortelle sexuellement transmissible Benoit chez lui à leraillez.com
efji
On 03/09/2019 13:54, Benoît wrote:
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel n'est pas toujours exactement celle que l'on obtiendrait avec du calcul optique. Les flous c'est un peu le « hasard », un élément de l'image d'origine arrive à peu près au bon endroit. Meilleur est l'objectif, plus petite est la zone d'erreur.
Mais ce flou n'est pas aléatoire, il est parfaitement reproductible et caractéristique de l'optique. -- F.J.
On 03/09/2019 13:54, Benoît wrote:
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel
n'est pas toujours exactement celle que l'on obtiendrait avec du calcul
optique. Les flous c'est un peu le « hasard », un élément de l'image
d'origine arrive à peu près au bon endroit. Meilleur est l'objectif,
plus petite est la zone d'erreur.
Mais ce flou n'est pas aléatoire, il est parfaitement reproductible et
caractéristique de l'optique.
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel n'est pas toujours exactement celle que l'on obtiendrait avec du calcul optique. Les flous c'est un peu le « hasard », un élément de l'image d'origine arrive à peu près au bon endroit. Meilleur est l'objectif, plus petite est la zone d'erreur.
Mais ce flou n'est pas aléatoire, il est parfaitement reproductible et caractéristique de l'optique. -- F.J.
benoit
efji wrote:
On 03/09/2019 13:54, Benoît wrote:
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel n'est pas toujours exactement celle que l'on obtiendrait avec du calcul optique. Les flous c'est un peu le « hasard », un élément de l'image d'origine arrive à peu près au bon endroit. Meilleur est l'objectif, plus petite est la zone d'erreur.
Mais ce flou n'est pas aléatoire, il est parfaitement reproductible et caractéristique de l'optique.
Si rien ne bouge : ni l'appareil ni le sujet. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoit chez lui à leraillez.com
efji <efji@efi.efji> wrote:
On 03/09/2019 13:54, Benoît wrote:
> Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel
> n'est pas toujours exactement celle que l'on obtiendrait avec du calcul
> optique. Les flous c'est un peu le « hasard », un élément de l'image
> d'origine arrive à peu près au bon endroit. Meilleur est l'objectif,
> plus petite est la zone d'erreur.
Mais ce flou n'est pas aléatoire, il est parfaitement reproductible et
caractéristique de l'optique.
Si rien ne bouge : ni l'appareil ni le sujet.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoit chez lui à leraillez.com
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel n'est pas toujours exactement celle que l'on obtiendrait avec du calcul optique. Les flous c'est un peu le « hasard », un élément de l'image d'origine arrive à peu près au bon endroit. Meilleur est l'objectif, plus petite est la zone d'erreur.
Mais ce flou n'est pas aléatoire, il est parfaitement reproductible et caractéristique de l'optique.
Si rien ne bouge : ni l'appareil ni le sujet. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoit chez lui à leraillez.com
Olivier Miakinen
Bonjour, Je passe le début de ton article, d'autant que là où je suis je n'ai pas accès à cjoint. Le 03/09/2019 à 13:54, Benoît a écrit :
[...] Maintenant une chose : - Je ne fais pas ma série de photo avec un trépied et donc à 100% au même endroit (comme refaire une enquête avec les mêmes personnes) en le tenant à la main je change constamment l'image ; - J'aligne mes images en faisant en sorte que les différences entre chacune soit minimum ; - Je fais la moyenne de chaque point de l'image et j'obtiens une image plus nette. Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom. À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels alentours ? Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y), et à (2x+1, 2y+1). -- Olivier Miakinen
Bonjour,
Je passe le début de ton article, d'autant que là où je suis je n'ai
pas accès à cjoint.
Le 03/09/2019 à 13:54, Benoît a écrit :
[...]
Maintenant une chose :
- Je ne fais pas ma série de photo avec un trépied et donc à 100% au
même endroit (comme refaire une enquête avec les mêmes personnes) en le
tenant à la main je change constamment l'image ;
- J'aligne mes images en faisant en sorte que les différences entre
chacune soit minimum ;
- Je fais la moyenne de chaque point de l'image et j'obtiens une image
plus nette.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
grossissant les images de 200% avant de faire le calcul. J'ai ma petite
idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom.
À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre
grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de
départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il
y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels
alentours ?
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y),
et à (2x+1, 2y+1).
Bonjour, Je passe le début de ton article, d'autant que là où je suis je n'ai pas accès à cjoint. Le 03/09/2019 à 13:54, Benoît a écrit :
[...] Maintenant une chose : - Je ne fais pas ma série de photo avec un trépied et donc à 100% au même endroit (comme refaire une enquête avec les mêmes personnes) en le tenant à la main je change constamment l'image ; - J'aligne mes images en faisant en sorte que les différences entre chacune soit minimum ; - Je fais la moyenne de chaque point de l'image et j'obtiens une image plus nette. Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom. À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels alentours ? Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y), et à (2x+1, 2y+1). -- Olivier Miakinen
benoit
Olivier Miakinen <om+ wrote: Merci de venir,
Bonjour, Je passe le début de ton article, d'autant que là où je suis je n'ai pas accès à cjoint.
Un site web qui t'ai interdi ?
Le 03/09/2019 à 13:54, Benoît a écrit :
[...] Maintenant une chose : - Je ne fais pas ma série de photo avec un trépied et donc à 100% au même endroit (comme refaire une enquête avec les mêmes personnes) en le tenant à la main je change constamment l'image ; - J'aligne mes images en faisant en sorte que les différences entre chacune soit minimum ; - Je fais la moyenne de chaque point de l'image et j'obtiens une image plus nette. Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom. À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y), et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoit chez lui à leraillez.com
Olivier Miakinen <om+news@miakinen.net> wrote:
Merci de venir,
Bonjour,
Je passe le début de ton article, d'autant que là où je suis je n'ai
pas accès à cjoint.
Un site web qui t'ai interdi ?
Le 03/09/2019 à 13:54, Benoît a écrit :
>
> [...]
>
> Maintenant une chose :
>
> - Je ne fais pas ma série de photo avec un trépied et donc à 100% au
> même endroit (comme refaire une enquête avec les mêmes personnes) en le
> tenant à la main je change constamment l'image ;
> - J'aligne mes images en faisant en sorte que les différences entre
> chacune soit minimum ;
> - Je fais la moyenne de chaque point de l'image et j'obtiens une image
> plus nette.
>
> Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
> grossissant les images de 200% avant de faire le calcul. J'ai ma petite
> idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom.
À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre
grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de
départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il
y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels
alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je
suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y),
et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoit chez lui à leraillez.com
Bonjour, Je passe le début de ton article, d'autant que là où je suis je n'ai pas accès à cjoint.
Un site web qui t'ai interdi ?
Le 03/09/2019 à 13:54, Benoît a écrit :
[...] Maintenant une chose : - Je ne fais pas ma série de photo avec un trépied et donc à 100% au même endroit (comme refaire une enquête avec les mêmes personnes) en le tenant à la main je change constamment l'image ; - J'aligne mes images en faisant en sorte que les différences entre chacune soit minimum ; - Je fais la moyenne de chaque point de l'image et j'obtiens une image plus nette. Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom. À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y), et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoit chez lui à leraillez.com
Olivier Miakinen
Le 03/09/2019 à 19:57, Benoît a écrit :
Je passe le début de ton article, d'autant que là où je suis je n'ai pas accès à cjoint.
Un site web qui t'ai interdi ?
Il y en a plusieurs, et cjoint en fait partie. Au besoin je pourrai aller voir les images de chez moi.
[...]
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom. À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Je ne comprends pas ce que tu veux dire par « 50/50 » et « 66/33 ». Par ailleurs, je te posais une question à propos de ce qui se passe *avant* ton algo, je ne m'attendais donc pas à ce que tu parles immédiatement de l'algo lui-même. Pour rappel, tu as écrit « grossissant les images de 200% *avant* de faire le calcul » et c'est sur cette action *préliminaire* que je m'interroge.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y), et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
Encore une fois, je te parle de ce qui se passe *avant* d'appliquer la moindre règle. -- Olivier Miakinen
Le 03/09/2019 à 19:57, Benoît a écrit :
Je passe le début de ton article, d'autant que là où je suis je n'ai
pas accès à cjoint.
Un site web qui t'ai interdi ?
Il y en a plusieurs, et cjoint en fait partie. Au besoin je pourrai
aller voir les images de chez moi.
[...]
>
> Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
> grossissant les images de 200% avant de faire le calcul. J'ai ma petite
> idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom.
À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre
grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de
départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il
y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels
alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je
suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Je ne comprends pas ce que tu veux dire par « 50/50 » et « 66/33 ».
Par ailleurs, je te posais une question à propos de ce qui se passe
*avant* ton algo, je ne m'attendais donc pas à ce que tu parles
immédiatement de l'algo lui-même.
Pour rappel, tu as écrit « grossissant les images de 200% *avant* de
faire le calcul » et c'est sur cette action *préliminaire* que je
m'interroge.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y),
et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
Encore une fois, je te parle de ce qui se passe *avant* d'appliquer
la moindre règle.
Je passe le début de ton article, d'autant que là où je suis je n'ai pas accès à cjoint.
Un site web qui t'ai interdi ?
Il y en a plusieurs, et cjoint en fait partie. Au besoin je pourrai aller voir les images de chez moi.
[...]
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom. À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Je ne comprends pas ce que tu veux dire par « 50/50 » et « 66/33 ». Par ailleurs, je te posais une question à propos de ce qui se passe *avant* ton algo, je ne m'attendais donc pas à ce que tu parles immédiatement de l'algo lui-même. Pour rappel, tu as écrit « grossissant les images de 200% *avant* de faire le calcul » et c'est sur cette action *préliminaire* que je m'interroge.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y), et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
Encore une fois, je te parle de ce qui se passe *avant* d'appliquer la moindre règle. -- Olivier Miakinen
Stephane Legras-Decussy
Le 03/09/2019 13:54, Benoît a écrit :
Les flous c'est un peu le « hasard »,
pas du tout, c'est un défaut optique systématique... le résultat est donc mauvais et mauvais toujours de la même manière. Le point image n'arrive pas où il devrait, et cet autre endroit est toujours le même.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
o on améliore rien du tout... illusion optique. c'est comme cliquer sur sharpen dans le logiciel.
Le 03/09/2019 13:54, Benoît a écrit :
Les flous c'est un peu le « hasard »,
pas du tout, c'est un défaut optique systématique... le résultat est
donc mauvais et mauvais toujours de la même manière. Le point image
n'arrive pas où il devrait, et cet autre endroit est toujours le même.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
grossissant les images de 200% avant de faire le calcul. J'ai ma petite
idée, mais j'ai de gros doutes.
pas du tout, c'est un défaut optique systématique... le résultat est donc mauvais et mauvais toujours de la même manière. Le point image n'arrive pas où il devrait, et cet autre endroit est toujours le même.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul. J'ai ma petite idée, mais j'ai de gros doutes.
o on améliore rien du tout... illusion optique. c'est comme cliquer sur sharpen dans le logiciel.
Stephane Legras-Decussy
Le 03/09/2019 14:05, Benoît a écrit :
Stephane Legras-Decussy wrote:
Le 03/09/2019 12:16, Benoît a écrit :
Je veux accroître le piqué, donc baisser le bruit. Tous les pixels sont utiles. Là j'avais utilisé le bruit dû à un ISO élevé pour voir : ça marche. Maintenant je passe à un ISO 200.
aucun rapport... un image floue n'a aucun piqué et aucun bruit.
Bin voyons. Parce qu'un zone qui a du piqué n'est pas floue à partir d'un certain grossissement ? Prends une photo avec un 50mm de compétition, utilise-le à la place d'un 200mm. Il est passé où le piqué de la mort qui tue du 50mm ?
charabia... une chose est sure : tu prétends dès le départ que le flou est une forme de bruit, c'est TOTALEMENT FAUX, ainsi que tous raisonnements partant de ça...
Je veux accroître le piqué, donc baisser le bruit. Tous les pixels sont
utiles. Là j'avais utilisé le bruit dû à un ISO élevé pour voir : ça
marche. Maintenant je passe à un ISO 200.
aucun rapport... un image floue n'a aucun piqué et aucun bruit.
Bin voyons. Parce qu'un zone qui a du piqué n'est pas floue à partir
d'un certain grossissement ? Prends une photo avec un 50mm de
compétition, utilise-le à la place d'un 200mm. Il est passé où le piqué
de la mort qui tue du 50mm ?
charabia... une chose est sure : tu prétends dès le départ que le flou
est une forme de bruit, c'est TOTALEMENT FAUX, ainsi que tous
raisonnements partant de ça...
Je veux accroître le piqué, donc baisser le bruit. Tous les pixels sont utiles. Là j'avais utilisé le bruit dû à un ISO élevé pour voir : ça marche. Maintenant je passe à un ISO 200.
aucun rapport... un image floue n'a aucun piqué et aucun bruit.
Bin voyons. Parce qu'un zone qui a du piqué n'est pas floue à partir d'un certain grossissement ? Prends une photo avec un 50mm de compétition, utilise-le à la place d'un 200mm. Il est passé où le piqué de la mort qui tue du 50mm ?
charabia... une chose est sure : tu prétends dès le départ que le flou est une forme de bruit, c'est TOTALEMENT FAUX, ainsi que tous raisonnements partant de ça...
Stephane Legras-Decussy
Le 03/09/2019 19:57, Benoît a écrit :
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté,
même pas... c'est pas plus net, c'est un trafiquage d'image comme unsharp mask. c'est un biais humain classique de prendre l'image la plus contrastée comme "plus nette" alors que la quantité d'information est moindre.
Le 03/09/2019 19:57, Benoît a écrit :
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté,
même pas... c'est pas plus net, c'est un trafiquage d'image comme
unsharp mask.
c'est un biais humain classique de prendre l'image la plus contrastée
comme "plus nette" alors que la quantité d'information est moindre.
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté,
même pas... c'est pas plus net, c'est un trafiquage d'image comme unsharp mask. c'est un biais humain classique de prendre l'image la plus contrastée comme "plus nette" alors que la quantité d'information est moindre.
robby
On 03/09/2019 13:54, Benoît wrote:
Le principe ici utilisé est qu'une fois que tu as aligné tes images tu vas calculer chaque pixel comme la moyenne des pixels en-dessous. Ce faisant tu améliores la netteté.
en quoi n'est-ce pas équivalent à une exposition de la longueur correspondante ? ( en moins bien, car quantisation et traitement numérique auront eu lieux sur chaque image partielle plutot que finale, sans conter que caler au pixel près est duraille. d'un autre côté si la dynamique est saturée on peut gagner ainsi des bits, mais pour des photos de nuit j'y crois moyen ;-) . Par contre, s'il y a des pixels saturés, c'est encore une autre histoire.). par ailleurs il existe plein d'autres opérateurs de filtrage. la médiane plutot que la moyenne, par ex.
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel n'est pas toujours exactement celle que l'on obtiendrait avec du calcul optique.
euh, meme en parlant de l'optique de Fourier (i.e. ondulatoire), avec notion de cercle de confusion, etc ?
Les flous c'est un peu le « hasard »,
... ou au contraire du veut parler du "bruit de photon", aux basses expositions ( qu'on peut voir comme une fluctuation aléatoire autour du flux moyen )
Si je remplace ce point par un paquet de photons : j'obtiens une zone circulaire de plus en plus blanche au fur et à mesure que je me rapproche du centre. J'ai ma première photo. Je recommence et j'obtiens une deuxième photo où le point blanc est à peu près au même endroit. Et je recommence, recommence... J'obtiens plein de photos avec le point blanc à un endroit et plus je me rapproche de l'endroit parfait, plus j'ai de photos. Si je fais la moyenne j'augemente mes chances d'avoir le point blanc au bon endroit.
idem, pourquoi ne pas juste allonger le temps de pause d'une photo unique ?
- Je ne fais pas ma série de photo avec un trépied et donc à 100% au même endroit (comme refaire une enquête avec les mêmes personnes) en le tenant à la main je change constamment l'image ; - J'aligne mes images en faisant en sorte que les différences entre chacune soit minimum ;
du coup tu fais aussi en partie un moyennage spatial (imprecision du calage). Tu pourrais donc essayer directement ce filtrage spatial sur une seule photo a exposition courte.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul.
il y a plein de possibilités, qui dependent de plein de details que tu n'a pas précisés ;-) -- Fabrice
On 03/09/2019 13:54, Benoît wrote:
Le principe ici utilisé est qu'une fois que tu as aligné tes images tu
vas calculer chaque pixel comme la moyenne des pixels en-dessous. Ce
faisant tu améliores la netteté.
en quoi n'est-ce pas équivalent à une exposition de la longueur
correspondante ?
( en moins bien, car quantisation et traitement numérique auront eu
lieux sur chaque image partielle plutot que finale, sans conter que
caler au pixel près est duraille. d'un autre côté si la dynamique est
saturée on peut gagner ainsi des bits, mais pour des photos de nuit j'y
crois moyen ;-) . Par contre, s'il y a des pixels saturés, c'est encore
une autre histoire.).
par ailleurs il existe plein d'autres opérateurs de filtrage. la médiane
plutot que la moyenne, par ex.
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel
n'est pas toujours exactement celle que l'on obtiendrait avec du calcul
optique.
euh, meme en parlant de l'optique de Fourier (i.e. ondulatoire), avec
notion de cercle de confusion, etc ?
Les flous c'est un peu le « hasard »,
... ou au contraire du veut parler du "bruit de photon", aux basses
expositions ( qu'on peut voir comme une fluctuation aléatoire autour du
flux moyen )
Si je remplace ce point par un paquet de photons : j'obtiens une zone
circulaire de plus en plus blanche au fur et à mesure que je me
rapproche du centre. J'ai ma première photo. Je recommence et j'obtiens
une deuxième photo où le point blanc est à peu près au même endroit. Et
je recommence, recommence... J'obtiens plein de photos avec le point
blanc à un endroit et plus je me rapproche de l'endroit parfait, plus
j'ai de photos. Si je fais la moyenne j'augemente mes chances d'avoir le
point blanc au bon endroit.
idem, pourquoi ne pas juste allonger le temps de pause d'une photo unique ?
- Je ne fais pas ma série de photo avec un trépied et donc à 100% au
même endroit (comme refaire une enquête avec les mêmes personnes) en le
tenant à la main je change constamment l'image ;
- J'aligne mes images en faisant en sorte que les différences entre
chacune soit minimum ;
du coup tu fais aussi en partie un moyennage spatial (imprecision du
calage).
Tu pourrais donc essayer directement ce filtrage spatial sur une seule
photo a exposition courte.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
grossissant les images de 200% avant de faire le calcul.
il y a plein de possibilités, qui dependent de plein de details que tu
n'a pas précisés ;-)
Le principe ici utilisé est qu'une fois que tu as aligné tes images tu vas calculer chaque pixel comme la moyenne des pixels en-dessous. Ce faisant tu améliores la netteté.
en quoi n'est-ce pas équivalent à une exposition de la longueur correspondante ? ( en moins bien, car quantisation et traitement numérique auront eu lieux sur chaque image partielle plutot que finale, sans conter que caler au pixel près est duraille. d'un autre côté si la dynamique est saturée on peut gagner ainsi des bits, mais pour des photos de nuit j'y crois moyen ;-) . Par contre, s'il y a des pixels saturés, c'est encore une autre histoire.). par ailleurs il existe plein d'autres opérateurs de filtrage. la médiane plutot que la moyenne, par ex.
Un objectif n'étant pas parfait il crée du flou : la valeur d'un pixel n'est pas toujours exactement celle que l'on obtiendrait avec du calcul optique.
euh, meme en parlant de l'optique de Fourier (i.e. ondulatoire), avec notion de cercle de confusion, etc ?
Les flous c'est un peu le « hasard »,
... ou au contraire du veut parler du "bruit de photon", aux basses expositions ( qu'on peut voir comme une fluctuation aléatoire autour du flux moyen )
Si je remplace ce point par un paquet de photons : j'obtiens une zone circulaire de plus en plus blanche au fur et à mesure que je me rapproche du centre. J'ai ma première photo. Je recommence et j'obtiens une deuxième photo où le point blanc est à peu près au même endroit. Et je recommence, recommence... J'obtiens plein de photos avec le point blanc à un endroit et plus je me rapproche de l'endroit parfait, plus j'ai de photos. Si je fais la moyenne j'augemente mes chances d'avoir le point blanc au bon endroit.
idem, pourquoi ne pas juste allonger le temps de pause d'une photo unique ?
- Je ne fais pas ma série de photo avec un trépied et donc à 100% au même endroit (comme refaire une enquête avec les mêmes personnes) en le tenant à la main je change constamment l'image ; - J'aligne mes images en faisant en sorte que les différences entre chacune soit minimum ;
du coup tu fais aussi en partie un moyennage spatial (imprecision du calage). Tu pourrais donc essayer directement ce filtrage spatial sur une seule photo a exposition courte.
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en grossissant les images de 200% avant de faire le calcul.
il y a plein de possibilités, qui dependent de plein de details que tu n'a pas précisés ;-) -- Fabrice