Benoît wrote:Olivier Miakinen <om+ wrote:Le 03/09/2019 à 19:57, Benoît a écrit :Je passe le début de ton article, d'autant que là où je suis je n'ai
pas accès à cjoint.
Un site web qui t'ai interdi ?
Il y en a plusieurs, et cjoint en fait partie. Au besoin je pourrai
aller voir les images de chez moi.
Ok.
Peux-tu lire un des articles à l'origine de mes tests ?
https://petapixel.com/2015/02/21/a-practical-guide-to-creating-superresolu
tion-photos-with-photoshop/
On voit, entre autre, la suppression d'un effet de moiré.
Ces articles ont comme origine le fait qu'aujourd'hui des appareils sont
capables d'accroître la netteté en prenant plusieurs photos en décalant
le capteur d'un ou plusieurs pixels par des mouvements haut ou bas ou
droite ou gauche. Je reste sur les case noires d'un échiquier avec un
mouvement de 1 capteur.
Pour ce faire il vaut mieux que l'appareil soit sur un trépied, ou que
l'écart entre chaque prise de vue soit tellement faible que cela ne
change pas, ou peu le résultat.[...]Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
grossissant les images de 200% avant de faire le calcul. J'ai ma
petite
idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom.
À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre
grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de
départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il
y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels
alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je
suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Je ne comprends pas ce que tu veux dire par « 50/50 » et « 66/33 ».
Ce que j'entends par là c'est qu'à chaque fois que je calcule un point
je peux choisir la façon dont je le calcule. Je prends la moitié ou un
tiers de la valeur de ceux qui le touche par exemple je peux aussi
prendre la valeur médiane.Par ailleurs, je te posais une question à propos de ce qui se passe
*avant* ton algo, je ne m'attendais donc pas à ce que tu parles
immédiatement de l'algo lui-même.
Pour rappel, tu as écrit « grossissant les images de 200% *avant* de
faire le calcul » et c'est sur cette action *préliminaire* que je
m'interroge.
Moi aussi, je ne comprends pas pourquoi on doit agrandir l'image avant
de faire les calculs. La seule chose est que cet agrandissement est
accompagné d'un algo « nearest neighbor » qui commence à améliorer la
netteté. Si j'ai un pixel 100% noir, je n'obtiens pas un bloc de quatre
pixels noirs.Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y),
et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
Encore une fois, je te parle de ce qui se passe *avant* d'appliquer
la moindre règle.
Voici la procédure :
1 Import all photos as stack of layers
Je n'ai plus qu'un seul fichier avec une couche par photo et je
ne vois que celle qui est sur le dessus de la pile.
2 Resize image to 4x resolution (200% width/height)
Use the "Nearest Neighbor" resample algorithm. You can also use
"Preserve Details" but I prefer "Nearest Neighbor" as it does not
oversharpen.
3 Auto-align layers
4 Average layers
Pour cette dernière étape il y a deux techniques :
- Je change l'opacité de chaque couche en partant du bas :
100% la première, 50% la seconde, 33% la troisième... ;
- Je calcule la moyenne ou la médiane.
Voici le résultat obtenu avec 15 images :
0 Image de base
http://www.leraillez.com/Capture_Ecran_0.jpg
1 Agrandissement de 200%
http://www.leraillez.com/Capture_Ecran_1.jpg
2 Image finale
http://www.leraillez.com/Capture_Ecran_2.jpg
Quelques commentaires :
- Les rayures sur le frigo deviennent visibles ;
- Quasiment tous les chiffres sont lisibles ;
- Les haubans & Co sont nets.
- Le bruit est fortement réduit puisque les aplats de couleur sur les
imprimés le sont à nouveau.
Images 1 et 2 complètes :
http://www.leraillez.com/Untitled1.jpg
http://www.leraillez.com/Untitled2.jpg
Benoît <benoit@com.invalid> wrote:
Olivier Miakinen <om+news@miakinen.net> wrote:
Le 03/09/2019 à 19:57, Benoît a écrit :
Je passe le début de ton article, d'autant que là où je suis je n'ai
pas accès à cjoint.
Un site web qui t'ai interdi ?
Il y en a plusieurs, et cjoint en fait partie. Au besoin je pourrai
aller voir les images de chez moi.
Ok.
Peux-tu lire un des articles à l'origine de mes tests ?
https://petapixel.com/2015/02/21/a-practical-guide-to-creating-superresolu
tion-photos-with-photoshop/
On voit, entre autre, la suppression d'un effet de moiré.
Ces articles ont comme origine le fait qu'aujourd'hui des appareils sont
capables d'accroître la netteté en prenant plusieurs photos en décalant
le capteur d'un ou plusieurs pixels par des mouvements haut ou bas ou
droite ou gauche. Je reste sur les case noires d'un échiquier avec un
mouvement de 1 capteur.
Pour ce faire il vaut mieux que l'appareil soit sur un trépied, ou que
l'écart entre chaque prise de vue soit tellement faible que cela ne
change pas, ou peu le résultat.
[...]
Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
grossissant les images de 200% avant de faire le calcul. J'ai ma
petite
idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom.
À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre
grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de
départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il
y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels
alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je
suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Je ne comprends pas ce que tu veux dire par « 50/50 » et « 66/33 ».
Ce que j'entends par là c'est qu'à chaque fois que je calcule un point
je peux choisir la façon dont je le calcule. Je prends la moitié ou un
tiers de la valeur de ceux qui le touche par exemple je peux aussi
prendre la valeur médiane.
Par ailleurs, je te posais une question à propos de ce qui se passe
*avant* ton algo, je ne m'attendais donc pas à ce que tu parles
immédiatement de l'algo lui-même.
Pour rappel, tu as écrit « grossissant les images de 200% *avant* de
faire le calcul » et c'est sur cette action *préliminaire* que je
m'interroge.
Moi aussi, je ne comprends pas pourquoi on doit agrandir l'image avant
de faire les calculs. La seule chose est que cet agrandissement est
accompagné d'un algo « nearest neighbor » qui commence à améliorer la
netteté. Si j'ai un pixel 100% noir, je n'obtiens pas un bloc de quatre
pixels noirs.
Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y),
et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
Encore une fois, je te parle de ce qui se passe *avant* d'appliquer
la moindre règle.
Voici la procédure :
1 Import all photos as stack of layers
Je n'ai plus qu'un seul fichier avec une couche par photo et je
ne vois que celle qui est sur le dessus de la pile.
2 Resize image to 4x resolution (200% width/height)
Use the "Nearest Neighbor" resample algorithm. You can also use
"Preserve Details" but I prefer "Nearest Neighbor" as it does not
oversharpen.
3 Auto-align layers
4 Average layers
Pour cette dernière étape il y a deux techniques :
- Je change l'opacité de chaque couche en partant du bas :
100% la première, 50% la seconde, 33% la troisième... ;
- Je calcule la moyenne ou la médiane.
Voici le résultat obtenu avec 15 images :
0 Image de base
http://www.leraillez.com/Capture_Ecran_0.jpg
1 Agrandissement de 200%
http://www.leraillez.com/Capture_Ecran_1.jpg
2 Image finale
http://www.leraillez.com/Capture_Ecran_2.jpg
Quelques commentaires :
- Les rayures sur le frigo deviennent visibles ;
- Quasiment tous les chiffres sont lisibles ;
- Les haubans & Co sont nets.
- Le bruit est fortement réduit puisque les aplats de couleur sur les
imprimés le sont à nouveau.
Images 1 et 2 complètes :
http://www.leraillez.com/Untitled1.jpg
http://www.leraillez.com/Untitled2.jpg
Benoît wrote:Olivier Miakinen <om+ wrote:Le 03/09/2019 à 19:57, Benoît a écrit :Je passe le début de ton article, d'autant que là où je suis je n'ai
pas accès à cjoint.
Un site web qui t'ai interdi ?
Il y en a plusieurs, et cjoint en fait partie. Au besoin je pourrai
aller voir les images de chez moi.
Ok.
Peux-tu lire un des articles à l'origine de mes tests ?
https://petapixel.com/2015/02/21/a-practical-guide-to-creating-superresolu
tion-photos-with-photoshop/
On voit, entre autre, la suppression d'un effet de moiré.
Ces articles ont comme origine le fait qu'aujourd'hui des appareils sont
capables d'accroître la netteté en prenant plusieurs photos en décalant
le capteur d'un ou plusieurs pixels par des mouvements haut ou bas ou
droite ou gauche. Je reste sur les case noires d'un échiquier avec un
mouvement de 1 capteur.
Pour ce faire il vaut mieux que l'appareil soit sur un trépied, ou que
l'écart entre chaque prise de vue soit tellement faible que cela ne
change pas, ou peu le résultat.[...]Maintenant j'aimerai comprendre pourquoi on améliore le résultat en
grossissant les images de 200% avant de faire le calcul. J'ai ma
petite
idée, mais j'ai de gros doutes.
Pour te répondre, il faudrait savoir comment est fait le zoom.
À priori, un pixel à (2x, 2y) de l'image grossie devrait correspondre
grosso modo à ce qu'on trouve aux alentours de (x, y) de l'image de
départ, mais est-ce que l'on trouve exactement en (2x, 2y) ce qu'il
y avait en (x, y), ou bien est-ce que c'est une moyenne des pixels
alentours ?
Je ne sais pas, mais comme l'algo permet « d'accroître » la netteté, je
suppose que ce n'est pas du 50/50 mais 66/33 par exemple.
Je ne comprends pas ce que tu veux dire par « 50/50 » et « 66/33 ».
Ce que j'entends par là c'est qu'à chaque fois que je calcule un point
je peux choisir la façon dont je le calcule. Je prends la moitié ou un
tiers de la valeur de ceux qui le touche par exemple je peux aussi
prendre la valeur médiane.Par ailleurs, je te posais une question à propos de ce qui se passe
*avant* ton algo, je ne m'attendais donc pas à ce que tu parles
immédiatement de l'algo lui-même.
Pour rappel, tu as écrit « grossissant les images de 200% *avant* de
faire le calcul » et c'est sur cette action *préliminaire* que je
m'interroge.
Moi aussi, je ne comprends pas pourquoi on doit agrandir l'image avant
de faire les calculs. La seule chose est que cet agrandissement est
accompagné d'un algo « nearest neighbor » qui commence à améliorer la
netteté. Si j'ai un pixel 100% noir, je n'obtiens pas un bloc de quatre
pixels noirs.Même question pour les pixels d'arrivée à (2x, 2y+1), à (2x+1, 2y),
et à (2x+1, 2y+1).
Il faut déjà appliqué la règle 1 avant de voir ce que fait la 2.
Encore une fois, je te parle de ce qui se passe *avant* d'appliquer
la moindre règle.
Voici la procédure :
1 Import all photos as stack of layers
Je n'ai plus qu'un seul fichier avec une couche par photo et je
ne vois que celle qui est sur le dessus de la pile.
2 Resize image to 4x resolution (200% width/height)
Use the "Nearest Neighbor" resample algorithm. You can also use
"Preserve Details" but I prefer "Nearest Neighbor" as it does not
oversharpen.
3 Auto-align layers
4 Average layers
Pour cette dernière étape il y a deux techniques :
- Je change l'opacité de chaque couche en partant du bas :
100% la première, 50% la seconde, 33% la troisième... ;
- Je calcule la moyenne ou la médiane.
Voici le résultat obtenu avec 15 images :
0 Image de base
http://www.leraillez.com/Capture_Ecran_0.jpg
1 Agrandissement de 200%
http://www.leraillez.com/Capture_Ecran_1.jpg
2 Image finale
http://www.leraillez.com/Capture_Ecran_2.jpg
Quelques commentaires :
- Les rayures sur le frigo deviennent visibles ;
- Quasiment tous les chiffres sont lisibles ;
- Les haubans & Co sont nets.
- Le bruit est fortement réduit puisque les aplats de couleur sur les
imprimés le sont à nouveau.
Images 1 et 2 complètes :
http://www.leraillez.com/Untitled1.jpg
http://www.leraillez.com/Untitled2.jpg
Le 05/09/2019 13:11, Benoît a écrit :- Le bruit c'est le capteur, dans le cas que je viens de donner, et la
solution : plusieurs images dont ni le sujet, ni le capteur bougent. Le
bruit n'étant pas identique entre chaque prise de vue je peux le
réduire, voire le supprimer en prenant beaucoup,
voilà, tu as compris
- La netteté ce sont les défauts de l'optique qui ne sait pas distinguer
des détails
voilà, tu as compris
et donc ?
Le 05/09/2019 13:11, Benoît a écrit :
> - Le bruit c'est le capteur, dans le cas que je viens de donner, et la
> solution : plusieurs images dont ni le sujet, ni le capteur bougent. Le
> bruit n'étant pas identique entre chaque prise de vue je peux le
> réduire, voire le supprimer en prenant beaucoup,
voilà, tu as compris
> - La netteté ce sont les défauts de l'optique qui ne sait pas distinguer
> des détails
>
voilà, tu as compris
et donc ?
Le 05/09/2019 13:11, Benoît a écrit :- Le bruit c'est le capteur, dans le cas que je viens de donner, et la
solution : plusieurs images dont ni le sujet, ni le capteur bougent. Le
bruit n'étant pas identique entre chaque prise de vue je peux le
réduire, voire le supprimer en prenant beaucoup,
voilà, tu as compris
- La netteté ce sont les défauts de l'optique qui ne sait pas distinguer
des détails
voilà, tu as compris
et donc ?
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
Le 05/09/2019 13:38, Benoît a écrit :Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
là tu te plantes completement (comme te l'a déja dit efji), c'est la
technique du pixel shifting, le décalage est du 1/2 pixel, c'est des
micron ! tu ne peux pas faire ça, ni même approcher le résultat en
bougeant l'appareil à la main.
et aucun de tes essais ne montre une image plus nette qu'avant.
Le 05/09/2019 13:38, Benoît a écrit :
Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
là tu te plantes completement (comme te l'a déja dit efji), c'est la
technique du pixel shifting, le décalage est du 1/2 pixel, c'est des
micron ! tu ne peux pas faire ça, ni même approcher le résultat en
bougeant l'appareil à la main.
et aucun de tes essais ne montre une image plus nette qu'avant.
Le 05/09/2019 13:38, Benoît a écrit :Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
là tu te plantes completement (comme te l'a déja dit efji), c'est la
technique du pixel shifting, le décalage est du 1/2 pixel, c'est des
micron ! tu ne peux pas faire ça, ni même approcher le résultat en
bougeant l'appareil à la main.
et aucun de tes essais ne montre une image plus nette qu'avant.
et aucun de tes essais ne montre une image plus nette qu'avant.
et aucun de tes essais ne montre une image plus nette qu'avant.
et aucun de tes essais ne montre une image plus nette qu'avant.
s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
effectué par translation du capteur dans l'appareil.
s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
effectué par translation du capteur dans l'appareil.
s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
effectué par translation du capteur dans l'appareil.
On 05/09/2019 14:21, Stephane Legras-Decussy wrote:Le 05/09/2019 13:38, Benoît a écrit :Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
là tu te plantes completement (comme te l'a déja dit efji), c'est la
technique du pixel shifting, le décalage est du 1/2 pixel, c'est des
micron ! tu ne peux pas faire ça, ni même approcher le résultat en
bougeant l'appareil à la main.
et aucun de tes essais ne montre une image plus nette qu'avant.
Il y a déjà un problème au départ : tu prends 2 images à main levée et
tu veux les superposer. Il faut donc commencer par les aligner et faire
subir à l'une d'elles une transformation géométrique
(rotation+translation) qui, une fois reprojetée sur une grille
cartésienne va te rajouter un flou de diffusion de l'ordre de 1 pixel.
Cette opération d'alignement doit être très très précise si tu veux
arriver à un résultat satisfaisant. Ensuite, en effet en doublant la
résolution des images de départ (avant de les aligner!) et en
superposant, il est probablement possible de gagner un peu de résolution
spatiale comme le montre le lien que tu as donné. Mais il ne faut pas
s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
effectué par translation du capteur dans l'appareil.
On 05/09/2019 14:21, Stephane Legras-Decussy wrote:
> Le 05/09/2019 13:38, Benoît a écrit :
>
>> Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
>> en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
>> plus d'information puisque les défauts passent d'un endroit à un autre
>> sur le capteur : j'obtiens une photo plus nette et des détails
>> apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
>>
>> Comme mon appareil ne sait pas bouger le capteur seul, je le fais
>> moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
>> pense, puisque je déplace et le capteur et l'optique, mais cela permet
>> de récupérer plus d'information et donc avoir une image plus nette.
>
> là tu te plantes completement (comme te l'a déja dit efji), c'est la
> technique du pixel shifting, le décalage est du 1/2 pixel, c'est des
> micron ! tu ne peux pas faire ça, ni même approcher le résultat en
> bougeant l'appareil à la main.
>
> et aucun de tes essais ne montre une image plus nette qu'avant.
Il y a déjà un problème au départ : tu prends 2 images à main levée et
tu veux les superposer. Il faut donc commencer par les aligner et faire
subir à l'une d'elles une transformation géométrique
(rotation+translation) qui, une fois reprojetée sur une grille
cartésienne va te rajouter un flou de diffusion de l'ordre de 1 pixel.
Cette opération d'alignement doit être très très précise si tu veux
arriver à un résultat satisfaisant. Ensuite, en effet en doublant la
résolution des images de départ (avant de les aligner!) et en
superposant, il est probablement possible de gagner un peu de résolution
spatiale comme le montre le lien que tu as donné. Mais il ne faut pas
s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
effectué par translation du capteur dans l'appareil.
On 05/09/2019 14:21, Stephane Legras-Decussy wrote:Le 05/09/2019 13:38, Benoît a écrit :Puisque les défauts ne sont pas uniformes, si je prends plusieurs photos
en déplaçant le capteur, mais ni l'optique, ni le sujet, je récupère
plus d'information puisque les défauts passent d'un endroit à un autre
sur le capteur : j'obtiens une photo plus nette et des détails
apparaîssent. Ça c'est ce que font les nouveaux appareil comme le K-1.
Comme mon appareil ne sait pas bouger le capteur seul, je le fais
moi-même en déplaçant l'appareil. Ce n'est pas aussi performant, je
pense, puisque je déplace et le capteur et l'optique, mais cela permet
de récupérer plus d'information et donc avoir une image plus nette.
là tu te plantes completement (comme te l'a déja dit efji), c'est la
technique du pixel shifting, le décalage est du 1/2 pixel, c'est des
micron ! tu ne peux pas faire ça, ni même approcher le résultat en
bougeant l'appareil à la main.
et aucun de tes essais ne montre une image plus nette qu'avant.
Il y a déjà un problème au départ : tu prends 2 images à main levée et
tu veux les superposer. Il faut donc commencer par les aligner et faire
subir à l'une d'elles une transformation géométrique
(rotation+translation) qui, une fois reprojetée sur une grille
cartésienne va te rajouter un flou de diffusion de l'ordre de 1 pixel.
Cette opération d'alignement doit être très très précise si tu veux
arriver à un résultat satisfaisant. Ensuite, en effet en doublant la
résolution des images de départ (avant de les aligner!) et en
superposant, il est probablement possible de gagner un peu de résolution
spatiale comme le montre le lien que tu as donné. Mais il ne faut pas
s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
effectué par translation du capteur dans l'appareil.
Le 05/09/2019 à 14:30, efji a écrit :s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"je me pose une question, en relation avec le fonctionnement du système
effectué par translation du capteur dans l'appareil.
de stabilisation...
ce système fonctionne (en résumant) par déplacement du capteur.
Ne serait-il pas logique d'en déduire que deux images d'une rafale prise
sur pied auront un très léger décalage dû à ce système?
Le 05/09/2019 à 14:30, efji a écrit :
> s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"
> effectué par translation du capteur dans l'appareil.
>
je me pose une question, en relation avec le fonctionnement du système
de stabilisation...
ce système fonctionne (en résumant) par déplacement du capteur.
Ne serait-il pas logique d'en déduire que deux images d'une rafale prise
sur pied auront un très léger décalage dû à ce système?
Le 05/09/2019 à 14:30, efji a écrit :s'attendre à des miracles, ni à l'équivalent du vrai "pixel shift"je me pose une question, en relation avec le fonctionnement du système
effectué par translation du capteur dans l'appareil.
de stabilisation...
ce système fonctionne (en résumant) par déplacement du capteur.
Ne serait-il pas logique d'en déduire que deux images d'une rafale prise
sur pied auront un très léger décalage dû à ce système?