Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Photo =c2=b54/3 stup=c3=a9fiante!

80 réponses
Avatar
Thierry Houx
Ben voilà, je suis vraiment scotché et ça m'amène pas mal de questions,
mais voyons l'objet:
https://www.flickr.com/photos/pepernc/49702557431/
Cliquez sur l'oeil de la bête, et profitez!

Bon, le matériel de prise de vue est un boitier Lumix G9 et l'objectif
Leica 100-400, le boitier utilisé dans sa capacité 80Mpx.
Et moi qui avait pris en compte le raisonnement de GR sur le nombre de
lignes que pouvait au mieux donner un objectif pour déduire que la
montée en résolution ne présentait pas d'intérêt, je trouve là que tout
est par terre puisque là on déplace le capteur pour prendre à une
définition 4x supérieure.
Le gars qui a fait la photo est en nouvelle Calédonie, donc au point de
vue lumière ça ne manque pas, ce n'est toutefois pas suffisant pour
expliquer tout.
In fine, j'en suis à penser que la montée en résolution sur le µ4/3 a
encore de la marge, me trompe-je ?

10 réponses

4 5 6 7 8
Avatar
benoit
Ghost-Raider wrote:
Le 28/03/2020 à 12:05, Benoît a écrit :
Ghost-Raider wrote:
Je me cite :
> Ce qui est intéressant c'est que les meilleures optiques pour le
> FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs
> des cas, y compris dans les angles. Avec un capteur APS de environ
> 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208
> 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16
> MPX. Où est l'erreur ?

Une question à ce propos. Quelle est la taille d'un capteur de téléphone
et celle de l'image qu'il produit ?

Ils sont tout petits, quelques millimètres de côté, mais comme ils sont
très ouverts et sans diaphragme, la diffraction est limitée et les
constructeurs parviennent à des définitions très élevées.

C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la
profondeur de champ avec leur grand angle et des puces qui doivent
dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup
de lumière.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoît chez leraillez.com
Avatar
efji
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été
effrayé de voir à quel point le capteur se balade !

Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la
première fois. J'avais l'habitude avec le GX1 qui n'avait pas de
stabilisateur, et là ça fout les jetons.
--
F.J.
Avatar
Ghost-Raider
Le 28/03/2020 à 19:03, efji a écrit :
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été
effrayé de voir à quel point le capteur se balade !

Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la
première fois. J'avais l'habitude avec le GX1 qui n'avait pas de
stabilisateur, et là ça fout les jetons.

Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur
n'envahirait pas ton pauvre c½ur.
Avatar
Ghost-Raider
Le 28/03/2020 à 18:49, Benoît a écrit :
Ghost-Raider wrote:
Le 28/03/2020 à 12:05, Benoît a écrit :
Ghost-Raider wrote:
Je me cite :
Ce qui est intéressant c'est que les meilleures optiques pour le
FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs
des cas, y compris dans les angles. Avec un capteur APS de environ
23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208
000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16
MPX. Où est l'erreur ?


Une question à ce propos. Quelle est la taille d'un capteur de téléphone
et celle de l'image qu'il produit ?

Ils sont tout petits, quelques millimètres de côté, mais comme ils sont
très ouverts et sans diaphragme, la diffraction est limitée et les
constructeurs parviennent à des définitions très élevées.

C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la
profondeur de champ avec leur grand angle et des puces qui doivent
dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup
de lumière.

C'est aussi parce que mécaniquement, c'est bien plus simple.
Initialement, les objectifs des smartphones étaient réglés sur
l'hyperfocale. Ce n'est plus le cas et ils ont un mécanisme de mise au
point. Y ajouter un diaphragme en augmenterait de beaucoup le coût alors
que la vitesse est facilement réglable.
Avatar
benoit
René wrote:
Le samedi 28 mars 2020 09:03:09 UTC-4, Ghost-Raider a écrit :
Le 28/03/2020 à 13:50, jdd a écrit :
> Le 28/03/2020 à 13:12, Ghost-Raider a écrit :
>
>> Le reste, c'est du traitement mécanique : déplacement du capteur, ou
>> électronique.
>
> mais s'agissant en fait de *plusieurs* images, ton raisonnement ne tient
> plus
>
> c'est comme dans un panoramique, en multipliant les images tu multiplie
> la définition.
Pas exactement. Un panoramique élargit le champ, pas le déplacement du
capteur.
Là, on double les détails, à supposer que l'optique suive.
>

C'est la combinaison de 2 ou plusieurs images qui apportent davantage
de précision comme lorsque nous regardons au travers d'un moustiquaire
ou un léger déplacement permet de mieux voir.
Théoriquement: soit une image numérique de haute définition et de haute
qualité. Il serait possible de l'imiter en utilisant un appareil de basse
définition et qualité en faisant une mosaïque, à la limite pixel par pixel.

+1
Un peu comme si tu enregistres un son avec plusieurs micors : tu auras
un meilleur enregistrement avec les défauts des uns compensés par les
autres. Ce n'est pas parfait, mais c'est mieux. Beaucoup mieux.
Idem avec les news : si tu lis plusieurs articles tu vas te faire une
meilleure idée, personnelle, de l'évènement.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoît chez leraillez.com
Avatar
benoit
René wrote:
Le samedi 28 mars 2020 06:03:18 UTC-4, efji a écrit :
Le 28/03/2020 à 10:38, Thierry Houx a écrit :
>>
> Ce que tu supposes, et que je ne sais pas, c'est s'il est possible de
> combiner le stacking + le 80Mpx sur le G9. Ça me paraît beaucoup.
> Par contre, AMHA, oui le pied est obligatoire dans ce cas.
Non j'appelle stacking le procédé de pixel shift car c'est la même chose
sur le fond: on superpose plusieurs images pour en faire une seule. En
effet je croyais que le pied était obligatoire et on voit clairement
dans le reflet qu'il est à main levée.
--
F.J.

Attention. Le pixel shift est supposé permettre la lecture de pixels
moyens situés entre les pixels normalement captés.

Non, le pixel shift, d'un certain point de vue, permet à chaque pixel
d'être créé par ce qu'un reçoit et non ce que reçoivent les capteurs
d'à-côté.
Image normale pour une image normale : je prends, un capteur bleu, par
exemple, les capteurs les données de capteurs rouge et vert qui
l'entoure et je définis un pixel. Là, par contre, chaque pixel créé
prend en compte ce qu'ont reçu les capteurs voisins sur une image
normale.
Exemple avec une ligne de capteurs rvrvrvrv : normalement je prends la
valeur du rouge de gauche (ou le contraire), celui qui est vert à droite
et le bleu en-dessous) pour créer un pixel. Cette fois-ci je créé ausi
un pixel qui prend la moitié de mon rouge, de mon vert et idem
en-dessous, la moitité des bleus et des verts au-dessus et en dessous.
Bon, c'est trop compliqué pour que je sache l'expliquer simplement à
cette bande de bozos.
Et Hop !
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoît chez leraillez.com
Avatar
efji
Le 28/03/2020 à 21:06, Ghost-Raider a écrit :
Le 28/03/2020 à 19:03, efji a écrit :
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été
effrayé de voir à quel point le capteur se balade !

Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la
première fois. J'avais l'habitude avec le GX1 qui n'avait pas de
stabilisateur, et là ça fout les jetons.

Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur
n'envahirait pas ton pauvre c½ur.

J'ai les deux mon ami, capteur stabilisé et objectif stabilisé ("dual
stabilization" qu'ils l'appellent), ceinture et bretelles!
--
F.J. @efjiphotography
Avatar
Stephane Legras-Decussy
Le 28/03/2020 10:07, jdd a écrit :
Le 28/03/2020 à 09:51, Jacques DASSIÉ a écrit :
https://archaero.com/TAMPON/Rainette-G10.jpg

j'en avais plein dans mon jardin quand j'étais gosse, mais là ca fait
des années que je n'en ai plus vu :-(

c'est normal, tout le monde assèche les mares et points d'eau pour
garer des bagnoles et mettre des nains de jardin en lotissement.
chez moi ça grouille... car je fais tout pour.
Grenouille, hérisson, abeille, frelon (là je les ai flingué tous faut
pas déconner)... et aussi biches, chouettes, chauve-souris dans le
jardin :-)
pas encore vu de sanglier mais je le sens bien vu le roncier que je prépare.
Avatar
Stephane Legras-Decussy
Le 28/03/2020 14:11, Alf92 a écrit :
Jacques DASSIÉ :
Vous devez travailler sur l'oeil. Si je regade l'image, elle n'est pas
terrible, malgré la résolution...
Je me contente de capteurs plus modestes.
https://archaero.com/TAMPON/Rainette-G10.jpg

flou sur l'oeil

surtout le flash inutile sur cette bête totalement immobile et des plus
simple à photographier...
Avatar
Markorki
René a écrit :
Le samedi 28 mars 2020 16:19:26 UTC-4, Benoît a écrit :
Et puis technique du pixel shift réponds en partie à la question suivante:
Sur un cateur il y a une certain espacement entre les photosites.
Qu'y a-t-il comme lumière et comme détail de l'image dans ces espaces non
lus?

Entre autres, la surface entre les différents photosites héberge le cablage des
photosites : lignes et colonnes de lecture, interconnexions, etc..
La surface du capteur n'est pas utilisée à 100% par des photosites, la surface
"perdue" est échantillonnée au cours d'un déplacement du capteur.
--
"La prévoyance est une des supériorités de l'Européen sur l'indigène,
l'imprévoyance incarnée."
in "L'agriculture pratique des pays chauds" (Bulletin du Jardin Colonial, 1905,
Ministère des colonies)
4 5 6 7 8