Ben voilà, je suis vraiment scotché et ça m'amène pas mal de questions,
mais voyons l'objet:
https://www.flickr.com/photos/pepernc/49702557431/
Cliquez sur l'oeil de la bête, et profitez!
Bon, le matériel de prise de vue est un boitier Lumix G9 et l'objectif
Leica 100-400, le boitier utilisé dans sa capacité 80Mpx.
Et moi qui avait pris en compte le raisonnement de GR sur le nombre de
lignes que pouvait au mieux donner un objectif pour déduire que la
montée en résolution ne présentait pas d'intérêt, je trouve là que tout
est par terre puisque là on déplace le capteur pour prendre à une
définition 4x supérieure.
Le gars qui a fait la photo est en nouvelle Calédonie, donc au point de
vue lumière ça ne manque pas, ce n'est toutefois pas suffisant pour
expliquer tout.
In fine, j'en suis à penser que la montée en résolution sur le µ4/3 a
encore de la marge, me trompe-je ?
Je me cite : > Ce qui est intéressant c'est que les meilleures optiques pour le > FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs > des cas, y compris dans les angles. Avec un capteur APS de environ > 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208 > 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16 > MPX. Où est l'erreur ?
Une question à ce propos. Quelle est la taille d'un capteur de téléphone et celle de l'image qu'il produit ?
Ils sont tout petits, quelques millimètres de côté, mais comme ils sont très ouverts et sans diaphragme, la diffraction est limitée et les constructeurs parviennent à des définitions très élevées.
C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la profondeur de champ avec leur grand angle et des puces qui doivent dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup de lumière. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoît chez leraillez.com
Ghost-Raider <ghost-raider@compuserve.com> wrote:
Le 28/03/2020 à 12:05, Benoît a écrit :
> Ghost-Raider <ghost-raider@compuserve.com> wrote:
>
>> Je me cite :
>> > Ce qui est intéressant c'est que les meilleures optiques pour le
>> > FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs
>> > des cas, y compris dans les angles. Avec un capteur APS de environ
>> > 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208
>> > 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16
>> > MPX. Où est l'erreur ?
>
> Une question à ce propos. Quelle est la taille d'un capteur de téléphone
> et celle de l'image qu'il produit ?
Ils sont tout petits, quelques millimètres de côté, mais comme ils sont
très ouverts et sans diaphragme, la diffraction est limitée et les
constructeurs parviennent à des définitions très élevées.
C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la
profondeur de champ avec leur grand angle et des puces qui doivent
dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup
de lumière.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoît chez leraillez.com
Je me cite : > Ce qui est intéressant c'est que les meilleures optiques pour le > FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs > des cas, y compris dans les angles. Avec un capteur APS de environ > 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208 > 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16 > MPX. Où est l'erreur ?
Une question à ce propos. Quelle est la taille d'un capteur de téléphone et celle de l'image qu'il produit ?
Ils sont tout petits, quelques millimètres de côté, mais comme ils sont très ouverts et sans diaphragme, la diffraction est limitée et les constructeurs parviennent à des définitions très élevées.
C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la profondeur de champ avec leur grand angle et des puces qui doivent dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup de lumière. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoît chez leraillez.com
efji
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la première fois. J'avais l'habitude avec le GX1 qui n'avait pas de stabilisateur, et là ça fout les jetons. -- F.J.
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été
effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la
première fois. J'avais l'habitude avec le GX1 qui n'avait pas de
stabilisateur, et là ça fout les jetons.
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la première fois. J'avais l'habitude avec le GX1 qui n'avait pas de stabilisateur, et là ça fout les jetons. -- F.J.
Ghost-Raider
Le 28/03/2020 à 19:03, efji a écrit :
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la première fois. J'avais l'habitude avec le GX1 qui n'avait pas de stabilisateur, et là ça fout les jetons.
Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur n'envahirait pas ton pauvre c½ur.
Le 28/03/2020 à 19:03, efji a écrit :
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été
effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la
première fois. J'avais l'habitude avec le GX1 qui n'avait pas de
stabilisateur, et là ça fout les jetons.
Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur
n'envahirait pas ton pauvre c½ur.
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la première fois. J'avais l'habitude avec le GX1 qui n'avait pas de stabilisateur, et là ça fout les jetons.
Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur n'envahirait pas ton pauvre c½ur.
Ghost-Raider
Le 28/03/2020 à 18:49, Benoît a écrit :
Ghost-Raider wrote:
Le 28/03/2020 à 12:05, Benoît a écrit :
Ghost-Raider wrote:
Je me cite :
Ce qui est intéressant c'est que les meilleures optiques pour le FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs des cas, y compris dans les angles. Avec un capteur APS de environ 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16 MPX. Où est l'erreur ?
Une question à ce propos. Quelle est la taille d'un capteur de téléphone et celle de l'image qu'il produit ?
Ils sont tout petits, quelques millimètres de côté, mais comme ils sont très ouverts et sans diaphragme, la diffraction est limitée et les constructeurs parviennent à des définitions très élevées.
C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la profondeur de champ avec leur grand angle et des puces qui doivent dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup de lumière.
C'est aussi parce que mécaniquement, c'est bien plus simple. Initialement, les objectifs des smartphones étaient réglés sur l'hyperfocale. Ce n'est plus le cas et ils ont un mécanisme de mise au point. Y ajouter un diaphragme en augmenterait de beaucoup le coût alors que la vitesse est facilement réglable.
Le 28/03/2020 à 18:49, Benoît a écrit :
Ghost-Raider <ghost-raider@compuserve.com> wrote:
Le 28/03/2020 à 12:05, Benoît a écrit :
Ghost-Raider <ghost-raider@compuserve.com> wrote:
Je me cite :
> Ce qui est intéressant c'est que les meilleures optiques pour le
> FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs
> des cas, y compris dans les angles. Avec un capteur APS de environ
> 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208
> 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16
> MPX. Où est l'erreur ?
Une question à ce propos. Quelle est la taille d'un capteur de téléphone
et celle de l'image qu'il produit ?
Ils sont tout petits, quelques millimètres de côté, mais comme ils sont
très ouverts et sans diaphragme, la diffraction est limitée et les
constructeurs parviennent à des définitions très élevées.
C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la
profondeur de champ avec leur grand angle et des puces qui doivent
dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup
de lumière.
C'est aussi parce que mécaniquement, c'est bien plus simple.
Initialement, les objectifs des smartphones étaient réglés sur
l'hyperfocale. Ce n'est plus le cas et ils ont un mécanisme de mise au
point. Y ajouter un diaphragme en augmenterait de beaucoup le coût alors
que la vitesse est facilement réglable.
Ce qui est intéressant c'est que les meilleures optiques pour le FUJI X1 sépareraient 80 lignes par millimètre dans les meilleurs des cas, y compris dans les angles. Avec un capteur APS de environ 23 x 15 mm, ça fait une résolution totale de 23x80x15x80 = 2 208 000 lignes?, soit 2 208 000 x 2 x 2 = 8 832 000 pixels ! Et pas 16 MPX. Où est l'erreur ?
Une question à ce propos. Quelle est la taille d'un capteur de téléphone et celle de l'image qu'il produit ?
Ils sont tout petits, quelques millimètres de côté, mais comme ils sont très ouverts et sans diaphragme, la diffraction est limitée et les constructeurs parviennent à des définitions très élevées.
C'est sûr qu'ils n'ont pas besoin de diaphragme pour jouer sur la profondeur de champ avec leur grand angle et des puces qui doivent dépasser le MHz et peuvent donc monter dans les tours s'il y a beaucoup de lumière.
C'est aussi parce que mécaniquement, c'est bien plus simple. Initialement, les objectifs des smartphones étaient réglés sur l'hyperfocale. Ce n'est plus le cas et ils ont un mécanisme de mise au point. Y ajouter un diaphragme en augmenterait de beaucoup le coût alors que la vitesse est facilement réglable.
benoit
René wrote:
Le samedi 28 mars 2020 09:03:09 UTC-4, Ghost-Raider a écrit :
Le 28/03/2020 à 13:50, jdd a écrit : > Le 28/03/2020 à 13:12, Ghost-Raider a écrit : > >> Le reste, c'est du traitement mécanique : déplacement du capteur, ou >> électronique. > > mais s'agissant en fait de *plusieurs* images, ton raisonnement ne tient > plus > > c'est comme dans un panoramique, en multipliant les images tu multiplie > la définition. Pas exactement. Un panoramique élargit le champ, pas le déplacement du capteur. Là, on double les détails, à supposer que l'optique suive. >
C'est la combinaison de 2 ou plusieurs images qui apportent davantage de précision comme lorsque nous regardons au travers d'un moustiquaire ou un léger déplacement permet de mieux voir. Théoriquement: soit une image numérique de haute définition et de haute qualité. Il serait possible de l'imiter en utilisant un appareil de basse définition et qualité en faisant une mosaïque, à la limite pixel par pixel.
+1 Un peu comme si tu enregistres un son avec plusieurs micors : tu auras un meilleur enregistrement avec les défauts des uns compensés par les autres. Ce n'est pas parfait, mais c'est mieux. Beaucoup mieux. Idem avec les news : si tu lis plusieurs articles tu vas te faire une meilleure idée, personnelle, de l'évènement. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoît chez leraillez.com
René <jeanpasse@hotmail.com> wrote:
Le samedi 28 mars 2020 09:03:09 UTC-4, Ghost-Raider a écrit :
> Le 28/03/2020 à 13:50, jdd a écrit :
> > Le 28/03/2020 à 13:12, Ghost-Raider a écrit :
> >
> >> Le reste, c'est du traitement mécanique : déplacement du capteur, ou
> >> électronique.
> >
> > mais s'agissant en fait de *plusieurs* images, ton raisonnement ne tient
> > plus
> >
> > c'est comme dans un panoramique, en multipliant les images tu multiplie
> > la définition.
>
> Pas exactement. Un panoramique élargit le champ, pas le déplacement du
> capteur.
> Là, on double les détails, à supposer que l'optique suive.
> >
C'est la combinaison de 2 ou plusieurs images qui apportent davantage
de précision comme lorsque nous regardons au travers d'un moustiquaire
ou un léger déplacement permet de mieux voir.
Théoriquement: soit une image numérique de haute définition et de haute
qualité. Il serait possible de l'imiter en utilisant un appareil de basse
définition et qualité en faisant une mosaïque, à la limite pixel par pixel.
+1
Un peu comme si tu enregistres un son avec plusieurs micors : tu auras
un meilleur enregistrement avec les défauts des uns compensés par les
autres. Ce n'est pas parfait, mais c'est mieux. Beaucoup mieux.
Idem avec les news : si tu lis plusieurs articles tu vas te faire une
meilleure idée, personnelle, de l'évènement.
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoît chez leraillez.com
Le samedi 28 mars 2020 09:03:09 UTC-4, Ghost-Raider a écrit :
Le 28/03/2020 à 13:50, jdd a écrit : > Le 28/03/2020 à 13:12, Ghost-Raider a écrit : > >> Le reste, c'est du traitement mécanique : déplacement du capteur, ou >> électronique. > > mais s'agissant en fait de *plusieurs* images, ton raisonnement ne tient > plus > > c'est comme dans un panoramique, en multipliant les images tu multiplie > la définition. Pas exactement. Un panoramique élargit le champ, pas le déplacement du capteur. Là, on double les détails, à supposer que l'optique suive. >
C'est la combinaison de 2 ou plusieurs images qui apportent davantage de précision comme lorsque nous regardons au travers d'un moustiquaire ou un léger déplacement permet de mieux voir. Théoriquement: soit une image numérique de haute définition et de haute qualité. Il serait possible de l'imiter en utilisant un appareil de basse définition et qualité en faisant une mosaïque, à la limite pixel par pixel.
+1 Un peu comme si tu enregistres un son avec plusieurs micors : tu auras un meilleur enregistrement avec les défauts des uns compensés par les autres. Ce n'est pas parfait, mais c'est mieux. Beaucoup mieux. Idem avec les news : si tu lis plusieurs articles tu vas te faire une meilleure idée, personnelle, de l'évènement. -- Vie : n.f. maladie mortelle sexuellement transmissible Benoît chez leraillez.com
benoit
René wrote:
Le samedi 28 mars 2020 06:03:18 UTC-4, efji a écrit :
Le 28/03/2020 à 10:38, Thierry Houx a écrit : >> > Ce que tu supposes, et que je ne sais pas, c'est s'il est possible de > combiner le stacking + le 80Mpx sur le G9. Ça me paraît beaucoup. > Par contre, AMHA, oui le pied est obligatoire dans ce cas. Non j'appelle stacking le procédé de pixel shift car c'est la même chose sur le fond: on superpose plusieurs images pour en faire une seule. En effet je croyais que le pied était obligatoire et on voit clairement dans le reflet qu'il est à main levée. -- F.J.
Attention. Le pixel shift est supposé permettre la lecture de pixels moyens situés entre les pixels normalement captés.
Non, le pixel shift, d'un certain point de vue, permet à chaque pixel d'être créé par ce qu'un reçoit et non ce que reçoivent les capteurs d'à-côté. Image normale pour une image normale : je prends, un capteur bleu, par exemple, les capteurs les données de capteurs rouge et vert qui l'entoure et je définis un pixel. Là, par contre, chaque pixel créé prend en compte ce qu'ont reçu les capteurs voisins sur une image normale. Exemple avec une ligne de capteurs rvrvrvrv : normalement je prends la valeur du rouge de gauche (ou le contraire), celui qui est vert à droite et le bleu en-dessous) pour créer un pixel. Cette fois-ci je créé ausi un pixel qui prend la moitié de mon rouge, de mon vert et idem en-dessous, la moitité des bleus et des verts au-dessus et en dessous. Bon, c'est trop compliqué pour que je sache l'expliquer simplement à cette bande de bozos. Et Hop ! -- Vie : n.f. maladie mortelle sexuellement transmissible Benoît chez leraillez.com
René <jeanpasse@hotmail.com> wrote:
Le samedi 28 mars 2020 06:03:18 UTC-4, efji a écrit :
> Le 28/03/2020 à 10:38, Thierry Houx a écrit :
>
> >>
> > Ce que tu supposes, et que je ne sais pas, c'est s'il est possible de
> > combiner le stacking + le 80Mpx sur le G9. Ça me paraît beaucoup.
> > Par contre, AMHA, oui le pied est obligatoire dans ce cas.
>
> Non j'appelle stacking le procédé de pixel shift car c'est la même chose
> sur le fond: on superpose plusieurs images pour en faire une seule. En
> effet je croyais que le pied était obligatoire et on voit clairement
> dans le reflet qu'il est à main levée.
>
>
> --
> F.J.
Attention. Le pixel shift est supposé permettre la lecture de pixels
moyens situés entre les pixels normalement captés.
Non, le pixel shift, d'un certain point de vue, permet à chaque pixel
d'être créé par ce qu'un reçoit et non ce que reçoivent les capteurs
d'à-côté.
Image normale pour une image normale : je prends, un capteur bleu, par
exemple, les capteurs les données de capteurs rouge et vert qui
l'entoure et je définis un pixel. Là, par contre, chaque pixel créé
prend en compte ce qu'ont reçu les capteurs voisins sur une image
normale.
Exemple avec une ligne de capteurs rvrvrvrv : normalement je prends la
valeur du rouge de gauche (ou le contraire), celui qui est vert à droite
et le bleu en-dessous) pour créer un pixel. Cette fois-ci je créé ausi
un pixel qui prend la moitié de mon rouge, de mon vert et idem
en-dessous, la moitité des bleus et des verts au-dessus et en dessous.
Bon, c'est trop compliqué pour que je sache l'expliquer simplement à
cette bande de bozos.
Et Hop !
--
Vie : n.f. maladie mortelle sexuellement transmissible
Benoît chez leraillez.com
Le samedi 28 mars 2020 06:03:18 UTC-4, efji a écrit :
Le 28/03/2020 à 10:38, Thierry Houx a écrit : >> > Ce que tu supposes, et que je ne sais pas, c'est s'il est possible de > combiner le stacking + le 80Mpx sur le G9. Ça me paraît beaucoup. > Par contre, AMHA, oui le pied est obligatoire dans ce cas. Non j'appelle stacking le procédé de pixel shift car c'est la même chose sur le fond: on superpose plusieurs images pour en faire une seule. En effet je croyais que le pied était obligatoire et on voit clairement dans le reflet qu'il est à main levée. -- F.J.
Attention. Le pixel shift est supposé permettre la lecture de pixels moyens situés entre les pixels normalement captés.
Non, le pixel shift, d'un certain point de vue, permet à chaque pixel d'être créé par ce qu'un reçoit et non ce que reçoivent les capteurs d'à-côté. Image normale pour une image normale : je prends, un capteur bleu, par exemple, les capteurs les données de capteurs rouge et vert qui l'entoure et je définis un pixel. Là, par contre, chaque pixel créé prend en compte ce qu'ont reçu les capteurs voisins sur une image normale. Exemple avec une ligne de capteurs rvrvrvrv : normalement je prends la valeur du rouge de gauche (ou le contraire), celui qui est vert à droite et le bleu en-dessous) pour créer un pixel. Cette fois-ci je créé ausi un pixel qui prend la moitié de mon rouge, de mon vert et idem en-dessous, la moitité des bleus et des verts au-dessus et en dessous. Bon, c'est trop compliqué pour que je sache l'expliquer simplement à cette bande de bozos. Et Hop ! -- Vie : n.f. maladie mortelle sexuellement transmissible Benoît chez leraillez.com
efji
Le 28/03/2020 à 21:06, Ghost-Raider a écrit :
Le 28/03/2020 à 19:03, efji a écrit :
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la première fois. J'avais l'habitude avec le GX1 qui n'avait pas de stabilisateur, et là ça fout les jetons.
Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur n'envahirait pas ton pauvre c½ur.
J'ai les deux mon ami, capteur stabilisé et objectif stabilisé ("dual stabilization" qu'ils l'appellent), ceinture et bretelles! -- F.J. @efjiphotography
Le 28/03/2020 à 21:06, Ghost-Raider a écrit :
Le 28/03/2020 à 19:03, efji a écrit :
Le 28/03/2020 à 18:38, jdd a écrit :
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été
effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la
première fois. J'avais l'habitude avec le GX1 qui n'avait pas de
stabilisateur, et là ça fout les jetons.
Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur
n'envahirait pas ton pauvre c½ur.
J'ai les deux mon ami, capteur stabilisé et objectif stabilisé ("dual
stabilization" qu'ils l'appellent), ceinture et bretelles!
quand j'ai enlevé pour la première fois l'objectif de mon gx80, j'ai été effrayé de voir à quel point le capteur se balade !
Oui en effet. L'autre jour j'ai nettoyé mon capteur de GX9 pour la première fois. J'avais l'habitude avec le GX1 qui n'avait pas de stabilisateur, et là ça fout les jetons.
Si tu avais un Nikon avec stabilisation dans l'objectif, cette peur n'envahirait pas ton pauvre c½ur.
J'ai les deux mon ami, capteur stabilisé et objectif stabilisé ("dual stabilization" qu'ils l'appellent), ceinture et bretelles! -- F.J. @efjiphotography
Stephane Legras-Decussy
Le 28/03/2020 10:07, jdd a écrit :
Le 28/03/2020 à 09:51, Jacques DASSIÉ a écrit :
https://archaero.com/TAMPON/Rainette-G10.jpg
j'en avais plein dans mon jardin quand j'étais gosse, mais là ca fait des années que je n'en ai plus vu :-(
c'est normal, tout le monde assèche les mares et points d'eau pour garer des bagnoles et mettre des nains de jardin en lotissement. chez moi ça grouille... car je fais tout pour. Grenouille, hérisson, abeille, frelon (là je les ai flingué tous faut pas déconner)... et aussi biches, chouettes, chauve-souris dans le jardin :-) pas encore vu de sanglier mais je le sens bien vu le roncier que je prépare.
Le 28/03/2020 10:07, jdd a écrit :
Le 28/03/2020 à 09:51, Jacques DASSIÉ a écrit :
https://archaero.com/TAMPON/Rainette-G10.jpg
j'en avais plein dans mon jardin quand j'étais gosse, mais là ca fait
des années que je n'en ai plus vu :-(
c'est normal, tout le monde assèche les mares et points d'eau pour
garer des bagnoles et mettre des nains de jardin en lotissement.
chez moi ça grouille... car je fais tout pour.
Grenouille, hérisson, abeille, frelon (là je les ai flingué tous faut
pas déconner)... et aussi biches, chouettes, chauve-souris dans le
jardin :-)
pas encore vu de sanglier mais je le sens bien vu le roncier que je prépare.
j'en avais plein dans mon jardin quand j'étais gosse, mais là ca fait des années que je n'en ai plus vu :-(
c'est normal, tout le monde assèche les mares et points d'eau pour garer des bagnoles et mettre des nains de jardin en lotissement. chez moi ça grouille... car je fais tout pour. Grenouille, hérisson, abeille, frelon (là je les ai flingué tous faut pas déconner)... et aussi biches, chouettes, chauve-souris dans le jardin :-) pas encore vu de sanglier mais je le sens bien vu le roncier que je prépare.
Stephane Legras-Decussy
Le 28/03/2020 14:11, Alf92 a écrit :
Jacques DASSIÉ :
Vous devez travailler sur l'oeil. Si je regade l'image, elle n'est pas terrible, malgré la résolution... Je me contente de capteurs plus modestes. https://archaero.com/TAMPON/Rainette-G10.jpg
flou sur l'oeil
surtout le flash inutile sur cette bête totalement immobile et des plus simple à photographier...
Le 28/03/2020 14:11, Alf92 a écrit :
Jacques DASSIÉ :
Vous devez travailler sur l'oeil. Si je regade l'image, elle n'est pas
terrible, malgré la résolution...
Je me contente de capteurs plus modestes.
https://archaero.com/TAMPON/Rainette-G10.jpg
flou sur l'oeil
surtout le flash inutile sur cette bête totalement immobile et des plus
simple à photographier...
Vous devez travailler sur l'oeil. Si je regade l'image, elle n'est pas terrible, malgré la résolution... Je me contente de capteurs plus modestes. https://archaero.com/TAMPON/Rainette-G10.jpg
flou sur l'oeil
surtout le flash inutile sur cette bête totalement immobile et des plus simple à photographier...
Markorki
René a écrit :
Le samedi 28 mars 2020 16:19:26 UTC-4, Benoît a écrit : Et puis technique du pixel shift réponds en partie à la question suivante: Sur un cateur il y a une certain espacement entre les photosites. Qu'y a-t-il comme lumière et comme détail de l'image dans ces espaces non lus?
Entre autres, la surface entre les différents photosites héberge le cablage des photosites : lignes et colonnes de lecture, interconnexions, etc.. La surface du capteur n'est pas utilisée à 100% par des photosites, la surface "perdue" est échantillonnée au cours d'un déplacement du capteur. -- "La prévoyance est une des supériorités de l'Européen sur l'indigène, l'imprévoyance incarnée." in "L'agriculture pratique des pays chauds" (Bulletin du Jardin Colonial, 1905, Ministère des colonies)
René a écrit :
Le samedi 28 mars 2020 16:19:26 UTC-4, Benoît a écrit :
Et puis technique du pixel shift réponds en partie à la question suivante:
Sur un cateur il y a une certain espacement entre les photosites.
Qu'y a-t-il comme lumière et comme détail de l'image dans ces espaces non
lus?
Entre autres, la surface entre les différents photosites héberge le cablage des
photosites : lignes et colonnes de lecture, interconnexions, etc..
La surface du capteur n'est pas utilisée à 100% par des photosites, la surface
"perdue" est échantillonnée au cours d'un déplacement du capteur.
--
"La prévoyance est une des supériorités de l'Européen sur l'indigène,
l'imprévoyance incarnée."
in "L'agriculture pratique des pays chauds" (Bulletin du Jardin Colonial, 1905,
Ministère des colonies)
Le samedi 28 mars 2020 16:19:26 UTC-4, Benoît a écrit : Et puis technique du pixel shift réponds en partie à la question suivante: Sur un cateur il y a une certain espacement entre les photosites. Qu'y a-t-il comme lumière et comme détail de l'image dans ces espaces non lus?
Entre autres, la surface entre les différents photosites héberge le cablage des photosites : lignes et colonnes de lecture, interconnexions, etc.. La surface du capteur n'est pas utilisée à 100% par des photosites, la surface "perdue" est échantillonnée au cours d'un déplacement du capteur. -- "La prévoyance est une des supériorités de l'Européen sur l'indigène, l'imprévoyance incarnée." in "L'agriculture pratique des pays chauds" (Bulletin du Jardin Colonial, 1905, Ministère des colonies)