Bonjour,
JPW dit qu'un appareil de 6 Mp est composé de 1,5 Mp rouges, 1,5 Mp
bleus et 3 Mp verts.
Pour moi, un pixel est la résultante de la composante des trois
couleurs primaires. Il faut donc pour créer un pixel, un photosite
rouge, un bleu et deux verts.
Je pense donc qu'un appareil de 6 Mp est composé de 6 milions de
pixels, forcément; donc de 6 millions de photosites rouges, 6
millions bleus et 12 millions verts. Donc 24 millions de photosites.
Mon appareil de 4 Mp fait des images de 2272 *1704 pixels, ce qui
donne 3871488 pixels de 24bits (8 par couleurs)
Par contre je ne prétends pas (forcément :-) détenir la vérité et est
ouvert à la discussion.
Merci pour votre participation.
Jipi
Diode vs. Device ? :) La jonction est loin d'être évidente... -- Pierre. Mes photographies : <URL:http://perso.wanadoo.fr/pierre.pallier> La FAQ de frp : <URL:http://frp.parisv.com> Les news avec 40tude Dialog : http://perso.wanadoo.fr/pierre.pallier/Dialog
Hello, Denis Beauregard a écrit dans
<news:p6ncf1l20o14b29phfrtco6731ood8dudq@4ax.com>
(c'est le D dans LCD et peut-être dans CCD).
Diode vs. Device ? :)
La jonction est loin d'être évidente...
--
Pierre.
Mes photographies : <URL:http://perso.wanadoo.fr/pierre.pallier>
La FAQ de frp : <URL:http://frp.parisv.com>
Les news avec 40tude Dialog : http://perso.wanadoo.fr/pierre.pallier/Dialog
Diode vs. Device ? :) La jonction est loin d'être évidente... -- Pierre. Mes photographies : <URL:http://perso.wanadoo.fr/pierre.pallier> La FAQ de frp : <URL:http://frp.parisv.com> Les news avec 40tude Dialog : http://perso.wanadoo.fr/pierre.pallier/Dialog
JPW
"Jean-Claude Ghislain" a écrit
Pour que ce soit le cas, il faut trois fois plus de photosites que de pixels à l'arrivée. C'est le cas dans les caméras tri-ccd, un capteur filtré en rouge, un autre en vert et le dernier en bleu. On a trois signaux distincts qu'il suffit de combiner pour avoir notre image RVB.
pourquoi existe-t-il des cameras tri ccd et pas d'appareil photo ti ccd ??
faut comprendre comment ça marche : derrière l'objectif il y a un système de prismes de miroirs semi transparents et de filtres dichoïques
le shema le plus simple et le plus informatif que j'ai trouvé est le suivant :
en vidéo numérique la taille de l'image est normalisée et fixe
ça ne sert à rien d'avoir beaucoup de pixels puisuqe de toutes façon ça sera limité par la taille du fichier vidéo
donc la recherche se tourne vers la meilleure qualité de chaque pixel
et effectivement si chaque pixel peut avoir 3 photosites pour s'y retrouver ça sera meilleur
mais ça suppose un système de prismes qui coûte des sous et prend de la place
on a plusieurs statégies du tri ccd aujourd'hui
la première est d'avoir effectivement 3 capteurs
la seconde est d'avoir un seul capteur et de simuler 3 capteurs virtuels différents chacun ayant 1/3 de l'unique capteur physique
donc si on a un capteur de 3MP on pourra simuler un tri ccd ayant 3 capteurs de 1MP
vu le prix des capteurs les tri ccd son devenus beaucoup plus accessibles aujourd'hui....
mais en plus si on a un capteur de 3 mp pour la vidéo on pourra l'utiliser pour faire de la photo
et là on assiste à un miracle :
on devrait avoir avec un capteur de 3M de photosite on devrait avoir un appareil de 3MP
mais non on a un appareil de 4MP
étonnant non ??
bn oui y'a pas de matrice de bayer y'a un jeu de prisme qui renvoie chaque composante vers 1MP
mais si on ressimule une matrice de bayer avec ces données, comme les verts sont doublés
on obtient un apn de 1MP rouge + 1MP bleu + 2x1MP vert soit 4 MP
je me souviens de pierre pallier qui avait crié au voleur lors de notre dernière discussion sur le sujet
je serais assez d'accord avec lui sur ce coup...
jpw
"Jean-Claude Ghislain" <jcg@grimart.com> a écrit
Pour que ce soit le cas, il faut trois fois plus de photosites que de
pixels à l'arrivée. C'est le cas dans les caméras tri-ccd, un capteur
filtré en rouge, un autre en vert et le dernier en bleu. On a trois
signaux distincts qu'il suffit de combiner pour avoir notre image RVB.
pourquoi existe-t-il des cameras tri ccd
et pas d'appareil photo ti ccd ??
faut comprendre comment ça marche :
derrière l'objectif il y a un système de prismes de miroirs semi
transparents et
de filtres dichoïques
le shema le plus simple et le plus informatif que j'ai trouvé est le suivant
:
Pour que ce soit le cas, il faut trois fois plus de photosites que de pixels à l'arrivée. C'est le cas dans les caméras tri-ccd, un capteur filtré en rouge, un autre en vert et le dernier en bleu. On a trois signaux distincts qu'il suffit de combiner pour avoir notre image RVB.
pourquoi existe-t-il des cameras tri ccd et pas d'appareil photo ti ccd ??
faut comprendre comment ça marche : derrière l'objectif il y a un système de prismes de miroirs semi transparents et de filtres dichoïques
le shema le plus simple et le plus informatif que j'ai trouvé est le suivant :
Qu'est-ce -- A+ Papy Bernard (RTCien malgré lui) que c'est qu'un filtre *dichoïque* ?
Denis Beauregard
Le Sun, 7 Aug 2005 21:19:20 +0200, Pierre Pallier écrivait dans fr.rec.photo.numerique:
Hello, Denis Beauregard a écrit dans <news:
(c'est le D dans LCD et peut-être dans CCD).
Diode vs. Device ? :) La jonction est loin d'être évidente...
C'est pourquoi j'ai écrit "peut-être".
En fait, LCD est pour liquid cristal display, et CCD pour Charge-coupled device.
D'après la page http://en.wikipedia.org/wiki/Charge-coupled_device, le CCD est une rangée de condensateurs dont la charge est envoyée au suivant, ce qui permet sa lecture bit par bit. Je vois mal comment on pourrait filtrer les couleurs de cette façon et retire donc tout ce que j'ai présumé sur le sujet dans mon message précédent.
À noter que la page citée explique comment on obtient la couleur. C'est avec un masque de Bayer qui est placé au dessus pour recevoir les couleurs.
Selon la page http://en.wikipedia.org/wiki/Bayer_filter, chaque pixel ne lit qu'une couleur, donc un capteur de 4 megapixels ne lirait que 1 million de pixels par couleur, le vert étant lu 2 fois pour tenir compte de la capacité de l'oeil qui voit mieux le vert.
Denis
Le Sun, 7 Aug 2005 21:19:20 +0200, Pierre Pallier
<mon_reply_to@nest-pas.invalid> écrivait dans fr.rec.photo.numerique:
Hello, Denis Beauregard a écrit dans
<news:p6ncf1l20o14b29phfrtco6731ood8dudq@4ax.com>
(c'est le D dans LCD et peut-être dans CCD).
Diode vs. Device ? :)
La jonction est loin d'être évidente...
C'est pourquoi j'ai écrit "peut-être".
En fait, LCD est pour liquid cristal display, et CCD pour
Charge-coupled device.
D'après la page http://en.wikipedia.org/wiki/Charge-coupled_device,
le CCD est une rangée de condensateurs dont la charge est envoyée
au suivant, ce qui permet sa lecture bit par bit. Je vois mal
comment on pourrait filtrer les couleurs de cette façon et retire
donc tout ce que j'ai présumé sur le sujet dans mon message
précédent.
À noter que la page citée explique comment on obtient la couleur.
C'est avec un masque de Bayer qui est placé au dessus pour recevoir
les couleurs.
Selon la page http://en.wikipedia.org/wiki/Bayer_filter, chaque
pixel ne lit qu'une couleur, donc un capteur de 4 megapixels ne
lirait que 1 million de pixels par couleur, le vert étant lu 2 fois
pour tenir compte de la capacité de l'oeil qui voit mieux le vert.
Le Sun, 7 Aug 2005 21:19:20 +0200, Pierre Pallier écrivait dans fr.rec.photo.numerique:
Hello, Denis Beauregard a écrit dans <news:
(c'est le D dans LCD et peut-être dans CCD).
Diode vs. Device ? :) La jonction est loin d'être évidente...
C'est pourquoi j'ai écrit "peut-être".
En fait, LCD est pour liquid cristal display, et CCD pour Charge-coupled device.
D'après la page http://en.wikipedia.org/wiki/Charge-coupled_device, le CCD est une rangée de condensateurs dont la charge est envoyée au suivant, ce qui permet sa lecture bit par bit. Je vois mal comment on pourrait filtrer les couleurs de cette façon et retire donc tout ce que j'ai présumé sur le sujet dans mon message précédent.
À noter que la page citée explique comment on obtient la couleur. C'est avec un masque de Bayer qui est placé au dessus pour recevoir les couleurs.
Selon la page http://en.wikipedia.org/wiki/Bayer_filter, chaque pixel ne lit qu'une couleur, donc un capteur de 4 megapixels ne lirait que 1 million de pixels par couleur, le vert étant lu 2 fois pour tenir compte de la capacité de l'oeil qui voit mieux le vert.
Denis
Pehache XVII
Rufus Larondelle wrote:
une piste... la pub! tu pense franchement qu'un vendeur se permetrait de ne parler QUE de 6Mega pixel alors que l'appareil en a 3 ou 4 x plus... ben non bien sur.
en fait la réponse se nomme filtre de bayer... je te laisse faire quelques recherches dessus pour comprendre. Pour faire simple, 6Mpixel, c'est le nombre de pixel, quel que soit la couleur, au niveau du capteur et pas du fichier.
Au niveau du capteur il n'existe pas de pixel, mais des photosites. Ce sont les fabriquants, ou plus exactement les marketeux des fabriquants, qui ont semé la confusion en assimilant les photosites à des pixels. Le D70 par exemple est un APN à 6MegaPhotosites, pas 6MegaPixels.
-- pehache enlever NOSPAM. etc... pour répondre / remove NOSPAM... to reply http://pehache.free.fr/public.html
Rufus Larondelle wrote:
une piste... la pub! tu pense franchement qu'un vendeur se permetrait
de ne parler QUE de 6Mega pixel alors que l'appareil en a 3 ou 4 x
plus... ben non bien sur.
en fait la réponse se nomme filtre de bayer... je te laisse faire
quelques recherches dessus pour comprendre. Pour faire simple,
6Mpixel, c'est le nombre de pixel, quel que soit la couleur, au
niveau du capteur et pas du fichier.
Au niveau du capteur il n'existe pas de pixel, mais des photosites. Ce sont
les fabriquants, ou plus exactement les marketeux des fabriquants, qui ont
semé la confusion en assimilant les photosites à des pixels. Le D70 par
exemple est un APN à 6MegaPhotosites, pas 6MegaPixels.
--
pehache
enlever NOSPAM. etc... pour répondre / remove NOSPAM... to reply
http://pehache.free.fr/public.html
une piste... la pub! tu pense franchement qu'un vendeur se permetrait de ne parler QUE de 6Mega pixel alors que l'appareil en a 3 ou 4 x plus... ben non bien sur.
en fait la réponse se nomme filtre de bayer... je te laisse faire quelques recherches dessus pour comprendre. Pour faire simple, 6Mpixel, c'est le nombre de pixel, quel que soit la couleur, au niveau du capteur et pas du fichier.
Au niveau du capteur il n'existe pas de pixel, mais des photosites. Ce sont les fabriquants, ou plus exactement les marketeux des fabriquants, qui ont semé la confusion en assimilant les photosites à des pixels. Le D70 par exemple est un APN à 6MegaPhotosites, pas 6MegaPixels.
-- pehache enlever NOSPAM. etc... pour répondre / remove NOSPAM... to reply http://pehache.free.fr/public.html
Pehache XVII
JPW wrote:
héhé, pas forcément....
Si
prend un capteur de 6 photosites par 4 photosites tu le dessines sur un papier pour que ce soit bien compréhensible
tu prends le premier groupe de 4 photosites.... et au milieu de ce groupe tu "inventes" un "pixel" coloré.... un pixel virtuel.....
ce pixel est bien la synthèse des 4 pixels qui l'entourent, non ?? tu recommences en parcourant ta matrice de bayer tu obtiendras en final une "image de 5 pixels sur 3 pixels 15 pixels avec un capteur de 24 photosites le rendement n'est pas terrible = 63 % mais avec un capteur de 2001 photosites sur 3001 photosites soit 6.005.001 photosites on obtient une image de 6.000.000 de pixels
soit un rendement de 99.9 % c'est déjà bien mieux non ??
Dans ton raisonnement, un même photosite sert à "construire" 4 pixels en sortie. Ces 4 pixels ne sont donc pas indépendants entre eux. Dans un vrai 6Mpix, les 6 millions de pixels devraient être tous indépendants de leurs voisins.
-- pehache enlever NOSPAM. etc... pour répondre / remove NOSPAM... to reply http://pehache.free.fr/public.html
JPW wrote:
héhé, pas forcément....
Si
prend un capteur de 6 photosites par 4 photosites
tu le dessines sur un papier pour que ce soit bien compréhensible
tu prends le premier groupe de 4 photosites....
et au milieu de ce groupe
tu "inventes" un "pixel" coloré....
un pixel virtuel.....
ce pixel est bien la synthèse des 4 pixels qui l'entourent, non ??
tu recommences en parcourant ta matrice de bayer
tu obtiendras en final une "image de 5 pixels sur 3 pixels
15 pixels avec un capteur de 24 photosites
le rendement n'est pas terrible = 63 %
mais avec un capteur de 2001 photosites sur 3001 photosites
soit 6.005.001 photosites
on obtient une image de 6.000.000 de pixels
soit un rendement de 99.9 %
c'est déjà bien mieux non ??
Dans ton raisonnement, un même photosite sert à "construire" 4 pixels en
sortie. Ces 4 pixels ne sont donc pas indépendants entre eux. Dans un vrai
6Mpix, les 6 millions de pixels devraient être tous indépendants de leurs
voisins.
--
pehache
enlever NOSPAM. etc... pour répondre / remove NOSPAM... to reply
http://pehache.free.fr/public.html
prend un capteur de 6 photosites par 4 photosites tu le dessines sur un papier pour que ce soit bien compréhensible
tu prends le premier groupe de 4 photosites.... et au milieu de ce groupe tu "inventes" un "pixel" coloré.... un pixel virtuel.....
ce pixel est bien la synthèse des 4 pixels qui l'entourent, non ?? tu recommences en parcourant ta matrice de bayer tu obtiendras en final une "image de 5 pixels sur 3 pixels 15 pixels avec un capteur de 24 photosites le rendement n'est pas terrible = 63 % mais avec un capteur de 2001 photosites sur 3001 photosites soit 6.005.001 photosites on obtient une image de 6.000.000 de pixels
soit un rendement de 99.9 % c'est déjà bien mieux non ??
Dans ton raisonnement, un même photosite sert à "construire" 4 pixels en sortie. Ces 4 pixels ne sont donc pas indépendants entre eux. Dans un vrai 6Mpix, les 6 millions de pixels devraient être tous indépendants de leurs voisins.
-- pehache enlever NOSPAM. etc... pour répondre / remove NOSPAM... to reply http://pehache.free.fr/public.html
JPW
"Pehache XVII" a écrit
Si nan, nan ;-)
Dans ton raisonnement, un même photosite sert à "construire" 4 pixels en sortie. Ces 4 pixels ne sont donc pas indépendants entre eux. Dans un vrai 6Mpix, les 6 millions de pixels devraient être tous indépendants de leurs voisins.
dans tous les apn un même photosite sert à construire 4 pixels (au moins) en sortie....
;-)
même sur un foveon je suis persuadé queles pixels adjacents ne sont pas exclus des algos de calcul... même si théoriquement on en a pas besoin...
mais pour le traitement du bruit par exemple ??
jpw
"Pehache XVII" <pehache_lerok@laposte.net.NOSPAM.ON.NET.invalid> a écrit
Si
nan, nan ;-)
Dans ton raisonnement, un même photosite sert à "construire" 4 pixels en
sortie. Ces 4 pixels ne sont donc pas indépendants entre eux. Dans un vrai
6Mpix, les 6 millions de pixels devraient être tous indépendants de leurs
voisins.
dans tous les apn un même photosite sert à construire 4 pixels (au moins)
en sortie....
;-)
même sur un foveon je suis persuadé queles pixels adjacents
ne sont pas exclus des algos de calcul...
même si théoriquement on en a pas besoin...
Dans ton raisonnement, un même photosite sert à "construire" 4 pixels en sortie. Ces 4 pixels ne sont donc pas indépendants entre eux. Dans un vrai 6Mpix, les 6 millions de pixels devraient être tous indépendants de leurs voisins.
dans tous les apn un même photosite sert à construire 4 pixels (au moins) en sortie....
;-)
même sur un foveon je suis persuadé queles pixels adjacents ne sont pas exclus des algos de calcul... même si théoriquement on en a pas besoin...
mais pour le traitement du bruit par exemple ??
jpw
Bernard Perrot
Papy Bernard wrote:
Maintenant, pourquoi un quatrième photosite dédié au vert ? Une nécessité de renforcer le signal , conséquence d'une trop grande sélectivité du filtre vert qui affaiblirait le signal par rapport au rendu auquel on s'attend ?
Parce que le capteur est une matrice orthogonale (cette technologie a des contraintes...), et comme on dispose de 4 photosites pour en calculer un resultant, il a ete logiquement choisi de privilégier la couleur verte a laquelle l'oeil est plus sensible (et donc pour laquelle le pouvoir séparateur de l'oeil est plus selectif).
Papy Bernard wrote:
Maintenant, pourquoi un quatrième photosite dédié au vert ? Une nécessité de
renforcer le signal , conséquence d'une trop grande sélectivité du filtre
vert qui affaiblirait le signal par rapport au rendu auquel on s'attend ?
Parce que le capteur est une matrice orthogonale (cette technologie a des
contraintes...), et comme on dispose de 4 photosites pour en calculer un
resultant, il a ete logiquement choisi de privilégier la couleur verte a
laquelle l'oeil est plus sensible (et donc pour laquelle le pouvoir séparateur
de l'oeil est plus selectif).
Maintenant, pourquoi un quatrième photosite dédié au vert ? Une nécessité de renforcer le signal , conséquence d'une trop grande sélectivité du filtre vert qui affaiblirait le signal par rapport au rendu auquel on s'attend ?
Parce que le capteur est une matrice orthogonale (cette technologie a des contraintes...), et comme on dispose de 4 photosites pour en calculer un resultant, il a ete logiquement choisi de privilégier la couleur verte a laquelle l'oeil est plus sensible (et donc pour laquelle le pouvoir séparateur de l'oeil est plus selectif).
HyperDupont
Je sais qu'une technique pour les écrans cathodiques consiste à utiliser un masque et de déplacer le faisceau d'électrons devant chacun des 3 trous pour allumer en alternance chacun des pixels de l'écran. Pour un APN, c'est impensable. Mais puisqu'on fait des diodes multicolores, pourquoi est-ce qu'on n'aurait pas une technologie équivalente pour la lecture des capteurs qui sont après tout des diodes (c'est le D dans LCD et peut-être dans CCD).
désolé de ne pas être d'accord...
Dans un tube cathodique couleur, il y a 3 canons à électrons, déviés simultanément, qui arrosent **tous_en_même_temps** trois matrices décalées de luminophores, à travers un masque à trous.
Le D de LCD c'est "display" : liquid crystal display.
Je sais qu'une technique pour les écrans cathodiques consiste
à utiliser un masque et de déplacer le faisceau d'électrons devant
chacun des 3 trous pour allumer en alternance chacun des pixels de
l'écran. Pour un APN, c'est impensable. Mais puisqu'on fait des
diodes multicolores, pourquoi est-ce qu'on n'aurait pas une
technologie équivalente pour la lecture des capteurs qui sont
après tout des diodes (c'est le D dans LCD et peut-être dans CCD).
désolé de ne pas être d'accord...
Dans un tube cathodique couleur, il y a 3 canons à électrons, déviés
simultanément, qui arrosent **tous_en_même_temps** trois matrices
décalées de luminophores, à travers un masque à trous.
Le D de LCD c'est "display" : liquid crystal display.
Je sais qu'une technique pour les écrans cathodiques consiste à utiliser un masque et de déplacer le faisceau d'électrons devant chacun des 3 trous pour allumer en alternance chacun des pixels de l'écran. Pour un APN, c'est impensable. Mais puisqu'on fait des diodes multicolores, pourquoi est-ce qu'on n'aurait pas une technologie équivalente pour la lecture des capteurs qui sont après tout des diodes (c'est le D dans LCD et peut-être dans CCD).
désolé de ne pas être d'accord...
Dans un tube cathodique couleur, il y a 3 canons à électrons, déviés simultanément, qui arrosent **tous_en_même_temps** trois matrices décalées de luminophores, à travers un masque à trous.
Le D de LCD c'est "display" : liquid crystal display.
Denis Beauregard
Le Mon, 08 Aug 2005 14:29:13 +0200, HyperDupont écrivait dans fr.rec.photo.numerique:
Je sais qu'une technique pour les écrans cathodiques consiste à utiliser un masque et de déplacer le faisceau d'électrons devant chacun des 3 trous pour allumer en alternance chacun des pixels de l'écran. Pour un APN, c'est impensable. Mais puisqu'on fait des diodes multicolores, pourquoi est-ce qu'on n'aurait pas une technologie équivalente pour la lecture des capteurs qui sont après tout des diodes (c'est le D dans LCD et peut-être dans CCD).
désolé de ne pas être d'accord...
Dans un tube cathodique couleur, il y a 3 canons à électrons, déviés simultanément, qui arrosent **tous_en_même_temps** trois matrices décalées de luminophores, à travers un masque à trous.
Il y a plusieurs technologies (c'est à cela que servent les brevets).
Le D de LCD c'est "display" : liquid crystal display.
Voir mon autre message.
Denis
Le Mon, 08 Aug 2005 14:29:13 +0200, HyperDupont <HyperDupont@yahoo.fr>
écrivait dans fr.rec.photo.numerique:
Je sais qu'une technique pour les écrans cathodiques consiste
à utiliser un masque et de déplacer le faisceau d'électrons devant
chacun des 3 trous pour allumer en alternance chacun des pixels de
l'écran. Pour un APN, c'est impensable. Mais puisqu'on fait des
diodes multicolores, pourquoi est-ce qu'on n'aurait pas une
technologie équivalente pour la lecture des capteurs qui sont
après tout des diodes (c'est le D dans LCD et peut-être dans CCD).
désolé de ne pas être d'accord...
Dans un tube cathodique couleur, il y a 3 canons à électrons, déviés
simultanément, qui arrosent **tous_en_même_temps** trois matrices
décalées de luminophores, à travers un masque à trous.
Il y a plusieurs technologies (c'est à cela que servent les
brevets).
Le D de LCD c'est "display" : liquid crystal display.
Le Mon, 08 Aug 2005 14:29:13 +0200, HyperDupont écrivait dans fr.rec.photo.numerique:
Je sais qu'une technique pour les écrans cathodiques consiste à utiliser un masque et de déplacer le faisceau d'électrons devant chacun des 3 trous pour allumer en alternance chacun des pixels de l'écran. Pour un APN, c'est impensable. Mais puisqu'on fait des diodes multicolores, pourquoi est-ce qu'on n'aurait pas une technologie équivalente pour la lecture des capteurs qui sont après tout des diodes (c'est le D dans LCD et peut-être dans CCD).
désolé de ne pas être d'accord...
Dans un tube cathodique couleur, il y a 3 canons à électrons, déviés simultanément, qui arrosent **tous_en_même_temps** trois matrices décalées de luminophores, à travers un masque à trous.
Il y a plusieurs technologies (c'est à cela que servent les brevets).
Le D de LCD c'est "display" : liquid crystal display.