A mon avis entre la photo du SIGMA : http://images.digitalkamera.de/Testbilder/SigmaSD10-HJ.jpg et celle d'un Canon 10D : http://images.digitalkamera.de/Testbilder/CanonEOS10D-HJ.jpg ... Je trouve celle du sigma bien meilleure.
Bizarement (mais c'est surement justement là que l'on s'apercoit de la qualité du capteur) l'image du sigma a moins de points mais une meilleure définition. Sans parler des couleur... pas faciles à juger, certes, mais la différence est flagrante si on regarde le peinceau au manche jaune.
Je n'avais pas d'avis tranché sur la qualité du capteur Sigma, mais là, je suis positivement impressionné.
Je ne sais pas encore si la différence entre ces deux photos est simplement du au principe du capteur ou si d'autres parametres ne sont pas prépondérants. Un avis?
Le Chevalier Noir
"PE Schmid" wrote in message news:41666ed4$
Le Chevalier Noir wrote:
En lieu et place de bataille de chiffres, il faudrait trouver un comparatif
d'une même photo prise avec l'un et l'autre des capteurs pour comparer...
Ce même site propose la même image prise par d'autres caméras. Bon, c'est en allemand.
Philippe Schmid
Merci Philippe
A mon avis entre la photo du SIGMA :
http://images.digitalkamera.de/Testbilder/SigmaSD10-HJ.jpg
et celle d'un Canon 10D :
http://images.digitalkamera.de/Testbilder/CanonEOS10D-HJ.jpg
...
Je trouve celle du sigma bien meilleure.
Bizarement (mais c'est surement justement là que l'on s'apercoit de la
qualité du capteur) l'image du sigma a moins de points mais une meilleure
définition.
Sans parler des couleur... pas faciles à juger, certes, mais la différence
est flagrante si on regarde le peinceau au manche jaune.
Je n'avais pas d'avis tranché sur la qualité du capteur Sigma, mais là, je
suis positivement impressionné.
Je ne sais pas encore si la différence entre ces deux photos est simplement
du au principe du capteur ou si d'autres parametres ne sont pas
prépondérants. Un avis?
Le Chevalier Noir
"PE Schmid" <Philippe.Schmid@epfl.ch> wrote in message
news:41666ed4$1@epflnews.epfl.ch...
Le Chevalier Noir wrote:
En lieu et place de bataille de chiffres, il faudrait trouver un
comparatif
d'une même photo prise avec l'un et l'autre des capteurs pour
comparer...
A mon avis entre la photo du SIGMA : http://images.digitalkamera.de/Testbilder/SigmaSD10-HJ.jpg et celle d'un Canon 10D : http://images.digitalkamera.de/Testbilder/CanonEOS10D-HJ.jpg ... Je trouve celle du sigma bien meilleure.
Bizarement (mais c'est surement justement là que l'on s'apercoit de la qualité du capteur) l'image du sigma a moins de points mais une meilleure définition. Sans parler des couleur... pas faciles à juger, certes, mais la différence est flagrante si on regarde le peinceau au manche jaune.
Je n'avais pas d'avis tranché sur la qualité du capteur Sigma, mais là, je suis positivement impressionné.
Je ne sais pas encore si la différence entre ces deux photos est simplement du au principe du capteur ou si d'autres parametres ne sont pas prépondérants. Un avis?
Le Chevalier Noir
"PE Schmid" wrote in message news:41666ed4$
Le Chevalier Noir wrote:
En lieu et place de bataille de chiffres, il faudrait trouver un comparatif
d'une même photo prise avec l'un et l'autre des capteurs pour comparer...
Ce même site propose la même image prise par d'autres caméras. Bon, c'est en allemand.
Philippe Schmid
Le Chevalier Noir
"HyperDupont" wrote
là j'attends un lien crédible, et un rapport de taille entre les fichiers raw.
La ataille du fichier RAW ne dépend pas que du nombre de photosites, mais aussi du nombre de bits sur lesquels la conversion est réalisée. Ce n'est donc pas un bon indicateur du nombre de photosites
Le Chevalier Noir
"HyperDupont" <HyperDupont@yahoo.fr> wrote
là j'attends un lien crédible, et un rapport de taille entre les
fichiers raw.
La ataille du fichier RAW ne dépend pas que du nombre de photosites, mais
aussi du nombre de bits sur lesquels la conversion est réalisée.
Ce n'est donc pas un bon indicateur du nombre de photosites
là j'attends un lien crédible, et un rapport de taille entre les fichiers raw.
La ataille du fichier RAW ne dépend pas que du nombre de photosites, mais aussi du nombre de bits sur lesquels la conversion est réalisée. Ce n'est donc pas un bon indicateur du nombre de photosites
Le Chevalier Noir
Jean-Claude Ghislain
Les autres fabricants ne comptent pas en photosites élémentaires (1 rouge, un bleu, un vert) mais en triplets, ce qui est plus honnête.
Les fabricants parlent en triplet ?
Sur les APN actuels le capteur est recouvert d'une matrice de Bayer et cette matrice nous fournit plutôt des "quadruplet" : Vert-Rouge-Vert-Bleu ou Cyan-Jaune-Vert-Magenta ou encore Rouge-Vert-Bleu-Cyan suivant les marques et les modèles.
Le Foveon, développé à l'université de Louvain en Belgique, utilise une technologie plus proche du film avec trois couches superposées : http://www.foveon.com/X3_tech.html
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation, contrairement à la matrice de Bayer. C'est mieux en terme de définition, mais moins bien en sensibilité car la lumière doit traverser plusieurs couches.
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos), malheureusement cette approche semble réservée aux caméras et je me demande pourquoi ?
-- Jean-Claude Ghislain www.grimart.com
Les autres fabricants ne comptent pas en photosites élémentaires (1 rouge,
un bleu, un vert) mais en triplets, ce qui est plus honnête.
Les fabricants parlent en triplet ?
Sur les APN actuels le capteur est recouvert d'une matrice de Bayer et cette
matrice nous fournit plutôt des "quadruplet" : Vert-Rouge-Vert-Bleu ou
Cyan-Jaune-Vert-Magenta ou encore Rouge-Vert-Bleu-Cyan suivant les marques
et les modèles.
Le Foveon, développé à l'université de Louvain en Belgique, utilise une
technologie plus proche du film avec trois couches superposées :
http://www.foveon.com/X3_tech.html
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation,
contrairement à la matrice de Bayer. C'est mieux en terme de définition,
mais moins bien en sensibilité car la lumière doit traverser plusieurs
couches.
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos),
malheureusement cette approche semble réservée aux caméras et je me demande
pourquoi ?
Les autres fabricants ne comptent pas en photosites élémentaires (1 rouge, un bleu, un vert) mais en triplets, ce qui est plus honnête.
Les fabricants parlent en triplet ?
Sur les APN actuels le capteur est recouvert d'une matrice de Bayer et cette matrice nous fournit plutôt des "quadruplet" : Vert-Rouge-Vert-Bleu ou Cyan-Jaune-Vert-Magenta ou encore Rouge-Vert-Bleu-Cyan suivant les marques et les modèles.
Le Foveon, développé à l'université de Louvain en Belgique, utilise une technologie plus proche du film avec trois couches superposées : http://www.foveon.com/X3_tech.html
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation, contrairement à la matrice de Bayer. C'est mieux en terme de définition, mais moins bien en sensibilité car la lumière doit traverser plusieurs couches.
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos), malheureusement cette approche semble réservée aux caméras et je me demande pourquoi ?
-- Jean-Claude Ghislain www.grimart.com
pehache
Jean-Claude Ghislain declarait :
Le Foveon, développé à l'université de Louvain en Belgique,
Ah oui, c'est vrai, je l'avais déjà lu mais je l'avais oublié
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation, contrairement à la matrice de Bayer. C'est mieux en terme de définition, mais moins bien en sensibilité car la lumière doit traverser plusieurs couches.
Pour la sensibilité, ça ne me parait pas si évident que ça: si on y réfléchit, tous les photons arrivent bien sur le capteur et sont utilisés par celui-ci, alors que dans le cas des matrice de bayer les 2/3 des photons (pour simplifier) sont arrêtés par les filtres RVB. Normalement, le Foveon devrait être plus sensible, car recevant plus de lumière.
La plus sensiblité constatée a sans doute d'autres explications, ou alors c'est juste un problème d'immaturité technologique encore.
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos), malheureusement cette approche semble réservée aux caméras et je me demande
pourquoi ?
Encombrement, peut-être ? Ou sensibilité trop faible (le flux de lumière étant partagé en 3) ?
-- pehache
-- Article posté via l'accès Usenet http://www.mes-news.com Accès par Nnrp ou Web
Jean-Claude Ghislain declarait :
Le Foveon, développé à l'université de Louvain en Belgique,
Ah oui, c'est vrai, je l'avais déjà lu mais je l'avais oublié
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation,
contrairement à la matrice de Bayer. C'est mieux en terme de définition,
mais moins bien en sensibilité car la lumière doit traverser plusieurs
couches.
Pour la sensibilité, ça ne me parait pas si évident que ça: si on y
réfléchit, tous les photons arrivent bien sur le capteur et sont utilisés
par celui-ci, alors que dans le cas des matrice de bayer les 2/3 des
photons (pour simplifier) sont arrêtés par les filtres RVB. Normalement,
le Foveon devrait être plus sensible, car recevant plus de lumière.
La plus sensiblité constatée a sans doute d'autres explications, ou alors
c'est juste un problème d'immaturité technologique encore.
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos),
malheureusement cette approche semble réservée aux caméras et je me
demande
pourquoi ?
Encombrement, peut-être ? Ou sensibilité trop faible (le flux de lumière
étant partagé en 3) ?
--
pehache
--
Article posté via l'accès Usenet http://www.mes-news.com
Accès par Nnrp ou Web
Le Foveon, développé à l'université de Louvain en Belgique,
Ah oui, c'est vrai, je l'avais déjà lu mais je l'avais oublié
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation, contrairement à la matrice de Bayer. C'est mieux en terme de définition, mais moins bien en sensibilité car la lumière doit traverser plusieurs couches.
Pour la sensibilité, ça ne me parait pas si évident que ça: si on y réfléchit, tous les photons arrivent bien sur le capteur et sont utilisés par celui-ci, alors que dans le cas des matrice de bayer les 2/3 des photons (pour simplifier) sont arrêtés par les filtres RVB. Normalement, le Foveon devrait être plus sensible, car recevant plus de lumière.
La plus sensiblité constatée a sans doute d'autres explications, ou alors c'est juste un problème d'immaturité technologique encore.
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos), malheureusement cette approche semble réservée aux caméras et je me demande
pourquoi ?
Encombrement, peut-être ? Ou sensibilité trop faible (le flux de lumière étant partagé en 3) ?
-- pehache
-- Article posté via l'accès Usenet http://www.mes-news.com Accès par Nnrp ou Web
Le Chevalier Noir
"Jean-Claude Ghislain" wrote in message news:
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation, contrairement à la matrice de Bayer. C'est mieux en terme de définition, mais moins bien en sensibilité car la lumière doit traverser plusieurs couches.
Le fait que ce soit des CCD ou CMOS, ca ne change rien pour ce qui est de la composition des pixels à partir des photosites?
Peut on dire que : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des pixels d'à côté ?
Le Chevalier noir
"Jean-Claude Ghislain" <jcg@grimart.com> wrote in message
news:2snfrtF1nahahU1@uni-berlin.de...
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation,
contrairement à la matrice de Bayer. C'est mieux en terme de définition,
mais moins bien en sensibilité car la lumière doit traverser plusieurs
couches.
Le fait que ce soit des CCD ou CMOS, ca ne change rien pour ce qui est de la
composition des pixels à partir des photosites?
Peut on dire que :
Avec les appareils au capteur "classique" chaque pixel est composé de 3
couleurs,
dont 2 de ces couleurs sont obtenues par interpolation des pixels d'à côté
?
Dans le cas du Foveon un pixel RVB s'obtient sans aucune interpolation, contrairement à la matrice de Bayer. C'est mieux en terme de définition, mais moins bien en sensibilité car la lumière doit traverser plusieurs couches.
Le fait que ce soit des CCD ou CMOS, ca ne change rien pour ce qui est de la composition des pixels à partir des photosites?
Peut on dire que : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des pixels d'à côté ?
Le Chevalier noir
jpw
"Jean-Claude Ghislain" a écrit
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos), malheureusement cette approche semble réservée aux caméras et je me demande
pourquoi ?
tiens ça fait plusieurs fois que tu poses la question, ça serait intéressant qu'on essaye de comprendre ? pour peut être d'avancer un peu :
je vais commencer pas mettre à plat le peu que je sais peut être qu'en additionant le peu qu'on sait chacun on arrivera à avancer d'un poil. L'approche que j'ai est ma compréhension personnelle aussi faudra pas trop m'en vouloir si je suis pas trop précis :
la taille "normalisée" d'une image vidéo est très petite : 768x576 pixels et les capteurs les plus grands que je connaisse sont de 1mégapixel la différence de taille entre la taille utile et la taille réelle peut servir à la stabilisation de l'image, à un vrai mode 16/9ème etc
donc imaginons une caméra tri ccd capable de faire de la photo à 4 mégapixels derrière l'objectif il y a un prisme (ou 3 prismes j'ai pas bien comprislà) qui va renvoyer l'image sur 3 capteurs : l'un des capteurs est situé dans le prolongement de l'objectif je crois que normalement il reçoit le rouge le second est situé verticalement au dessus il reçoit le vert et le 3ème verticalement au dessous et reçoit le bleu
pour le film pas de pb donc,
pour la photo on annonce pour ce genre de modèle une résolution photo de 4 millions de pixels en fait pour la photo on décale (je ne sais pas comment ) les pixels de chaque capteur (je pense que c'est au niveau du prisme ) pour reconstituer une matrice de bayer fictive ce qui me semble expliquer qu'une camera tri-ccd avec 3 capteurs de 1 MP produit des photos de 4 mp.(le vert doublé)
maintenant si on veut voulait applique ça à laphoto on voit tout de suite qu'il faudrait 3 capteurs au lieu d'un et un(?) prisme pour filtrer les composantes donc premier pb : le coût second pb la précision dans la diffraction....
je ne sais pas ce que donnent ces cameras comme résultat photo
vala pour mes première élucubrations.
jpw
"Jean-Claude Ghislain" <jcg@grimart.com> a écrit
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos),
malheureusement cette approche semble réservée aux caméras et je me
demande
pourquoi ?
tiens ça fait plusieurs fois que tu poses la question,
ça serait intéressant qu'on essaye de comprendre ?
pour peut être d'avancer un peu :
je vais commencer pas mettre à plat le peu que je sais
peut être qu'en additionant le peu qu'on sait chacun
on arrivera à avancer d'un poil. L'approche que j'ai est ma compréhension
personnelle
aussi faudra pas trop m'en vouloir si je suis pas trop précis :
la taille "normalisée" d'une image vidéo est très petite :
768x576 pixels
et les capteurs les plus grands que je connaisse sont de 1mégapixel
la différence de taille entre la taille utile et la taille réelle
peut servir à la stabilisation de l'image,
à un vrai mode 16/9ème etc
donc imaginons une caméra tri ccd capable de faire de la photo
à 4 mégapixels
derrière l'objectif il y a un prisme (ou 3 prismes j'ai pas bien comprislà)
qui va renvoyer l'image sur 3 capteurs :
l'un des capteurs est situé dans le prolongement de l'objectif
je crois que normalement il reçoit le rouge
le second est situé verticalement au dessus il reçoit le vert
et le 3ème verticalement au dessous et reçoit le bleu
pour le film pas de pb donc,
pour la photo on annonce pour ce genre de modèle
une résolution photo de 4 millions de pixels
en fait pour la photo on décale (je ne sais pas comment )
les pixels de chaque capteur (je pense que c'est au niveau du
prisme ) pour reconstituer une matrice de bayer fictive
ce qui me semble expliquer qu'une camera tri-ccd avec 3 capteurs de
1 MP produit des photos de 4 mp.(le vert doublé)
maintenant si on veut voulait applique ça à laphoto on voit tout de suite
qu'il faudrait
3 capteurs au lieu d'un et un(?) prisme pour filtrer les composantes
donc premier pb : le coût
second pb la précision dans la diffraction....
je ne sais pas ce que donnent ces cameras comme résultat photo
A ce jour, la meilleure technologie reste le tri-ccd (ou tri-cmos), malheureusement cette approche semble réservée aux caméras et je me demande
pourquoi ?
tiens ça fait plusieurs fois que tu poses la question, ça serait intéressant qu'on essaye de comprendre ? pour peut être d'avancer un peu :
je vais commencer pas mettre à plat le peu que je sais peut être qu'en additionant le peu qu'on sait chacun on arrivera à avancer d'un poil. L'approche que j'ai est ma compréhension personnelle aussi faudra pas trop m'en vouloir si je suis pas trop précis :
la taille "normalisée" d'une image vidéo est très petite : 768x576 pixels et les capteurs les plus grands que je connaisse sont de 1mégapixel la différence de taille entre la taille utile et la taille réelle peut servir à la stabilisation de l'image, à un vrai mode 16/9ème etc
donc imaginons une caméra tri ccd capable de faire de la photo à 4 mégapixels derrière l'objectif il y a un prisme (ou 3 prismes j'ai pas bien comprislà) qui va renvoyer l'image sur 3 capteurs : l'un des capteurs est situé dans le prolongement de l'objectif je crois que normalement il reçoit le rouge le second est situé verticalement au dessus il reçoit le vert et le 3ème verticalement au dessous et reçoit le bleu
pour le film pas de pb donc,
pour la photo on annonce pour ce genre de modèle une résolution photo de 4 millions de pixels en fait pour la photo on décale (je ne sais pas comment ) les pixels de chaque capteur (je pense que c'est au niveau du prisme ) pour reconstituer une matrice de bayer fictive ce qui me semble expliquer qu'une camera tri-ccd avec 3 capteurs de 1 MP produit des photos de 4 mp.(le vert doublé)
maintenant si on veut voulait applique ça à laphoto on voit tout de suite qu'il faudrait 3 capteurs au lieu d'un et un(?) prisme pour filtrer les composantes donc premier pb : le coût second pb la précision dans la diffraction....
je ne sais pas ce que donnent ces cameras comme résultat photo
vala pour mes première élucubrations.
jpw
Jean-Claude Ghislain
Le fait que ce soit des CCD ou CMOS, ca ne change rien pour ce qui est de la composition des pixels à partir des photosites?
Non, c'est pareil pour un CCD, un CMOS ou un JFET
Peut on dire que : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des pixels d'à côté ?
Oui. On pourrait réécrire la phrase comme ceci : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des photosites d'à côté.
Pour rappeler l'aspect d'une matrice de bayer : http://www.dpreview.com/learn/?/key=color%20filter%20array http://www.dpreview.com/learn/?/key=sensors
-- Jean-Claude Ghislain www.grimart.com
Le fait que ce soit des CCD ou CMOS, ca ne change rien pour ce qui est
de la composition des pixels à partir des photosites?
Non, c'est pareil pour un CCD, un CMOS ou un JFET
Peut on dire que :
Avec les appareils au capteur "classique" chaque pixel est composé de
3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des
pixels d'à côté ?
Oui. On pourrait réécrire la phrase comme ceci :
Avec les appareils au capteur "classique" chaque pixel est composé de
3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des
photosites d'à côté.
Pour rappeler l'aspect d'une matrice de bayer :
http://www.dpreview.com/learn/?/key=color%20filter%20array
http://www.dpreview.com/learn/?/key=sensors
Le fait que ce soit des CCD ou CMOS, ca ne change rien pour ce qui est de la composition des pixels à partir des photosites?
Non, c'est pareil pour un CCD, un CMOS ou un JFET
Peut on dire que : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des pixels d'à côté ?
Oui. On pourrait réécrire la phrase comme ceci : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des photosites d'à côté.
Pour rappeler l'aspect d'une matrice de bayer : http://www.dpreview.com/learn/?/key=color%20filter%20array http://www.dpreview.com/learn/?/key=sensors
-- Jean-Claude Ghislain www.grimart.com
jpw
"Jean-Claude Ghislain" a écrit
Oui. On pourrait réécrire la phrase comme ceci : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des photosites d'à côté.
nan nan nan
le pixel ne correspond pas au photosite le pixel serait situé virtellement à l'intersection des diagonales de chaque groupe de 4 photosites
jpw
"Jean-Claude Ghislain" <jcg@grimart.com> a écrit
Oui. On pourrait réécrire la phrase comme ceci :
Avec les appareils au capteur "classique" chaque pixel est composé de
3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des
photosites d'à côté.
nan nan nan
le pixel ne correspond pas au photosite
le pixel serait situé virtellement à l'intersection des diagonales
de chaque groupe de 4 photosites
Oui. On pourrait réécrire la phrase comme ceci : Avec les appareils au capteur "classique" chaque pixel est composé de 3 couleurs, dont 2 de ces couleurs sont obtenues par interpolation des photosites d'à côté.
nan nan nan
le pixel ne correspond pas au photosite le pixel serait situé virtellement à l'intersection des diagonales de chaque groupe de 4 photosites
jpw
Le Chevalier Noir
"jpw" wrote
le pixel ne correspond pas au photosite le pixel serait situé virtellement à l'intersection des diagonales de chaque groupe de 4 photosites
Ca veut dire que, sauf traitement un peu "intelligent" (et j'imagine que c'est le cas) deux pixels adjacents ont exactement le même niveau de vert, ou de bleu ou de rouge.
Le Chevalier Noir
"jpw" <pas.de.contact@parmail.invalid> wrote
le pixel ne correspond pas au photosite
le pixel serait situé virtellement à l'intersection des diagonales
de chaque groupe de 4 photosites
Ca veut dire que, sauf traitement un peu "intelligent" (et j'imagine que
c'est le cas) deux pixels adjacents ont exactement le même niveau de vert,
ou de bleu ou de rouge.
le pixel ne correspond pas au photosite le pixel serait situé virtellement à l'intersection des diagonales de chaque groupe de 4 photosites
Ca veut dire que, sauf traitement un peu "intelligent" (et j'imagine que c'est le cas) deux pixels adjacents ont exactement le même niveau de vert, ou de bleu ou de rouge.
Le Chevalier Noir
pehache
jpw declarait :
nan nan nan
le pixel ne correspond pas au photosite le pixel serait situé virtellement à l'intersection des diagonales de chaque groupe de 4 photosites
nan nan nan non plus.
Les pixels peuvent à priori être n'importe où. Au niveau des photosites, entre les photosites, sur les diagonales entre les photosites, etc...
En l'absence de données techniques de la part du fabriquant, il est impossible de savoir quels sont les choix faits par chacun sur ce sujet. Tout ce je vois, c'est que "placer" les pixels au niveau des photosites permet au moins d'éviter certaines interpolations, mais ce n'est pas une preuve non plus qu'ils font comme ça.
-- pehache -- Article posté via l'accès Usenet http://www.mes-news.com Accès par Nnrp ou Web
jpw declarait :
nan nan nan
le pixel ne correspond pas au photosite
le pixel serait situé virtellement à l'intersection des diagonales
de chaque groupe de 4 photosites
nan nan nan non plus.
Les pixels peuvent à priori être n'importe où. Au niveau des photosites,
entre les photosites, sur les diagonales entre les photosites, etc...
En l'absence de données techniques de la part du fabriquant, il est
impossible de savoir quels sont les choix faits par chacun sur ce sujet.
Tout ce je vois, c'est que "placer" les pixels au niveau des photosites
permet au moins d'éviter certaines interpolations, mais ce n'est pas une
preuve non plus qu'ils font comme ça.
--
pehache
--
Article posté via l'accès Usenet http://www.mes-news.com
Accès par Nnrp ou Web
le pixel ne correspond pas au photosite le pixel serait situé virtellement à l'intersection des diagonales de chaque groupe de 4 photosites
nan nan nan non plus.
Les pixels peuvent à priori être n'importe où. Au niveau des photosites, entre les photosites, sur les diagonales entre les photosites, etc...
En l'absence de données techniques de la part du fabriquant, il est impossible de savoir quels sont les choix faits par chacun sur ce sujet. Tout ce je vois, c'est que "placer" les pixels au niveau des photosites permet au moins d'éviter certaines interpolations, mais ce n'est pas une preuve non plus qu'ils font comme ça.
-- pehache -- Article posté via l'accès Usenet http://www.mes-news.com Accès par Nnrp ou Web