/mode conjecture on/ En gros, mieux vaut dès le départ un capteurs à gros photosites... De ce que j'en intuiterais, non seulement ça réduit le bruit, mais ça augmente le signal avec (alors qu'en gros le pixel binning ne fait que l'un des deux), mais là je crois que j'ai une chance sur deux d'écrire une connerie. Ou alors, c'est peut-être simplement que comme la lecture du capteur et le processeur d'image sont moins sollicités avec moins de MPix, on a plus de ressources pour une bonne analyse du signal, mais je ne serais pas étonné que trop de MPix augmente le bruit de lecture en plus de diminuer la valeur du puits (la valeur max possible du signal avant saturation). /mode conjecture off/
On 11 juin, 10:19, Gilles <gillesrob...@free.fr> wrote:
J'en suis a me demander si le choix du 1/3 voir du 1/4 de la valeur
maximum du capteur ne donne finalement pas un meilleur résultat ?
On peu penser que dans ce cas chaque pixel résultant est le résultat des
valeurs de chaque pixel réel du capteur ?
/mode conjecture on/
En gros, mieux vaut dès le départ un capteurs à gros photosites... De
ce que j'en intuiterais, non seulement ça réduit le bruit, mais ça
augmente le signal avec (alors qu'en gros le pixel binning ne fait que
l'un des deux), mais là je crois que j'ai une chance sur deux d'écrire
une connerie.
Ou alors, c'est peut-être simplement que comme la lecture du capteur
et le processeur d'image sont moins sollicités avec moins de MPix, on
a plus de ressources pour une bonne analyse du signal, mais je ne
serais pas étonné que trop de MPix augmente le bruit de lecture en
plus de diminuer la valeur du puits (la valeur max possible du signal
avant saturation).
/mode conjecture off/
/mode conjecture on/ En gros, mieux vaut dès le départ un capteurs à gros photosites... De ce que j'en intuiterais, non seulement ça réduit le bruit, mais ça augmente le signal avec (alors qu'en gros le pixel binning ne fait que l'un des deux), mais là je crois que j'ai une chance sur deux d'écrire une connerie. Ou alors, c'est peut-être simplement que comme la lecture du capteur et le processeur d'image sont moins sollicités avec moins de MPix, on a plus de ressources pour une bonne analyse du signal, mais je ne serais pas étonné que trop de MPix augmente le bruit de lecture en plus de diminuer la valeur du puits (la valeur max possible du signal avant saturation). /mode conjecture off/
James
On 11 juin, 10:19, Gilles wrote:
J'en suis a me demander si le choix du 1/3 voir du 1/4 de la valeur maximum du capteur ne donne finalement pas un meilleur résultat ?
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ?
/mode conjecture on/ En gros, mieux vaut dès le départ un capteurs à gros photosites... De ce que j'en intuiterais, non seulement ça réduit le bruit, mais ça augmente le signal avec (alors qu'en gros le pixel binning ne fait que l'un des deux), mais là je crois que j'ai une chance sur deux d'écrire une connerie. Le pixel binning ne marche bien qu'en mode "matériel"; Ce n'est
utilisable que sur des capteurs CCD d'ailleurs, et encore, construit pour...
Ou alors, c'est peut-être simplement que comme la lecture du capteur et le processeur d'image sont moins sollicités avec moins de MPix, on a plus de ressources pour une bonne analyse du signal, mais je ne serais pas étonné que trop de MPix augmente le bruit de lecture en plus de diminuer la valeur du puits (la valeur max possible du signal avant saturation). /mode conjecture off/
/mode conjecture on/
En gros, mieux vaut dès le départ un capteurs à gros photosites... De
ce que j'en intuiterais, non seulement ça réduit le bruit, mais ça
augmente le signal avec (alors qu'en gros le pixel binning ne fait que
l'un des deux), mais là je crois que j'ai une chance sur deux d'écrire
une connerie.
Le pixel binning ne marche bien qu'en mode "matériel"; Ce n'est
utilisable que sur des capteurs CCD d'ailleurs, et encore, construit pour...
Ou alors, c'est peut-être simplement que comme la lecture du capteur
et le processeur d'image sont moins sollicités avec moins de MPix, on
a plus de ressources pour une bonne analyse du signal, mais je ne
serais pas étonné que trop de MPix augmente le bruit de lecture en
plus de diminuer la valeur du puits (la valeur max possible du signal
avant saturation).
/mode conjecture off/
/mode conjecture on/ En gros, mieux vaut dès le départ un capteurs à gros photosites... De ce que j'en intuiterais, non seulement ça réduit le bruit, mais ça augmente le signal avec (alors qu'en gros le pixel binning ne fait que l'un des deux), mais là je crois que j'ai une chance sur deux d'écrire une connerie. Le pixel binning ne marche bien qu'en mode "matériel"; Ce n'est
utilisable que sur des capteurs CCD d'ailleurs, et encore, construit pour...
Ou alors, c'est peut-être simplement que comme la lecture du capteur et le processeur d'image sont moins sollicités avec moins de MPix, on a plus de ressources pour une bonne analyse du signal, mais je ne serais pas étonné que trop de MPix augmente le bruit de lecture en plus de diminuer la valeur du puits (la valeur max possible du signal avant saturation). /mode conjecture off/
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique traditionnel (à matrice de Bayer) le nombre de pixels de l'image est égal au nombre de photosites du capteur.
-- Jean-Claude Ghislain www.grimart.com
On peu penser que dans ce cas chaque pixel résultant est le résultat
des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique
traditionnel (à matrice de Bayer) le nombre de pixels de l'image est
égal au nombre de photosites du capteur.
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique traditionnel (à matrice de Bayer) le nombre de pixels de l'image est égal au nombre de photosites du capteur.
-- Jean-Claude Ghislain www.grimart.com
Olivier B.
On Mon, 11 Jun 2007 22:21:25 +0200, "Jean-Claude Ghislain" wrote:
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique traditionnel (à matrice de Bayer) le nombre de pixels de l'image est égal au nombre de photosites du capteur.
qu'entend tu pas photosite, un element photosensible à une couleur (R ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus) qui compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12 elements photosensibles pour le composer
On Mon, 11 Jun 2007 22:21:25 +0200, "Jean-Claude Ghislain"
<jcg@grimart.invalid> wrote:
On peu penser que dans ce cas chaque pixel résultant est le résultat
des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique
traditionnel (à matrice de Bayer) le nombre de pixels de l'image est
égal au nombre de photosites du capteur.
qu'entend tu pas photosite, un element photosensible à une couleur (R
ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus) qui
compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12
elements photosensibles pour le composer
--
http://olivier.2a.free.fr/
pas de turlututu. apres l'@robase
On Mon, 11 Jun 2007 22:21:25 +0200, "Jean-Claude Ghislain" wrote:
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique traditionnel (à matrice de Bayer) le nombre de pixels de l'image est égal au nombre de photosites du capteur.
qu'entend tu pas photosite, un element photosensible à une couleur (R ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus) qui compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12 elements photosensibles pour le composer
On Mon, 11 Jun 2007 22:21:25 +0200, "Jean-Claude Ghislain" wrote:
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ? Pourrais-tu développer cette pensée ? Car sur un appareil numérique
traditionnel (à matrice de Bayer) le nombre de pixels de l'image est égal au nombre de photosites du capteur.
qu'entend tu pas photosite, un element photosensible à une couleur (R ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus) qui compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12 elements photosensibles pour le composer
Non, le dematriçage ne marche pas comme cela, c'est beaucoup plus compliqué (à l'exception des capteurs X3 de Foveon bien sûr).
On Mon, 11 Jun 2007 22:21:25 +0200, "Jean-Claude Ghislain"
<jcg@grimart.invalid> wrote:
On peu penser que dans ce cas chaque pixel résultant est le résultat
des valeurs de chaque pixel réel du capteur ?
Pourrais-tu développer cette pensée ? Car sur un appareil numérique
traditionnel (à matrice de Bayer) le nombre de pixels de l'image est
égal au nombre de photosites du capteur.
qu'entend tu pas photosite, un element photosensible à une couleur (R
ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus) qui
compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12
elements photosensibles pour le composer
Non, le dematriçage ne marche pas comme cela, c'est beaucoup plus
compliqué (à l'exception des capteurs X3 de Foveon bien sûr).
On Mon, 11 Jun 2007 22:21:25 +0200, "Jean-Claude Ghislain" wrote:
On peu penser que dans ce cas chaque pixel résultant est le résultat des valeurs de chaque pixel réel du capteur ? Pourrais-tu développer cette pensée ? Car sur un appareil numérique
traditionnel (à matrice de Bayer) le nombre de pixels de l'image est égal au nombre de photosites du capteur.
qu'entend tu pas photosite, un element photosensible à une couleur (R ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus) qui compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12 elements photosensibles pour le composer
Non, le dematriçage ne marche pas comme cela, c'est beaucoup plus compliqué (à l'exception des capteurs X3 de Foveon bien sûr).
un element photosensible à une couleur (R ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus)qui compose un pixel? si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12 elements photosensibles pour le composer
Un capteur est monochrome, pour en sortir un signal couleur trichrome (RVB) il existe plusieurs techniques.
Le tri-ccd, nous avons là 3 capteurs différents, respectivement filtré en Rouge, Vert et Bleu. On obtient trois signaux qu'il suffit de combiner pour obtenir une image couleur RVB.
Le tri-passe, ici il n'y a qu'un capteur et il est exposé en trois fois, d'abord derrière un filtre rouge, puis vert, puis bleu. Comme pour le tri-ccd, on obtient trois signaux qu'il suffit de combiner, mais ce n'est applicable que pour des sujets statiques.
On peut encore imaginer un capteur tri-couche, comme le Foveon, mais cette technique n'a pas, pour l'instant, un grand succès commercial.
Alors comment faire avec un seul capteur monochrome et en une seule passe pour obtenir une image couleur ? Utiliser une matrice de Bayer. Une matrice de Bayer est un damier coloré que l'on place devant le capteur (typiquement VRVB), chaque photosite capte une information de couleur et une seule. Comme chaque photosite représente un futur pixel, chaque pixel n'a qu'un tiers des informations colorimétriques nécessaires, il va donc falloir extrapoler, trouver les informations manquantes par déduction.
un element photosensible à une couleur (R ou V ou B voir plus) ou
l'ensemble des 3 elements (voir plus)qui compose un pixel?
si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12
elements photosensibles pour le composer
Un capteur est monochrome, pour en sortir un signal couleur trichrome
(RVB) il existe plusieurs techniques.
Le tri-ccd, nous avons là 3 capteurs différents, respectivement filtré
en Rouge, Vert et Bleu. On obtient trois signaux qu'il suffit de
combiner pour obtenir une image couleur RVB.
Le tri-passe, ici il n'y a qu'un capteur et il est exposé en trois fois,
d'abord derrière un filtre rouge, puis vert, puis bleu. Comme pour le
tri-ccd, on obtient trois signaux qu'il suffit de combiner, mais ce
n'est applicable que pour des sujets statiques.
On peut encore imaginer un capteur tri-couche, comme le Foveon, mais
cette technique n'a pas, pour l'instant, un grand succès commercial.
Alors comment faire avec un seul capteur monochrome et en une seule
passe pour obtenir une image couleur ? Utiliser une matrice de Bayer.
Une matrice de Bayer est un damier coloré que l'on place devant le
capteur (typiquement VRVB), chaque photosite capte une information de
couleur et une seule. Comme chaque photosite représente un futur pixel,
chaque pixel n'a qu'un tiers des informations colorimétriques
nécessaires, il va donc falloir extrapoler, trouver les informations
manquantes par déduction.
Quelques calculs en perspective...
Si tu veux faire des essais pratiques et voir comment ça marche, tu peux
charger le Bayer Demonstrator :
http://www.theimagingsource.com/fr/products/software/windows_apps/bayerdemonstrator/overview/
un element photosensible à une couleur (R ou V ou B voir plus) ou l'ensemble des 3 elements (voir plus)qui compose un pixel? si j'ai un capteur de 2 par 2 = 4 pixels à mon sens il faut 12 elements photosensibles pour le composer
Un capteur est monochrome, pour en sortir un signal couleur trichrome (RVB) il existe plusieurs techniques.
Le tri-ccd, nous avons là 3 capteurs différents, respectivement filtré en Rouge, Vert et Bleu. On obtient trois signaux qu'il suffit de combiner pour obtenir une image couleur RVB.
Le tri-passe, ici il n'y a qu'un capteur et il est exposé en trois fois, d'abord derrière un filtre rouge, puis vert, puis bleu. Comme pour le tri-ccd, on obtient trois signaux qu'il suffit de combiner, mais ce n'est applicable que pour des sujets statiques.
On peut encore imaginer un capteur tri-couche, comme le Foveon, mais cette technique n'a pas, pour l'instant, un grand succès commercial.
Alors comment faire avec un seul capteur monochrome et en une seule passe pour obtenir une image couleur ? Utiliser une matrice de Bayer. Une matrice de Bayer est un damier coloré que l'on place devant le capteur (typiquement VRVB), chaque photosite capte une information de couleur et une seule. Comme chaque photosite représente un futur pixel, chaque pixel n'a qu'un tiers des informations colorimétriques nécessaires, il va donc falloir extrapoler, trouver les informations manquantes par déduction.
marche pas sur Mac a moins d'utiliser je ne sais plus quoi...
Quelques calculs en perspective...
Merci de toutes ces explications précises eu concises, qui confirme ce
que je venais de lire...
Et qui justement justifie cette question ?
qui pour l'instant n'a pas de réponse.
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo
avec un capteur de 10Mo
n'ayant que la possibilité de 3 ou 5 je shoute en 5 pour l'instant bon
compromis place qualité...
Si tu veux faire des essais pratiques et voir comment ça marche, tu peux
charger le Bayer Demonstrator :
http://www.theimagingsource.com/fr/products/software/windows_apps/bayerdemonstrator/overview/
marche pas sur Mac a moins d'utiliser je ne sais plus quoi...
marche pas sur Mac a moins d'utiliser je ne sais plus quoi...
Olivier B.
On Tue, 12 Jun 2007 11:15:20 +0200, "Jean-Claude Ghislain" wrote:
Une matrice de Bayer est un damier coloré que l'on place devant le capteur (typiquement VRVB), chaque photosite capte une information de couleur et une seule. Comme chaque photosite représente un futur pixel, chaque pixel n'a qu'un tiers des informations colorimétriques nécessaires, il va donc falloir extrapoler, trouver les informations manquantes par déduction.
pour le filtrage je connais pour avoir bossé (depanné) du tri-ccd, j'ai meme dans mes tiroirs des tubes neufs de camera pro que je garde précieusement pur mon musée perso :-)
le flou si j'ose dire etait sur le rapport entre résolution pixel et nombre de photosites, merci d'y avoir répondu.
On Tue, 12 Jun 2007 11:15:20 +0200, "Jean-Claude Ghislain"
<jcg@grimart.invalid> wrote:
Une matrice de Bayer est un damier coloré que l'on place devant le
capteur (typiquement VRVB), chaque photosite capte une information de
couleur et une seule. Comme chaque photosite représente un futur pixel,
chaque pixel n'a qu'un tiers des informations colorimétriques
nécessaires, il va donc falloir extrapoler, trouver les informations
manquantes par déduction.
pour le filtrage je connais pour avoir bossé (depanné) du tri-ccd,
j'ai meme dans mes tiroirs des tubes neufs de camera pro que je garde
précieusement pur mon musée perso :-)
le flou si j'ose dire etait sur le rapport entre résolution pixel et
nombre de photosites, merci d'y avoir répondu.
--
http://olivier.2a.free.fr/
pas de turlututu. apres l'@robase
On Tue, 12 Jun 2007 11:15:20 +0200, "Jean-Claude Ghislain" wrote:
Une matrice de Bayer est un damier coloré que l'on place devant le capteur (typiquement VRVB), chaque photosite capte une information de couleur et une seule. Comme chaque photosite représente un futur pixel, chaque pixel n'a qu'un tiers des informations colorimétriques nécessaires, il va donc falloir extrapoler, trouver les informations manquantes par déduction.
pour le filtrage je connais pour avoir bossé (depanné) du tri-ccd, j'ai meme dans mes tiroirs des tubes neufs de camera pro que je garde précieusement pur mon musée perso :-)
le flou si j'ose dire etait sur le rapport entre résolution pixel et nombre de photosites, merci d'y avoir répondu.
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo avec un capteur de 10Mo
En théorie non. En pratique, 10 MPixels sur un petit capteur cela demande une optique de course et ce n'est pas toujours le cas. Il arrive que l'appareil ne semble pas fournir plus de détail à 10 MPixels qu'à 5 MPixels, car l'optique plafonne.
-- Jean-Claude Ghislain www.grimart.com
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo
avec un capteur de 10Mo
En théorie non. En pratique, 10 MPixels sur un petit capteur cela
demande une optique de course et ce n'est pas toujours le cas. Il
arrive que l'appareil ne semble pas fournir plus de détail à 10 MPixels
qu'à 5 MPixels, car l'optique plafonne.
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo avec un capteur de 10Mo
En théorie non. En pratique, 10 MPixels sur un petit capteur cela demande une optique de course et ce n'est pas toujours le cas. Il arrive que l'appareil ne semble pas fournir plus de détail à 10 MPixels qu'à 5 MPixels, car l'optique plafonne.
-- Jean-Claude Ghislain www.grimart.com
James
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo avec un capteur de 10Mo
En théorie non. En pratique, 10 MPixels sur un petit capteur cela demande une optique de course et ce n'est pas toujours le cas. Il arrive que l'appareil ne semble pas fournir plus de détail à 10 MPixels qu'à 5 MPixels, car l'optique plafonne.
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo
avec un capteur de 10Mo
En théorie non. En pratique, 10 MPixels sur un petit capteur cela
demande une optique de course et ce n'est pas toujours le cas. Il
arrive que l'appareil ne semble pas fournir plus de détail à 10 MPixels
qu'à 5 MPixels, car l'optique plafonne.
Ce n'est pas qu'un problème d'optique de course, mais plutôt un problème
de diffraction, qui ne dépend pas de l'optique.
Voir la fin de:
http://www.photo-lovers.org/fdiffraction.html.fr
Est-ce que finalement on n'a pas un meilleur résultat en prenant a 4Mo avec un capteur de 10Mo
En théorie non. En pratique, 10 MPixels sur un petit capteur cela demande une optique de course et ce n'est pas toujours le cas. Il arrive que l'appareil ne semble pas fournir plus de détail à 10 MPixels qu'à 5 MPixels, car l'optique plafonne.