Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire ?
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Des pistes :
- meilleure concentration de la lumière dans les puits des phot-sites
grâce à une amélioration de l'orientation des lentilles ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de la géométrie des capteurs : capteurs
courbes ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de l'orientation des photo-sites :
puits orientés ?
Etc ...
Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire ?
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Des pistes :
- meilleure concentration de la lumière dans les puits des phot-sites
grâce à une amélioration de l'orientation des lentilles ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de la géométrie des capteurs : capteurs
courbes ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de l'orientation des photo-sites :
puits orientés ?
Etc ...
Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire ?
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Des pistes :
- meilleure concentration de la lumière dans les puits des phot-sites
grâce à une amélioration de l'orientation des lentilles ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de la géométrie des capteurs : capteurs
courbes ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de l'orientation des photo-sites :
puits orientés ?
Etc ...
Le 20/03/2020 à 10:08, jdd a écrit :Le 20/03/2020 à 08:51, efji a écrit :efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Dans ma vie d'avant, mon domaine était l'informatique industrielle.
Alors pour revenir à des choses simples:
- Avant de traiter un signal, il vaut mieux que celui-ci soit le plus
propre possible: nécessite un bon capteur et utilisé dans sa plage de
mesure où il donne le meilleur résultat.
- Si on a un signal correct, le traitement nécessaire à celui-ci est
simple et rapide: Donc, l'algorithme n'est pas poussé dans ses
retranchements.
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.
Le 20/03/2020 à 10:08, jdd a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Dans ma vie d'avant, mon domaine était l'informatique industrielle.
Alors pour revenir à des choses simples:
- Avant de traiter un signal, il vaut mieux que celui-ci soit le plus
propre possible: nécessite un bon capteur et utilisé dans sa plage de
mesure où il donne le meilleur résultat.
- Si on a un signal correct, le traitement nécessaire à celui-ci est
simple et rapide: Donc, l'algorithme n'est pas poussé dans ses
retranchements.
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.
Le 20/03/2020 à 10:08, jdd a écrit :Le 20/03/2020 à 08:51, efji a écrit :efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Dans ma vie d'avant, mon domaine était l'informatique industrielle.
Alors pour revenir à des choses simples:
- Avant de traiter un signal, il vaut mieux que celui-ci soit le plus
propre possible: nécessite un bon capteur et utilisé dans sa plage de
mesure où il donne le meilleur résultat.
- Si on a un signal correct, le traitement nécessaire à celui-ci est
simple et rapide: Donc, l'algorithme n'est pas poussé dans ses
retranchements.
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.
Le 20/03/2020 à 08:51, efji a écrit :Le 20/03/2020 à 08:15, jdd a écrit :Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Le 20/03/2020 à 08:51, efji a écrit :
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Le 20/03/2020 à 08:51, efji a écrit :Le 20/03/2020 à 08:15, jdd a écrit :Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000?
Le 20/03/2020 à 11:01, efji a écrit :Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
La densité de la gravure, et il est possible qu'elle soit aussi en cause
sur les capteur.
Diminution de taille = diminution de l'échauffement = diminution du bruit.
Le 20/03/2020 à 11:01, efji a écrit :
>
> Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
> 100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
>
>
La densité de la gravure, et il est possible qu'elle soit aussi en cause
sur les capteur.
Diminution de taille = diminution de l'échauffement = diminution du bruit.
Le 20/03/2020 à 11:01, efji a écrit :Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
La densité de la gravure, et il est possible qu'elle soit aussi en cause
sur les capteur.
Diminution de taille = diminution de l'échauffement = diminution du bruit.
Le 20/03/2020 à 11:01, efji a écrit :Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000?
la finesse de gravure et la fréquence d'horloge. J'ai remarqué tout
récemment que la vitesse de travail d'un PC dépends non pas de son âge
ou de son processeur mais de sa vitesse d'horloge
pas que ce ne soit pas évident, mais un portable i3 à 1Ghz va moins vite
qu'un dualcore 5 ans plus vieux mais à 2.5Ghz
(et coûte 10 fois moins cher).
ça c'est juste l'amélioration des processus de fabrication
jdd
Le 20/03/2020 à 11:01, efji a écrit :
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000?
la finesse de gravure et la fréquence d'horloge. J'ai remarqué tout
récemment que la vitesse de travail d'un PC dépends non pas de son âge
ou de son processeur mais de sa vitesse d'horloge
pas que ce ne soit pas évident, mais un portable i3 à 1Ghz va moins vite
qu'un dualcore 5 ans plus vieux mais à 2.5Ghz
(et coûte 10 fois moins cher).
ça c'est juste l'amélioration des processus de fabrication
jdd
Le 20/03/2020 à 11:01, efji a écrit :Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000?
la finesse de gravure et la fréquence d'horloge. J'ai remarqué tout
récemment que la vitesse de travail d'un PC dépends non pas de son âge
ou de son processeur mais de sa vitesse d'horloge
pas que ce ne soit pas évident, mais un portable i3 à 1Ghz va moins vite
qu'un dualcore 5 ans plus vieux mais à 2.5Ghz
(et coûte 10 fois moins cher).
ça c'est juste l'amélioration des processus de fabrication
jdd
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs.
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs.
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs.
Ben une danseuse Apsara en pleine prestation, c'est quand même pas la
même chose.
Ben une danseuse Apsara en pleine prestation, c'est quand même pas la
même chose.
Ben une danseuse Apsara en pleine prestation, c'est quand même pas la
même chose.