Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

[ANG] Les tests chez DxO

61 réponses
Avatar
Fred
Interessant article AMHA
<http://news.cnet.com/8301-11386_3-57415777-76/how-dxo-labs-tests-hot-cameras-like-canons-latest-slr/>

10 réponses

1 2 3 4 5
Avatar
Bour-Brown
Elohan a écrit
( jn30j0$37m$ )

Or les problèmes de photos floues se sont développés sur les boîtiers à
forte densité de pixels.



C'est tout le problème des tests : ils ne mesurent que ce qu'ils veulent
bien mesurer.
Avatar
Bour-Brown
jdd a écrit
( 4f950bda$0$703$ )

Une mire aléatoire peut être générée facilement et utilisée quelques mois,
l'évolution d'un appareil photo est plus lente que celle d'un logiciel



Perso j'aime comparer avec les mêmes mires.


cette façon de régler par rapport aux tests est bien connue en
informatique avec les benchmarks.



On a le cas en informatique parce que c'est facile à implémenter, genre des
logiciels d'échec préparés à telle ou telle ouverture, et ensuite aux tests,
enregistrant des scores nettement supérieurs à leur niveau de jeu.

De toute façon, admettons même qu'on ait des tests irréfutables sur la
capacité de tel ou tel appareil à résoudre un certain nombre de lignes, par
exemple 80 trucmuches au centre et 50 en périphérie, alors qu'un autre fait
65 au centre et 60 en périphérie. Tu prends lequel, toi ?
Avatar
Jean-Pierre Roche
Le 23/04/2012 10:05, Elohan a écrit :

"C'est juste la conséquence de l'augmentation de la
résolution."
Quelles sont tes explications pour justifier cette idée ?



Il y a certaines explications qui sont très simples : par
exemple la profondeur de champ dépend du cercle de confusion
choisi qu'on peut associer à la résolution. D'autres assez
évidentes : un très léger bougé est invisible sur une image
d'une certaine taille et clairement visible si l'image est
beaucoup plus grande. Un peu de pratique de la photo (ou
même juste regarder des images sur un écran) permet de le
constater aisément...

Toi tu l'affirmes, moi je me pose seulement la question.
Parce qu'il y plusieurs évolutions concomitantes: nombre de
pixels, type d'AF, nombre et qualité des collimateurs,
développement des optiques IS...Comment faire la part des
choses ? Attention à ne pas retomber dans les idées reçues.



A quoi sert (globalement) de faire la part des choses ? Ce
qui compte pour un photographe est d'arriver à obtenir la
netteté qu'il souhaite pour es photos : en *pratiquant* on
arrive déterminer ce qu'il faut faire et ne pas faire amha.
C'est de la pratique, pas de la théorie ou de la science car
vu le nombre de facteurs il est impossible à un individu de
déterminer la part relative de chaque facteur. En revanche
on peut facilement dire que, par exemple, le nombre de
collimateurs n'intervient pas si on fait de la photo plutôt
statique mais que ce sera déterminant pour la photo d'objets
se mouvant à grande vitesse. De même l'action d'un
stabilisateur est plus ou moins efficace suivant sa nature,
la focale mais aussi l'utilisateur dont les mouvements
parasites peuvent être différents. Ce qui compte est de
savoir qu'avec l'optique dont on dispose on peut descendre à
telle vitesse avec un taux de réussite acceptable.

--
Jean-Pierre Roche

enlever sanspub pour m'écrire...
Avatar
Elohan
Jean-Pierre Roche a écrit :
Le 23/04/2012 10:05, Elohan a écrit :

"C'est juste la conséquence de l'augmentation de la
résolution."
Quelles sont tes explications pour justifier cette idée ?



Il y a certaines explications qui sont très simples : par exemple la
profondeur de champ dépend du cercle de confusion choisi qu'on peut associer
à la résolution.
D'autres assez évidentes : un très léger bougé est invisible
sur une image d'une certaine taille et clairement visible si l'image est
beaucoup plus grande.



Ça n'a rien à voir avec la question...


Toi tu l'affirmes, moi je me pose seulement la question.
Parce qu'il y plusieurs évolutions concomitantes: nombre de
pixels, type d'AF, nombre et qualité des collimateurs,
développement des optiques IS...Comment faire la part des
choses ? Attention à ne pas retomber dans les idées reçues.



A quoi sert (globalement) de faire la part des choses ?



C'est pourtant bien ce que tu fais en inputant manque de netteté et
nombre de pixels.

Ce qui compte pour un
photographe est d'arriver à obtenir la netteté qu'il souhaite pour es photos :
en *pratiquant* on arrive déterminer ce qu'il faut faire et ne pas faire
amha.
C'est de la pratique, pas de la théorie ou de la science car vu le nombre de
facteurs il est impossible à un individu de déterminer la part relative de
chaque facteur.



Pense alors à cette phrase à chaque fois que tu veux avancer un lien de
cause à effet.
Avatar
Jean-Pierre Roche
Le 23/04/2012 10:53, Elohan a écrit :

Il y a certaines explications qui sont très simples : par
exemple la profondeur de champ dépend du cercle de
confusion choisi qu'on peut associer à la résolution.
D'autres assez évidentes : un très léger bougé est
invisible sur une image d'une certaine taille et
clairement visible si l'image est beaucoup plus grande.



Ça n'a rien à voir avec la question...



? ta logique m'échappe. Le rapport entre netteté, nombre de
pixels et les éléments que j'avance est évident...

le nombre de facteurs il est impossible à un
individu de déterminer la part relative de chaque facteur.



Pense alors à cette phrase à chaque fois que tu veux avancer
un lien de cause à effet.



? je ne détermine pas la part, je constate juste que tel ou
tel paramètre influe. Encore une fois, la photographie est
une pratique. Sauf pour les ingénieurs qui conçoivent les
appareils (et encore). Vouloir faire de la théorie sans les
bases n'a aucun sens.


--
Jean-Pierre Roche

enlever sanspub pour m'écrire...
Avatar
Elohan
Jean-Pierre Roche a écrit :
Le 23/04/2012 10:53, Elohan a écrit :

Il y a certaines explications qui sont très simples : par
exemple la profondeur de champ dépend du cercle de
confusion choisi qu'on peut associer à la résolution.
D'autres assez évidentes : un très léger bougé est
invisible sur une image d'une certaine taille et
clairement visible si l'image est beaucoup plus grande.



Ça n'a rien à voir avec la question...



? ta logique m'échappe. Le rapport entre netteté, nombre de pixels et les
éléments que j'avance est évident...



Non, ça n'a justement rien d'évident.
Augmenter la résolution du capteur permet de restituer davantage de
détails à l'agrandissement. Mais si le flou de bougé est lui aussi
amplifié, "qui gagne" ? La finesse du détail ou au contraire la perte
de netteté ? Voilà la question, il faudrait des éléments de physique et
de géométrie pour l'étayer. Les pseudo-évidences, ça fait juste les
idées reçues.


le nombre de facteurs il est impossible à un
individu de déterminer la part relative de chaque facteur.



Pense alors à cette phrase à chaque fois que tu veux avancer
un lien de cause à effet.



? je ne détermine pas la part, je constate juste que tel ou tel paramètre
influe.



Tu te contredis d'une phrase à l'autre...Un coup, c'est
il est impossible à un individu de déterminer la part relative de chaque
facteur.






Le suivant, c'est
je constate juste que tel ou tel paramètre influe. :D



Bon, arrête-là, reconnais juste que tu n'en sais absolument rien. Ce
n'est pas grave, on peut très bien ne pas maîtriser ce qui se passe et
faire des photos quand même...Mais alors tu ferais bien de ne pas
affirmer des trucs que tu ne maîtrises pas.
Avatar
Jean-Pierre Roche
Le 23/04/2012 11:23, Elohan a écrit :

Augmenter la résolution du capteur permet de restituer
davantage de détails à l'agrandissement. Mais si le flou de
bougé est lui aussi amplifié, "qui gagne" ? La finesse du
détail ou au contraire la perte de netteté ? Voilà la
question, il faudrait des éléments de physique et de
géométrie pour l'étayer. Les pseudo-évidences, ça fait juste
les idées reçues.



La réponse est assez simple : il faut opérer de telle
manière à ce que le flou de bougé soit plus faible. C'est
juste une modification de *sa* pratique. Et on le *voit* sur
les images.

reconnais juste que tu n'en sais absolument
rien. Ce n'est pas grave, on peut très bien ne pas maîtriser
ce qui se passe et faire des photos quand même...Mais alors
tu ferais bien de ne pas affirmer des trucs que tu ne
maîtrises pas.



Bah... Je fais de la photo depuis assez longtemps et avec
des équipements assez divers pour avoir une idée assez juste
de ce genre de problème... Même si je ne peux pas les
quantifier. Personne ne le peut d'ailleurs : par exemple on
peut lire des tests de stabilisateurs qui indiquent, pour
une vitesse donnée, un pourcentage de photos nettes pour un
opérateur et un autre pourcentage pour un autre. Ce qui me
semble honnête. Dire qu'on sait tout est juste de la
prétention, dire qu'on ne sait rien absurde amha. Car tout
cela est corrélé par la pratique. Ce qui suppose qu'on
pratique évidemment...

--
Jean-Pierre Roche

enlever sanspub pour m'écrire...
Avatar
Charles Vassallo
Elohan a écrit :

Ce sont plutôt ceux qui associent montée en pixels et montée du bruit à
haut ISO qui devraient prouver la conséquence de l'un sur l'autre. Mais
ils en sont incapables. Ils ne font que répéter les dires de
pseudo-experts Chasseur d'images&Co. Les vrais experts sont les
ingénieurs des bureaux d'études Canon, Nikon, etc. Pas les journalistes
testeurs.




Un petit pixel captant moins d'énergie qu'un gros, il faudra plus de
gain dans l'électronique associée pour obtenir un même niveau de signal
en sortie. Plus de gain demandé à l'électronique, plus de bruit. Et en
signal fort, (quand on sort du bruit de fond de l'électronique), moins
de photons captés, plus de bruit de photons. Bref, peu de bruit avec de
gros pixels et beaucoup avec de petits : rien de sorcier là-dedans. Ce
serait un mauvais procès à intenter à qui que ce soit.

C'est d'ailleurs écrit en toutes lettres dans l'un des papiers de DxO
http://www.dxomark.com/index.php/Publications/DxOMark-Insights/More-pixels-offset-noise!

Maintenant, au fil du temps, il est vraisemblable que les capteurs ont
amélioré leurs performances à cause des progrès de l'électronique, et
aussi, peut-être, d'une meilleure collecte des photons. Mais croire que
le progrès technologique se poursuivra indéfiniment, c'est une autre
histoire.

Charles
Avatar
Stephane Legras-Decussy
Le 23/04/2012 09:49, Jean-Pierre Roche a écrit :

Le problème est connu... Quand on est passé de 6 à 10 ou 12 Mpixels
beaucoup de photographes se sont aperçu que la "netteté par pixel" était
en forte baisse. Ce qui passait inaperçu avec les résolutions
antérieures devenait gênant : tout bougé, erreur de mise au point,
profondeur de champ insuffisante entraînait un flou relatif.



toutafé... j'ai un ami "photographe à l'ancienne" qui est
assez déçu de voir ses photos de Lumix 14Mpix (son 1er APN!) en zoom
100%...

je lui ai expliqué qu'il faut resizer à la taille de ses scan
argentiques (6mpix) s'il veut comparer sereinement... + un peu
de postprod avec Dxo film pack.

là ça va beaucoup mieux, les images tiennent la route...
Avatar
Stephane Legras-Decussy
Le 22/04/2012 23:22, Fred a écrit :
Interessant article AMHA
<http://news.cnet.com/8301-11386_3-57415777-76/how-dxo-labs-tests-hot-cameras-like-canons-latest-slr/>




perso, Dxo test c'est le business de la pignole pseudo scientifique ...

reste les logiciels qui sont excellents...
1 2 3 4 5