Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
Le 19/03/2020 11:55, jdd a écrit :Le 19/03/2020 à 11:38, Thierry Houx a écrit :une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
pas mal du tout!
et y'en a qui se moquent de la japonaise !?
Le 19/03/2020 11:55, jdd a écrit :
Le 19/03/2020 à 11:38, Thierry Houx a écrit :
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
pas mal du tout!
et y'en a qui se moquent de la japonaise !?
Le 19/03/2020 11:55, jdd a écrit :Le 19/03/2020 à 11:38, Thierry Houx a écrit :une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
pas mal du tout!
et y'en a qui se moquent de la japonaise !?
Le 19/03/2020 à 15:49, Thierry Houx a écrit :Le 19/03/2020 à 13:21, Ghost-Raider a écrit :J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.
Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.
Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.
C'est un zoom, alors ça facilite en commençant plus large.J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.
Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg
Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg
Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance : 1069.78 m
Il était à quelle distance ?
Le 19/03/2020 à 15:49, Thierry Houx a écrit :
Le 19/03/2020 à 13:21, Ghost-Raider a écrit :
J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.
Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.
Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.
Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.
Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.
C'est un zoom, alors ça facilite en commençant plus large.
J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.
Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.
Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg
Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg
Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance : 1069.78 m
Il était à quelle distance ?
Le 19/03/2020 à 15:49, Thierry Houx a écrit :Le 19/03/2020 à 13:21, Ghost-Raider a écrit :J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.
Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.
Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.
C'est un zoom, alors ça facilite en commençant plus large.J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.
Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg
Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg
Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance : 1069.78 m
Il était à quelle distance ?
Le 19/03/2020 à 15:49, Thierry Houx a écrit :Le 19/03/2020 à 13:21, Ghost-Raider a écrit :J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.
Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.
Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.
C'est un zoom, alors ça facilite en commençant plus large.J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.
Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg
Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg
Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance : 1069.78 m
Il était à quelle distance ?
Le 19/03/2020 à 15:49, Thierry Houx a écrit :
Le 19/03/2020 à 13:21, Ghost-Raider a écrit :
J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.
Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.
Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.
Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.
Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.
C'est un zoom, alors ça facilite en commençant plus large.
J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.
Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.
Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg
Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg
Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance : 1069.78 m
Il était à quelle distance ?
Le 19/03/2020 à 15:49, Thierry Houx a écrit :Le 19/03/2020 à 13:21, Ghost-Raider a écrit :J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg
Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.
Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.
Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.
C'est un zoom, alors ça facilite en commençant plus large.J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.
Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg
Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg
Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance : 1069.78 m
Il était à quelle distance ?
Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Le 20/03/2020 à 08:51, efji a écrit :1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
le concept date de pas mal d'années (développement en série...)
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
ça je n'en suis pas persuadé
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
ben si. C'est juste que cette puissance de calcul est *on site*, sur le
capteur. La taille du photosite n'est qu'un paramètre du capteur parmi
d'autres. D'ailleurs, que savons nous de la taille des photosites? Je
suis convaincu que les datasheet fournis par les fabricants au public
sont vérolés pour dérouter la concurrence, comme les schémas d'objectifs
il y a quelques (dizaines) d'années...
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),
mais je ne crois pas que nous ayons de réelle divergence, à peine un
problème de langage, j'argumente pour clarifier des énoncés. J'ai un
parent dans l'intelligence artificielle, il a il y a déjà maintenant
quelques années mis au point un logiciel de lecture de clichés
radiologiques qui doit faire 95% du boulot d'un médecin (en fait 120%,
mais pas tout à fait sur les mêmes éléments)
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
c'est tellement moins élégant.
c'est aussi pour ça, malheureusement, qu'on ne fait pas beaucoup plus de
choses en bureautique aujourd'hui qu'avec un Apple II :-(
ne pas oublier quand même que tout est défini par des équations
différentielles et que bien peu ont des solutions exactes.
l'ordinateur quantique embarqué n'est pas pour demain :-)
https://fr.wikipedia.org/wiki/Calculateur_quantique#Int%C3%A9r%C3%AAt_des_calculateurs_quantiques
Le 20/03/2020 à 08:51, efji a écrit :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
le concept date de pas mal d'années (développement en série...)
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
ça je n'en suis pas persuadé
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
ben si. C'est juste que cette puissance de calcul est *on site*, sur le
capteur. La taille du photosite n'est qu'un paramètre du capteur parmi
d'autres. D'ailleurs, que savons nous de la taille des photosites? Je
suis convaincu que les datasheet fournis par les fabricants au public
sont vérolés pour dérouter la concurrence, comme les schémas d'objectifs
il y a quelques (dizaines) d'années...
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),
mais je ne crois pas que nous ayons de réelle divergence, à peine un
problème de langage, j'argumente pour clarifier des énoncés. J'ai un
parent dans l'intelligence artificielle, il a il y a déjà maintenant
quelques années mis au point un logiciel de lecture de clichés
radiologiques qui doit faire 95% du boulot d'un médecin (en fait 120%,
mais pas tout à fait sur les mêmes éléments)
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
c'est tellement moins élégant.
c'est aussi pour ça, malheureusement, qu'on ne fait pas beaucoup plus de
choses en bureautique aujourd'hui qu'avec un Apple II :-(
ne pas oublier quand même que tout est défini par des équations
différentielles et que bien peu ont des solutions exactes.
l'ordinateur quantique embarqué n'est pas pour demain :-)
https://fr.wikipedia.org/wiki/Calculateur_quantique#Int%C3%A9r%C3%AAt_des_calculateurs_quantiques
Le 20/03/2020 à 08:51, efji a écrit :1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
le concept date de pas mal d'années (développement en série...)
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
ça je n'en suis pas persuadé
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
ben si. C'est juste que cette puissance de calcul est *on site*, sur le
capteur. La taille du photosite n'est qu'un paramètre du capteur parmi
d'autres. D'ailleurs, que savons nous de la taille des photosites? Je
suis convaincu que les datasheet fournis par les fabricants au public
sont vérolés pour dérouter la concurrence, comme les schémas d'objectifs
il y a quelques (dizaines) d'années...
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),
mais je ne crois pas que nous ayons de réelle divergence, à peine un
problème de langage, j'argumente pour clarifier des énoncés. J'ai un
parent dans l'intelligence artificielle, il a il y a déjà maintenant
quelques années mis au point un logiciel de lecture de clichés
radiologiques qui doit faire 95% du boulot d'un médecin (en fait 120%,
mais pas tout à fait sur les mêmes éléments)
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
c'est tellement moins élégant.
c'est aussi pour ça, malheureusement, qu'on ne fait pas beaucoup plus de
choses en bureautique aujourd'hui qu'avec un Apple II :-(
ne pas oublier quand même que tout est défini par des équations
différentielles et que bien peu ont des solutions exactes.
l'ordinateur quantique embarqué n'est pas pour demain :-)
https://fr.wikipedia.org/wiki/Calculateur_quantique#Int%C3%A9r%C3%AAt_des_calculateurs_quantiques
Le 20/03/2020 à 08:15, jdd a écrit :Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Le 20/03/2020 à 08:15, jdd a écrit :Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Le 20/03/2020 à 08:51, efji a écrit :efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Le 20/03/2020 à 08:51, efji a écrit :
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Le 20/03/2020 à 08:51, efji a écrit :efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.
on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)