Le 20/03/2020 à 16:20, Stephane Legras-Decussy a écrit :
Le 20/03/2020 12:10, jdd a écrit :
oui, et sur le traitement du signal au plus près de la source.
?? on s'en fout c'est du numerique. pour memo, un capteur photo sort de l'analogique...
faudrait savoir? le traitement du signal c'est la partie numérique, mais la source est analogique, entre les deux c'est aussi de l'analogique, d'où l'avantage de réduire les distances. jdd -- http://dodin.org
Le 20/03/2020 à 16:20, Stephane Legras-Decussy a écrit :
Le 20/03/2020 12:10, jdd a écrit :
oui, et sur le traitement du signal au plus près de la source.
?? on s'en fout c'est du numerique.
pour memo, un capteur photo sort de l'analogique...
faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.
Le 20/03/2020 à 16:20, Stephane Legras-Decussy a écrit :
Le 20/03/2020 12:10, jdd a écrit :
oui, et sur le traitement du signal au plus près de la source.
?? on s'en fout c'est du numerique. pour memo, un capteur photo sort de l'analogique...
faudrait savoir? le traitement du signal c'est la partie numérique, mais la source est analogique, entre les deux c'est aussi de l'analogique, d'où l'avantage de réduire les distances. jdd -- http://dodin.org
Stephane Legras-Decussy
Le 20/03/2020 16:13, efji a écrit :
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :
Le 20/03/2020 08:51, efji a écrit :
et réglé par des méthodes bêtasses ce qui ne nous fait jamais plaisir :)
sauf dans les codecs... même avec l'explosion de bandes passantes, ils sont de plus en plus sioux...
Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est justement "sioux", mais sans jolies équations ni jolie théorie derrière sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
ah ok je pensais que tu parlais de la force brute...
Le 20/03/2020 16:13, efji a écrit :
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :
Le 20/03/2020 08:51, efji a écrit :
et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
sauf dans les codecs... même avec l'explosion de bandes passantes,
ils sont de plus en plus sioux...
Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est
justement "sioux", mais sans jolies équations ni jolie théorie derrière
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
ah ok je pensais que tu parlais de la force brute...
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :
Le 20/03/2020 08:51, efji a écrit :
et réglé par des méthodes bêtasses ce qui ne nous fait jamais plaisir :)
sauf dans les codecs... même avec l'explosion de bandes passantes, ils sont de plus en plus sioux...
Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est justement "sioux", mais sans jolies équations ni jolie théorie derrière sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
ah ok je pensais que tu parlais de la force brute...
Thierry Houx
Le 20/03/2020 à 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation... jdd
Et pas besoin d'être programmeur pour pondre un algorithme. Le mathématicien doit pouvoir y arriver. Par contre, pour décliner l'algorithme en code, mieux vaut savoir programmer.
Le 20/03/2020 à 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
jdd
Et pas besoin d'être programmeur pour pondre un algorithme. Le
mathématicien doit pouvoir y arriver.
Par contre, pour décliner l'algorithme en code, mieux vaut savoir
programmer.
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation... jdd
Et pas besoin d'être programmeur pour pondre un algorithme. Le mathématicien doit pouvoir y arriver. Par contre, pour décliner l'algorithme en code, mieux vaut savoir programmer.
Stephane Legras-Decussy
Le 20/03/2020 16:22, jdd a écrit :
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :
le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes instruments si ça colle avec les promesses du datasheet.
celle qui te donne les entrées et les sorties, pas celles qui t'expliquent comment ça marche à l'intérieur :-)
on s'en fout completement ! ya même pas de datasheet qui t'explique comment c'est construit dedans. tu achètes un transistor, la datasheet te donne les perfs du machin telles que mesurables de l'exterieur... c'est le seul truc qui t'interesse. vitesse... frequence... rapport signal/bruit... dérive T°C... sont les seuls trucs interessants et vérifiables immédiatement.
Le 20/03/2020 16:22, jdd a écrit :
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :
le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes
instruments si ça colle avec les promesses du datasheet.
celle qui te donne les entrées et les sorties, pas celles qui
t'expliquent comment ça marche à l'intérieur :-)
on s'en fout completement ! ya même pas de datasheet qui t'explique
comment c'est construit dedans.
tu achètes un transistor, la datasheet te donne les perfs du machin
telles que mesurables de l'exterieur... c'est le seul truc qui
t'interesse.
vitesse... frequence... rapport signal/bruit... dérive T°C...
sont les seuls trucs interessants et vérifiables immédiatement.
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :
le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes instruments si ça colle avec les promesses du datasheet.
celle qui te donne les entrées et les sorties, pas celles qui t'expliquent comment ça marche à l'intérieur :-)
on s'en fout completement ! ya même pas de datasheet qui t'explique comment c'est construit dedans. tu achètes un transistor, la datasheet te donne les perfs du machin telles que mesurables de l'exterieur... c'est le seul truc qui t'interesse. vitesse... frequence... rapport signal/bruit... dérive T°C... sont les seuls trucs interessants et vérifiables immédiatement.
Stephane Legras-Decussy
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle. un diplome de programmation c'est pour les pas bons en math qui vont traduire des algo en code... ou faire de la maintenance soft.
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle. un diplome de programmation c'est pour les pas bons en math qui vont traduire des algo en code... ou faire de la maintenance soft.
Stephane Legras-Decussy
Le 20/03/2020 16:25, jdd a écrit :
pour la partie analogique, oui, en numérique, tant que le composant ne fond pas :-)
yep... mais un capteur photo est un composant analogique.
Le 20/03/2020 16:25, jdd a écrit :
pour la partie analogique, oui, en numérique, tant que le composant ne
fond pas :-)
yep... mais un capteur photo est un composant analogique.
pour la partie analogique, oui, en numérique, tant que le composant ne fond pas :-)
yep... mais un capteur photo est un composant analogique.
Stephane Legras-Decussy
Le 20/03/2020 16:26, jdd a écrit :
faudrait savoir? le traitement du signal c'est la partie numérique, mais la source est analogique, entre les deux c'est aussi de l'analogique, d'où l'avantage de réduire les distances.
le capteur est analogique... on colle à côté au plus près un ADC (convertisseur Analog digital)... ensuite tu balances le flux numérique où tu veux au loin pour le traitement sur un calculateur.
Le 20/03/2020 16:26, jdd a écrit :
faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.
le capteur est analogique... on colle à côté au plus près un ADC
(convertisseur Analog digital)... ensuite tu balances le flux numérique
où tu veux au loin pour le traitement sur un calculateur.
faudrait savoir? le traitement du signal c'est la partie numérique, mais la source est analogique, entre les deux c'est aussi de l'analogique, d'où l'avantage de réduire les distances.
le capteur est analogique... on colle à côté au plus près un ADC (convertisseur Analog digital)... ensuite tu balances le flux numérique où tu veux au loin pour le traitement sur un calculateur.
Ghost-Raider
Le 20/03/2020 à 11:01, efji a écrit :
Le 20/03/2020 à 10:36, Ghost-Raider a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien plus augmentée que la taille des capteurs. Si on reste sur les x2 fois plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup, beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour un écran seulement 20 fois plus grand. Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la vitesse du processeur, le temps d'attente acceptable par l'usager étant réduit. ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et limite inutilisable, alors que celui du gx80 est très agréable à l'œil. "Le débruitage et la déconvolution d’image sont des opérations lourdes et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des méthodes de trai-tement d’image, et de développer les codes de calculs correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA pour des calculs ultra rapides." https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est : 1/ les concepts utilisés en débruitage n'ont pas subi de révolution depuis 20 ans. 2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu veux, tu n'en sortiras rien. Shit in shit out. 3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des photosites plus petits en plus. Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien ce qui se fait dans les labos de recherche sur le sujet puisque c'est mon métier (pas le débruitage mais la recherche en maths appliquées), et je sais que c'est très très loin de ce qui se fait dans l'industrie : les méthodes mathématiques développées par les chercheurs sont à la fois plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins efficaces que ce que l'on trouve dans les outils commerciaux qui utilisent des heuristiques extrêmement rapides et efficaces. Le rapport que tu cites date de 2010 et n'est pas forcément le plus pertinent sur le sujet. Cela dit ces sujets ont complètement disparu des labos depuis, car il y a des modes comme partout dans ce domaine, et aussi car le problème est considéré comme réglé du fait de l'amélioration des capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous fait jamais plaisir :)
Attention quand même à rester scientifique.
J'essaye
Sauf à la fin où tu introduis un argument de coût.
Tu dis en substance, et corrige-moi éventuellement, que : - la qualité du débruitage résultant a spectaculairement augmentée et sur des capteurs bien plus petits,
Pas du tout. Je dis que la qualité de l'image finale a spectaculairement augmenté, et que la plus grande partie de cette amélioration vient du hard (le capteur) et non du soft (les algorithmes derrière le signal brut) comme tu le prétends.
Tu dis plus haut, le 19/3 à 16h26: "L'atténuation du bruit a fait quelques progrès mais pas tant que ça en fait. Ce sont bien les capteurs qui ont progressé.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
Sur le fond en effet.
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
Il n'y a qu'à voir ce que fait Thierry :) Il dispose de toute la puissance qu'il veut pour traiter ses raw mais n'arrive pas à la cheville de ce qui sort directement de son boitier qui a une capacité de calcul minime. Blague à part, les calculs de débruitage ne nécessitent pas de grosses ressources, sauf ceux qui utilisent la résolution d'équations aux dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos de recherche car ils sont bien moins bons en pratique que les algorithmes plus heuristiques.
- la vitesse de calcul n'est pas pertinente, - les algorithmes nouveaux sont inefficace pour des photos anciennes,
Pas inefficaces, juste marginalement efficaces.
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué. Admettons, mais en quoi ont-ils changé ?
Aucune idée, je n'y connais rien en électronique, mais à mon avis ils ont juste suivi la même pente technologique que les processeurs et les mémoires.
Tu exprimes un avis qui n'est pas étayé par des preuves. Voilà où ça ne va pas. Ce n'est pas scientifique.
Il faut des preuves.
The proof is in the pudding ! >
On sait que : - la densité des photo-sites a (un peu) augmenté,
Un facteur 5.
- leur géométrie a été (un peu) améliorée
ah bon ?
Dans leur forme et leur disposition.
- les matériaux utilisés ont été (un peu) améliorés
aucune idée
Ce serait pourtant une piste pour toi.
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette amélioration spectaculaire Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule 100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Justement, je te le demanderai ensuite quand tu m'auras, raisonnablement, prouvé que l'amélioration des photos actuelles est due surtout aux capteurs. Je suis près à le croire, mais je demande des preuves et pas un raisonnement par élimination des autres facteurs possibles, ce qui n'est pas scientifique.
Le 20/03/2020 à 11:01, efji a écrit :
Le 20/03/2020 à 10:36, Ghost-Raider a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
J'essaye
Sauf à la fin où tu introduis un argument de coût.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
Pas du tout. Je dis que la qualité de l'image finale a spectaculairement
augmenté, et que la plus grande partie de cette amélioration vient du
hard (le capteur) et non du soft (les algorithmes derrière le signal
brut) comme tu le prétends.
Tu dis plus haut, le 19/3 à 16h26:
"L'atténuation du bruit a fait quelques progrès mais pas tant que ça en
fait. Ce sont bien les capteurs qui ont progressé.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
Sur le fond en effet.
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
Il n'y a qu'à voir ce que fait Thierry :)
Il dispose de toute la puissance qu'il veut pour traiter ses raw mais
n'arrive pas à la cheville de ce qui sort directement de son boitier qui
a une capacité de calcul minime.
Blague à part, les calculs de débruitage ne nécessitent pas de grosses
ressources, sauf ceux qui utilisent la résolution d'équations aux
dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos
de recherche car ils sont bien moins bons en pratique que les
algorithmes plus heuristiques.
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Pas inefficaces, juste marginalement efficaces.
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Aucune idée, je n'y connais rien en électronique, mais à mon avis ils
ont juste suivi la même pente technologique que les processeurs et les
mémoires.
Tu exprimes un avis qui n'est pas étayé par des preuves.
Voilà où ça ne va pas. Ce n'est pas scientifique.
Il faut des preuves.
The proof is in the pudding ! >
On sait que :
- la densité des photo-sites a (un peu) augmenté,
Un facteur 5.
- leur géométrie a été (un peu) améliorée
ah bon ?
Dans leur forme et leur disposition.
- les matériaux utilisés ont été (un peu) améliorés
aucune idée
Ce serait pourtant une piste pour toi.
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Justement, je te le demanderai ensuite quand tu m'auras,
raisonnablement, prouvé que l'amélioration des photos actuelles est due
surtout aux capteurs.
Je suis près à le croire, mais je demande des preuves et pas un
raisonnement par élimination des autres facteurs possibles, ce qui n'est
pas scientifique.
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien plus augmentée que la taille des capteurs. Si on reste sur les x2 fois plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup, beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour un écran seulement 20 fois plus grand. Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la vitesse du processeur, le temps d'attente acceptable par l'usager étant réduit. ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et limite inutilisable, alors que celui du gx80 est très agréable à l'œil. "Le débruitage et la déconvolution d’image sont des opérations lourdes et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des méthodes de trai-tement d’image, et de développer les codes de calculs correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA pour des calculs ultra rapides." https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est : 1/ les concepts utilisés en débruitage n'ont pas subi de révolution depuis 20 ans. 2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu veux, tu n'en sortiras rien. Shit in shit out. 3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des photosites plus petits en plus. Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien ce qui se fait dans les labos de recherche sur le sujet puisque c'est mon métier (pas le débruitage mais la recherche en maths appliquées), et je sais que c'est très très loin de ce qui se fait dans l'industrie : les méthodes mathématiques développées par les chercheurs sont à la fois plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins efficaces que ce que l'on trouve dans les outils commerciaux qui utilisent des heuristiques extrêmement rapides et efficaces. Le rapport que tu cites date de 2010 et n'est pas forcément le plus pertinent sur le sujet. Cela dit ces sujets ont complètement disparu des labos depuis, car il y a des modes comme partout dans ce domaine, et aussi car le problème est considéré comme réglé du fait de l'amélioration des capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous fait jamais plaisir :)
Attention quand même à rester scientifique.
J'essaye
Sauf à la fin où tu introduis un argument de coût.
Tu dis en substance, et corrige-moi éventuellement, que : - la qualité du débruitage résultant a spectaculairement augmentée et sur des capteurs bien plus petits,
Pas du tout. Je dis que la qualité de l'image finale a spectaculairement augmenté, et que la plus grande partie de cette amélioration vient du hard (le capteur) et non du soft (les algorithmes derrière le signal brut) comme tu le prétends.
Tu dis plus haut, le 19/3 à 16h26: "L'atténuation du bruit a fait quelques progrès mais pas tant que ça en fait. Ce sont bien les capteurs qui ont progressé.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
Sur le fond en effet.
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
Il n'y a qu'à voir ce que fait Thierry :) Il dispose de toute la puissance qu'il veut pour traiter ses raw mais n'arrive pas à la cheville de ce qui sort directement de son boitier qui a une capacité de calcul minime. Blague à part, les calculs de débruitage ne nécessitent pas de grosses ressources, sauf ceux qui utilisent la résolution d'équations aux dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos de recherche car ils sont bien moins bons en pratique que les algorithmes plus heuristiques.
- la vitesse de calcul n'est pas pertinente, - les algorithmes nouveaux sont inefficace pour des photos anciennes,
Pas inefficaces, juste marginalement efficaces.
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué. Admettons, mais en quoi ont-ils changé ?
Aucune idée, je n'y connais rien en électronique, mais à mon avis ils ont juste suivi la même pente technologique que les processeurs et les mémoires.
Tu exprimes un avis qui n'est pas étayé par des preuves. Voilà où ça ne va pas. Ce n'est pas scientifique.
Il faut des preuves.
The proof is in the pudding ! >
On sait que : - la densité des photo-sites a (un peu) augmenté,
Un facteur 5.
- leur géométrie a été (un peu) améliorée
ah bon ?
Dans leur forme et leur disposition.
- les matériaux utilisés ont été (un peu) améliorés
aucune idée
Ce serait pourtant une piste pour toi.
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette amélioration spectaculaire Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule 100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Justement, je te le demanderai ensuite quand tu m'auras, raisonnablement, prouvé que l'amélioration des photos actuelles est due surtout aux capteurs. Je suis près à le croire, mais je demande des preuves et pas un raisonnement par élimination des autres facteurs possibles, ce qui n'est pas scientifique.
efji
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle. un diplome de programmation c'est pour les pas bons en math qui vont traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont jamais programmé une ligne de leur vie :) -- F.J.
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle. un diplome de programmation c'est pour les pas bons en math qui vont traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont jamais programmé une ligne de leur vie :) -- F.J.
Ghost-Raider
Le 20/03/2020 à 16:43, efji a écrit :
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle. un diplome de programmation c'est pour les pas bons en math qui vont traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont jamais programmé une ligne de leur vie :)
C'est vrai. J'ai un "certificat supérieur du traitement des données et des informations" et je ne sais pas programmer.
Le 20/03/2020 à 16:43, efji a écrit :
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)
C'est vrai.
J'ai un "certificat supérieur du traitement des données et des
informations" et je ne sais pas programmer.
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes "bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle. un diplome de programmation c'est pour les pas bons en math qui vont traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont jamais programmé une ligne de leur vie :)
C'est vrai. J'ai un "certificat supérieur du traitement des données et des informations" et je ne sais pas programmer.