Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

M=c3=a9sange charbonni=c3=a8re

110 réponses
Avatar
Thierry Houx
Pas le droit de sortir, on se limite au jardin:
https://framapic.org/YCQd5iEj6l2C/PuJIGckoUpf0.jpg

Prise à main levée, objectif équivalent 800mm, stab boitier + objectif
(c'est un crop).

10 réponses

Avatar
efji
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !

On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
--
F.J.
Avatar
Thierry Houx
Le 19/03/2020 à 21:49, Stephane Legras-Decussy a écrit :
Le 19/03/2020 11:55, jdd a écrit :
Le 19/03/2020 à 11:38, Thierry Houx a écrit :
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg

pas mal du tout!

et y'en a qui se moquent de la japonaise !?

Ben une danseuse Apsara en pleine prestation, c'est quand même pas la
même chose.
Avatar
Thierry Houx
Le 19/03/2020 à 17:19, Ghost-Raider a écrit :
Le 19/03/2020 à 15:49, Thierry Houx a écrit :
Le 19/03/2020 à 13:21, Ghost-Raider a écrit :
J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.
Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg

Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.

Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.
Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.

Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.

C'est un zoom, alors ça facilite en commençant plus large.
J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.

Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.
Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg

Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg

Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance             : 1069.78 m
Il était à quelle distance ?

A peu près comme pour la mésange, < 15m.
--
Thierry Houx ()
Président du CGPCSM (Geneacaux)
Webmestre du site http://www.geneacaux.org/
Membre CGPCSM N°72-2576
Avatar
Thierry Houx
Le 19/03/2020 à 17:19, Ghost-Raider a écrit :
Le 19/03/2020 à 15:49, Thierry Houx a écrit :
Le 19/03/2020 à 13:21, Ghost-Raider a écrit :
J'ai suivi le faucon pendant un petit moment. Il fichait le camp,
jusqu'à ce qu'il attrape ce rongeur, et là, j'ai pu l'approcher.
Le faisan se tenait à distance quand même. Dès que j'approchais, il s'en
allait.
Oui, mais les petits capteurs ont sérieusement évolué. Par exemple avec
le GX80 (qui n'est pas la dernière génération sortie) à 6400ISO me sort
une image acceptable:
https://www.cjoint.com/data/JCtkE3jQ8Ci_-1030730.jpg

Ce n'est pas tant les capteurs qui ont progressé, un photosite reste un
photosite, que les traitements surtout en basse lumière.
Ta photo manque de contraste et dès qu'on l'agrandit, ça se gâte, pas de
piqué.
https://www.cjoint.com/doc/20_03/JCtlJxHRhNo_JCtkE3jQ8Ci--1030730-001.jpg
Comme elle n'a pas de grain ou presque, c'est probablement le traitement
de ton appareil pour obtenir 6400 ISO qui nuit au piqué.
Ou peut-être, un défaut de mise au point.

Bah, 6400 ISO, on peut pas s'attendre à du super c'est sûr.
Peut-être aurai-je fait un peu mieux avec mon GX9, plus récent et mieux
défini.
Et pour en revenir à nos oiseaux, ça me permet d'avoir un équivalent
800mm qui pèse moins d'1kg. Quand tu proposes ci-dessus de rester
immobile, ça compte au bon d'un certain temps.
Bref, on ne tranchera pas ici, chacun voit midi à sa porte.

Un équivalent 800 mm me semble peu pratique à utiliser, léger ou pas car
il est difficile de repérer et surtout de suivre un oiseau dans le
feuillage du fait que l'oiseau sort constamment du champ, et du flou des
différents plans.

C'est un zoom, alors ça facilite en commençant plus large.
J'ai rapidement abandonné mon 500 mm soit 750 mm équivalent pour revenir
à mon 300 mm dont le champ est plus large et la profondeur de champ plus
grande (Efji va me tomber dessus, je l'attends de pied ferme !).
Je préfère donc utiliser mon D7000 avec son 300 mm équivalent 450 mm et
éventuellement recadrer à 1/2. Ça me donne un équivalent 900 mm pour 4
MP, soit le double de la définition d'un écran actuel.

Oui, de toutes façons c'est le genre de photos ou on est amenés à
recadrer.
Mais la vraie solution, c'est d'être près, aucun télé ne remplace la
proximité.
https://www.cjoint.com/doc/20_03/JCtmuBzicGo_D7000-26314-001-1.jpg

Oui, on est d'accord. Joli le petit piaf.
Reste le problème des très farouches, comme celui-ci pris dans mon
jardin:
https://www.cjoint.com/data/JCtoWTAeJ8i_P1001982-01.jpg

Ah, très bien. La distance de sécurité des pics en général et des pics
verts en particulier est de l'ordre de plusieurs dizaines de mètres. Tu
as eu de la chance ou du flair.
La distance n'est pas indiquée dans les EXIF, seulement l'hyperfocale,
ce qui ne nous renseigne guère :
Hyperfocal Distance             : 1069.78 m
Il était à quelle distance ?

A peu près comme pour la mésange, < 15m.
Avatar
jdd
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !

On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.

ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
jdd
--
http://dodin.org
Avatar
efji
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !

On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.

ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf

Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
--
F.J. @efjiphotography
Avatar
jdd
Le 20/03/2020 à 08:51, efji a écrit :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.

le concept date de pas mal d'années (développement en série...)
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.

ça je n'en suis pas persuadé
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.

ben si. C'est juste que cette puissance de calcul est *on site*, sur le
capteur. La taille du photosite n'est qu'un paramètre du capteur parmi
d'autres. D'ailleurs, que savons nous de la taille des photosites? Je
suis convaincu que les datasheet fournis par les fabricants au public
sont vérolés pour dérouter la concurrence, comme les schémas d'objectifs
il y a quelques (dizaines) d'années...
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),

mais je ne crois pas que nous ayons de réelle divergence, à peine un
problème de langage, j'argumente pour clarifier des énoncés. J'ai un
parent dans l'intelligence artificielle, il a il y a déjà maintenant
quelques années mis au point un logiciel de lecture de clichés
radiologiques qui doit faire 95% du boulot d'un médecin (en fait 120%,
mais pas tout à fait sur les mêmes éléments)
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.

on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)

c'est tellement moins élégant.
c'est aussi pour ça, malheureusement, qu'on ne fait pas beaucoup plus de
choses en bureautique aujourd'hui qu'avec un Apple II :-(
ne pas oublier quand même que tout est défini par des équations
différentielles et que bien peu ont des solutions exactes.
l'ordinateur quantique embarqué n'est pas pour demain :-)
https://fr.wikipedia.org/wiki/Calculateur_quantique#Int%C3%A9r%C3%AAt_des_calculateurs_quantiques
jdd
--
http://dodin.org
Avatar
efji
Le 20/03/2020 à 10:08, jdd a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.

le concept date de pas mal d'années (développement en série...)

Il n'y a pas que ça. A ma connaissance les outils utilisés actuellement
dans les débruiteurs sont plutôt d'ordre statistique.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.

ça je n'en suis pas persuadé

C'est absolument certain.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.

ben si. C'est juste que cette puissance de calcul est *on site*, sur le
capteur. La taille du photosite n'est qu'un paramètre du capteur parmi
d'autres. D'ailleurs, que savons nous de la taille des photosites? Je
suis convaincu que les datasheet fournis par les fabricants au public
sont vérolés pour dérouter la concurrence, comme les schémas d'objectifs
il y a quelques (dizaines) d'années...

hum. A des pouillèmes près la taille de chaque photosite = largeur du
capteur/nombre de pixels dans la largeur, ce qui ne laisse pas beaucoup
de marge au complotisme :)
Et la taille exacte on s'en fout. On sait juste qu'elle est pas mal plus
petite qu'il y a 20 ans.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées),

mais je ne crois pas que nous ayons de réelle divergence, à peine un
problème de langage, j'argumente pour clarifier des énoncés. J'ai un
parent dans l'intelligence artificielle, il a il y a déjà maintenant
quelques années mis au point un logiciel de lecture de clichés
radiologiques qui doit faire 95% du boulot d'un médecin (en fait 120%,
mais pas tout à fait sur les mêmes éléments)

Je ne vois pas bien le rapport. Sauf que justement l'IA (ou plutôt
l'apprentissage par renforcement) a balayé toutes les recherches très
compliquées et subtiles sur la classification d'images et la
reconnaissance qui se faisaient (sans succès) dans les labos de maths
dans les années 90.
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.

on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)

c'est tellement moins élégant.
c'est aussi pour ça, malheureusement, qu'on ne fait pas beaucoup plus de
choses en bureautique aujourd'hui qu'avec un Apple II :-(
ne pas oublier quand même que tout est défini par des équations
différentielles et que bien peu ont des solutions exactes.

C'est justement de toutes ces méthodes basées sur les équations aux
dérivées partielles, qui étaient inefficaces et coûteuses, dont parle le
rapport que tu as mis en lien. Rapport qui en fait se fout pas mal de
l'application mais cherche juste à montrer que l'on peut calculer plus
vite en programmant correctement une carte graphique. C'était la grande
mode en 2010 car tout nouveau. Maintenant c'est juste la routine (pour
certaines applications, ce n'est pas possible d'utiliser les cartes
graphiques pour tous les calculs numériques).
l'ordinateur quantique embarqué n'est pas pour demain :-)
https://fr.wikipedia.org/wiki/Calculateur_quantique#Int%C3%A9r%C3%AAt_des_calculateurs_quantiques

Mouais. J'y crois autant que la fusion nucléaire.
--
F.J.
Avatar
Ghost-Raider
Le 20/03/2020 à 08:51, efji a écrit :
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !

On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.

ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf

Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)

Attention quand même à rester scientifique.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Il faut des preuves.
On sait que :
- la densité des photo-sites a (un peu) augmenté,
- leur géométrie a été (un peu) améliorée
- les matériaux utilisés ont été (un peu) améliorés
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire ?
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Des pistes :
- meilleure concentration de la lumière dans les puits des phot-sites
grâce à une amélioration de l'orientation des lentilles ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de la géométrie des capteurs : capteurs
courbes ?
- meilleure densité de la lumière reçue au centre et sur les bords du
capteur grâce à une amélioration de l'orientation des photo-sites :
puits orientés ?
Etc ...
Avatar
Thierry Houx
Le 20/03/2020 à 10:08, jdd a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces.

on ne démontre rien avec un algorithme informatique, mais qu'est-ce
qu'on obtient vite un résultat suffisant :-))
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)


Dans ma vie d'avant, mon domaine était l'informatique industrielle.
Alors pour revenir à des choses simples:
- Avant de traiter un signal, il vaut mieux que celui-ci soit le plus
propre possible: nécessite un bon capteur et utilisé dans sa plage de
mesure où il donne le meilleur résultat.
- Si on a un signal correct, le traitement nécessaire à celui-ci est
simple et rapide: Donc, l'algorithme n'est pas poussé dans ses
retranchements.
Après, on peut chipoter sur ce qu'on veut, mais on revient toujours à la
nécessité d'avoir un signal de la meilleure qualité possible. Le gros
effort est à porter sur le capteur.