Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

M=c3=a9sange charbonni=c3=a8re

110 réponses
Avatar
Thierry Houx
Pas le droit de sortir, on se limite au jardin:
https://framapic.org/YCQd5iEj6l2C/PuJIGckoUpf0.jpg

Prise à main levée, objectif équivalent 800mm, stab boitier + objectif
(c'est un crop).

10 réponses

Avatar
jdd
Le 20/03/2020 à 16:20, Stephane Legras-Decussy a écrit :
Le 20/03/2020 12:10, jdd a écrit :
oui, et sur le traitement du signal au plus près de la source.

?? on s'en fout c'est du numerique.
pour memo, un capteur photo sort de l'analogique...

faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.
jdd
--
http://dodin.org
Avatar
Stephane Legras-Decussy
Le 20/03/2020 16:13, efji a écrit :
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :
Le 20/03/2020 08:51, efji a écrit :
et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)

sauf dans les codecs... même avec l'explosion de bandes passantes,
ils sont de plus en plus sioux...

Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est
justement "sioux", mais sans jolies équations ni jolie théorie derrière
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.

ah ok je pensais que tu parlais de la force brute...
Avatar
Thierry Houx
Le 20/03/2020 à 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.

en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
jdd

Et pas besoin d'être programmeur pour pondre un algorithme. Le
mathématicien doit pouvoir y arriver.
Par contre, pour décliner l'algorithme en code, mieux vaut savoir
programmer.
Avatar
Stephane Legras-Decussy
Le 20/03/2020 16:22, jdd a écrit :
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :
le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes
instruments si ça colle avec les promesses du datasheet.

celle qui te donne les entrées et les sorties, pas celles qui
t'expliquent comment ça marche à l'intérieur :-)

on s'en fout completement ! ya même pas de datasheet qui t'explique
comment c'est construit dedans.
tu achètes un transistor, la datasheet te donne les perfs du machin
telles que mesurables de l'exterieur... c'est le seul truc qui
t'interesse.
vitesse... frequence... rapport signal/bruit... dérive T°C...
sont les seuls trucs interessants et vérifiables immédiatement.
Avatar
Stephane Legras-Decussy
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.

en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...

pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Avatar
Stephane Legras-Decussy
Le 20/03/2020 16:25, jdd a écrit :
pour la partie analogique, oui, en numérique, tant que le composant ne
fond pas :-)

yep... mais un capteur photo est un composant analogique.
Avatar
Stephane Legras-Decussy
Le 20/03/2020 16:26, jdd a écrit :
faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.

le capteur est analogique... on colle à côté au plus près un ADC
(convertisseur Analog digital)... ensuite tu balances le flux numérique
où tu veux au loin pour le traitement sur un calculateur.
Avatar
Ghost-Raider
Le 20/03/2020 à 11:01, efji a écrit :
Le 20/03/2020 à 10:36, Ghost-Raider a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !

On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.

ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf

Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)

Attention quand même à rester scientifique.

J'essaye

Sauf à la fin où tu introduis un argument de coût.
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,

Pas du tout. Je dis que la qualité de l'image finale a spectaculairement
augmenté, et que la plus grande partie de cette amélioration vient du
hard (le capteur) et non du soft (les algorithmes derrière le signal
brut) comme tu le prétends.

Tu dis plus haut, le 19/3 à 16h26:
"L'atténuation du bruit a fait quelques progrès mais pas tant que ça en
fait. Ce sont bien les capteurs qui ont progressé.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,

Sur le fond en effet.
- la puissance de calcul n'intervient pas dans la qualité du débruitage,

Il n'y a qu'à voir ce que fait Thierry :)
Il dispose de toute la puissance qu'il veut pour traiter ses raw mais
n'arrive pas à la cheville de ce qui sort directement de son boitier qui
a une capacité de calcul minime.
Blague à part, les calculs de débruitage ne nécessitent pas de grosses
ressources, sauf ceux qui utilisent la résolution d'équations aux
dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos
de recherche car ils sont bien moins bons en pratique que les
algorithmes plus heuristiques.
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,

Pas inefficaces, juste marginalement efficaces.
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?

Aucune idée, je n'y connais rien en électronique, mais à mon avis ils
ont juste suivi la même pente technologique que les processeurs et les
mémoires.

Tu exprimes un avis qui n'est pas étayé par des preuves.
Voilà où ça ne va pas. Ce n'est pas scientifique.
Il faut des preuves.

The proof is in the pudding ! >
On sait que :
- la densité des photo-sites a (un peu) augmenté,

Un facteur 5.
- leur géométrie a été (un peu) améliorée

ah bon ?

Dans leur forme et leur disposition.
- les matériaux utilisés ont été (un peu) améliorés

aucune idée

Ce serait pourtant une piste pour toi.
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?

Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).

Justement, je te le demanderai ensuite quand tu m'auras,
raisonnablement, prouvé que l'amélioration des photos actuelles est due
surtout aux capteurs.
Je suis près à le croire, mais je demande des preuves et pas un
raisonnement par élimination des autres facteurs possibles, ce qui n'est
pas scientifique.
Avatar
efji
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.

en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...

pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code...  ou faire de la maintenance soft.

Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)
--
F.J.
Avatar
Ghost-Raider
Le 20/03/2020 à 16:43, efji a écrit :
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.

en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...

pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code...  ou faire de la maintenance soft.

Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)

C'est vrai.
J'ai un "certificat supérieur du traitement des données et des
informations" et je ne sais pas programmer.