Le 20/03/2020 12:10, jdd a écrit :oui, et sur le traitement du signal au plus près de la source.
?? on s'en fout c'est du numerique.
pour memo, un capteur photo sort de l'analogique...
Le 20/03/2020 12:10, jdd a écrit :
oui, et sur le traitement du signal au plus près de la source.
?? on s'en fout c'est du numerique.
pour memo, un capteur photo sort de l'analogique...
Le 20/03/2020 12:10, jdd a écrit :oui, et sur le traitement du signal au plus près de la source.
?? on s'en fout c'est du numerique.
pour memo, un capteur photo sort de l'analogique...
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :Le 20/03/2020 08:51, efji a écrit :et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
sauf dans les codecs... même avec l'explosion de bandes passantes,
ils sont de plus en plus sioux...
Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est
justement "sioux", mais sans jolies équations ni jolie théorie derrière
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :
Le 20/03/2020 08:51, efji a écrit :
et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
sauf dans les codecs... même avec l'explosion de bandes passantes,
ils sont de plus en plus sioux...
Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est
justement "sioux", mais sans jolies équations ni jolie théorie derrière
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
Le 20/03/2020 à 15:47, Stephane Legras-Decussy a écrit :Le 20/03/2020 08:51, efji a écrit :et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
sauf dans les codecs... même avec l'explosion de bandes passantes,
ils sont de plus en plus sioux...
Je me suis mal exprimé : ce que j'entendais par "bêtasses" c'est
justement "sioux", mais sans jolies équations ni jolie théorie derrière
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
jdd
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
jdd
Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
jdd
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes
instruments si ça colle avec les promesses du datasheet.
celle qui te donne les entrées et les sorties, pas celles qui
t'expliquent comment ça marche à l'intérieur :-)
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :
le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes
instruments si ça colle avec les promesses du datasheet.
celle qui te donne les entrées et les sorties, pas celles qui
t'expliquent comment ça marche à l'intérieur :-)
Le 20/03/2020 à 16:07, Stephane Legras-Decussy a écrit :le 1er truc que tu fais est donc acheter ce truc et vérifier avec tes
instruments si ça colle avec les promesses du datasheet.
celle qui te donne les entrées et les sorties, pas celles qui
t'expliquent comment ça marche à l'intérieur :-)
Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pour la partie analogique, oui, en numérique, tant que le composant ne
fond pas :-)
pour la partie analogique, oui, en numérique, tant que le composant ne
fond pas :-)
pour la partie analogique, oui, en numérique, tant que le composant ne
fond pas :-)
faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.
faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.
faudrait savoir? le traitement du signal c'est la partie numérique, mais
la source est analogique, entre les deux c'est aussi de l'analogique,
d'où l'avantage de réduire les distances.
Le 20/03/2020 à 10:36, Ghost-Raider a écrit :Le 20/03/2020 à 08:51, efji a écrit :Le 20/03/2020 à 08:15, jdd a écrit :Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
J'essaye
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
Pas du tout. Je dis que la qualité de l'image finale a spectaculairement
augmenté, et que la plus grande partie de cette amélioration vient du
hard (le capteur) et non du soft (les algorithmes derrière le signal
brut) comme tu le prétends.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
Sur le fond en effet.- la puissance de calcul n'intervient pas dans la qualité du débruitage,
Il n'y a qu'à voir ce que fait Thierry :)
Il dispose de toute la puissance qu'il veut pour traiter ses raw mais
n'arrive pas à la cheville de ce qui sort directement de son boitier qui
a une capacité de calcul minime.
Blague à part, les calculs de débruitage ne nécessitent pas de grosses
ressources, sauf ceux qui utilisent la résolution d'équations aux
dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos
de recherche car ils sont bien moins bons en pratique que les
algorithmes plus heuristiques.- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Pas inefficaces, juste marginalement efficaces.Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Aucune idée, je n'y connais rien en électronique, mais à mon avis ils
ont juste suivi la même pente technologique que les processeurs et les
mémoires.
Il faut des preuves.
The proof is in the pudding ! >On sait que :
- la densité des photo-sites a (un peu) augmenté,
Un facteur 5.- leur géométrie a été (un peu) améliorée
ah bon ?
- les matériaux utilisés ont été (un peu) améliorés
aucune idée
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Le 20/03/2020 à 10:36, Ghost-Raider a écrit :
Le 20/03/2020 à 08:51, efji a écrit :
Le 20/03/2020 à 08:15, jdd a écrit :
Le 20/03/2020 à 01:37, efji a écrit :
Le 20/03/2020 à 01:05, Benoît a écrit :
Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
J'essaye
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
Pas du tout. Je dis que la qualité de l'image finale a spectaculairement
augmenté, et que la plus grande partie de cette amélioration vient du
hard (le capteur) et non du soft (les algorithmes derrière le signal
brut) comme tu le prétends.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
Sur le fond en effet.
- la puissance de calcul n'intervient pas dans la qualité du débruitage,
Il n'y a qu'à voir ce que fait Thierry :)
Il dispose de toute la puissance qu'il veut pour traiter ses raw mais
n'arrive pas à la cheville de ce qui sort directement de son boitier qui
a une capacité de calcul minime.
Blague à part, les calculs de débruitage ne nécessitent pas de grosses
ressources, sauf ceux qui utilisent la résolution d'équations aux
dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos
de recherche car ils sont bien moins bons en pratique que les
algorithmes plus heuristiques.
- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Pas inefficaces, juste marginalement efficaces.
Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Aucune idée, je n'y connais rien en électronique, mais à mon avis ils
ont juste suivi la même pente technologique que les processeurs et les
mémoires.
Il faut des preuves.
The proof is in the pudding ! >
On sait que :
- la densité des photo-sites a (un peu) augmenté,
Un facteur 5.
- leur géométrie a été (un peu) améliorée
ah bon ?
- les matériaux utilisés ont été (un peu) améliorés
aucune idée
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Le 20/03/2020 à 10:36, Ghost-Raider a écrit :Le 20/03/2020 à 08:51, efji a écrit :Le 20/03/2020 à 08:15, jdd a écrit :Le 20/03/2020 à 01:37, efji a écrit :Le 20/03/2020 à 01:05, Benoît a écrit :Certes, mais en 20 ans la vitesse de traitement des processeurs a bien
plus augmentée que la taille des capteurs. Si on reste sur les x2 fois
plus rapide tous les 18 mois, 20 ans cela fait... beaucoup, beaucoup,
beaucoup plus rapide. Dans les 2^13, soit 8 000 fois plus rapide, pour
un écran seulement 20 fois plus grand.
Et Hop !
On s'en fout de ça. Ce n'est pas la vitesse de calcul qui compte
mais le
calcul lui-même, et le calcul pour débruiter il n'a pas vraiment changé
de nature depuis 20 ans. Il ne s'est amélioré que marginalement.
ben si. Les algos sont directement tributaires pour leur finesse de la
vitesse du processeur, le temps d'attente acceptable par l'usager étant
réduit.
ce qui est sûr c'est que le débruitage d'un EOS 5DMKIII est très laid et
limite inutilisable, alors que celui du gx80 est très agréable à l'œil.
"Le débruitage et la déconvolution d’image sont des opérations lourdes
et coû-teuses en temps de calculs. Le but de ce projet est d’étudier des
méthodes de trai-tement d’image, et de développer les codes de calculs
correspondants, d’abord enMatlab pour tester la théorie, puis en CUDA
pour des calculs ultra rapides."
https://www.math.univ-toulouse.fr/~weiss/Docs/DumasTapia_TV_GPU.pdf
Bien sûr mais ce que je dis c'est :
1/ les concepts utilisés en débruitage n'ont pas subi de révolution
depuis 20 ans.
2/ Tu peux reprendre un raw d'il y a 20 ans et essayer de le débruiter
avec un algo d'aujourd'hui, avec toute la puissance de calcul que tu
veux, tu n'en sortiras rien. Shit in shit out.
3/ aucune puissance de calcul n'explique que l'on fait aujourd'hui un
bien meilleur 6400 iso qu'un 400 iso d'il y a 20 ans, et avec des
photosites plus petits en plus.
Par ailleurs (désolé pour l'argument d'autorité), je connais assez bien
ce qui se fait dans les labos de recherche sur le sujet puisque c'est
mon métier (pas le débruitage mais la recherche en maths appliquées), et
je sais que c'est très très loin de ce qui se fait dans l'industrie :
les méthodes mathématiques développées par les chercheurs sont à la fois
plus rigoureuses, plus gourmandes en temps de calcul et infiniment moins
efficaces que ce que l'on trouve dans les outils commerciaux qui
utilisent des heuristiques extrêmement rapides et efficaces. Le rapport
que tu cites date de 2010 et n'est pas forcément le plus pertinent sur
le sujet. Cela dit ces sujets ont complètement disparu des labos depuis,
car il y a des modes comme partout dans ce domaine, et aussi car le
problème est considéré comme réglé du fait de l'amélioration des
capteurs justement, et réglé par des méthodes bêtasses ce qui ne nous
fait jamais plaisir :)
Attention quand même à rester scientifique.
J'essaye
Tu dis en substance, et corrige-moi éventuellement, que :
- la qualité du débruitage résultant a spectaculairement augmentée et
sur des capteurs bien plus petits,
Pas du tout. Je dis que la qualité de l'image finale a spectaculairement
augmenté, et que la plus grande partie de cette amélioration vient du
hard (le capteur) et non du soft (les algorithmes derrière le signal
brut) comme tu le prétends.
- les algorithmes de débruitage n'ont pas ou que peu changés en 20 ans,
Sur le fond en effet.- la puissance de calcul n'intervient pas dans la qualité du débruitage,
Il n'y a qu'à voir ce que fait Thierry :)
Il dispose de toute la puissance qu'il veut pour traiter ses raw mais
n'arrive pas à la cheville de ce qui sort directement de son boitier qui
a une capacité de calcul minime.
Blague à part, les calculs de débruitage ne nécessitent pas de grosses
ressources, sauf ceux qui utilisent la résolution d'équations aux
dérivées partielles. Mais ces algorithmes ne sont jamais sorti des labos
de recherche car ils sont bien moins bons en pratique que les
algorithmes plus heuristiques.- la vitesse de calcul n'est pas pertinente,
- les algorithmes nouveaux sont inefficace pour des photos anciennes,
Pas inefficaces, juste marginalement efficaces.Tu en déduis que ce sont nécessairement les capteurs qui ont évolué.
Admettons, mais en quoi ont-ils changé ?
Aucune idée, je n'y connais rien en électronique, mais à mon avis ils
ont juste suivi la même pente technologique que les processeurs et les
mémoires.
Il faut des preuves.
The proof is in the pudding ! >On sait que :
- la densité des photo-sites a (un peu) augmenté,
Un facteur 5.- leur géométrie a été (un peu) améliorée
ah bon ?
- les matériaux utilisés ont été (un peu) améliorés
aucune idée
Alors, qu'est-ce qui peut, dans et autour des capteurs, expliquer cette
amélioration spectaculaire
Qu'est-ce qui peut expliquer l'amélioration du rapport signal/bruit des
capteurs actuels avant tout traitement ?
Et qu'est-ce qui peut expliquer qu'un processeur d'aujourd'hui calcule
100 fois plus vite qu'un processeur de 2000? (et coûte 10 fois moins cher).
Le 20/03/2020 16:23, jdd a écrit :Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le 20/03/2020 16:23, jdd a écrit :Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :Le 20/03/2020 16:23, jdd a écrit :Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :
Le 20/03/2020 16:23, jdd a écrit :
Le 20/03/2020 à 16:13, efji a écrit :
sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)
Le 20/03/2020 à 16:37, Stephane Legras-Decussy a écrit :Le 20/03/2020 16:23, jdd a écrit :Le 20/03/2020 à 16:13, efji a écrit :sur laquelle démontrer des théorèmes :) Mais dans les méthodes
"bêtasses" il y a souvent des trésors d'ingéniosité.
en même temps, mon parent qui fait dans l'intelligence artificielle, il
est diplômé en math, pas en programmation...
pas besoin de diplome en programmation, si t'es diplomé en math tu sais
parfaitement programmer, c'est le b-a-ba, c'est ta langue maternelle.
un diplome de programmation c'est pour les pas bons en math qui vont
traduire des algo en code... ou faire de la maintenance soft.
Le pire ce sont les diplômés en informatique. En général ils n'ont
jamais programmé une ligne de leur vie :)