Le 11/09/2010 14:44, Vincent Lefevre a écrit :
> Les perf étaient bonnes. iRRAM avait d'ailleurs fini 3e à la
> compétition Many Digits:
>
> http://homepages.cwi.nl/~milad/manydigits/results.html
Cette compétition mesure les perfs des calculs en grande précision? Donc
ca n'a peut-être pas évalué le cout de re-jeu pour IRRAM. En gros si la
précision requise dans les 1er pas de l'algo est suffisante, il n'est
pas dans le pire cas ou arrivé quasi à la fin il se rend compte qu'il
doit tout redérouler depuis le début en doublant le nb de digits... et
faire ca plusieurs fois car la précision finale nécéssiterait un nb
faramineux de digits après la virgule pour décider, bien plus de digits
que n'en nécessite le résultat final.
Le 11/09/2010 14:44, Vincent Lefevre a écrit :
> Les perf étaient bonnes. iRRAM avait d'ailleurs fini 3e à la
> compétition Many Digits:
>
> http://homepages.cwi.nl/~milad/manydigits/results.html
Cette compétition mesure les perfs des calculs en grande précision? Donc
ca n'a peut-être pas évalué le cout de re-jeu pour IRRAM. En gros si la
précision requise dans les 1er pas de l'algo est suffisante, il n'est
pas dans le pire cas ou arrivé quasi à la fin il se rend compte qu'il
doit tout redérouler depuis le début en doublant le nb de digits... et
faire ca plusieurs fois car la précision finale nécéssiterait un nb
faramineux de digits après la virgule pour décider, bien plus de digits
que n'en nécessite le résultat final.
Le 11/09/2010 14:44, Vincent Lefevre a écrit :
> Les perf étaient bonnes. iRRAM avait d'ailleurs fini 3e à la
> compétition Many Digits:
>
> http://homepages.cwi.nl/~milad/manydigits/results.html
Cette compétition mesure les perfs des calculs en grande précision? Donc
ca n'a peut-être pas évalué le cout de re-jeu pour IRRAM. En gros si la
précision requise dans les 1er pas de l'algo est suffisante, il n'est
pas dans le pire cas ou arrivé quasi à la fin il se rend compte qu'il
doit tout redérouler depuis le début en doublant le nb de digits... et
faire ca plusieurs fois car la précision finale nécéssiterait un nb
faramineux de digits après la virgule pour décider, bien plus de digits
que n'en nécessite le résultat final.
In article<4c8bc2c5$0$23150$,
Samuel DEVULDER wrote:Le 11/09/2010 14:44, Vincent Lefevre a écrit :Les perf étaient bonnes. iRRAM avait d'ailleurs fini 3e à la
compétition Many Digits:
http://homepages.cwi.nl/~milad/manydigits/results.html
Cette compétition mesure les perfs des calculs en grande précision? Donc
ca n'a peut-être pas évalué le cout de re-jeu pour IRRAM. En gros si la
précision requise dans les 1er pas de l'algo est suffisante, il n'est
pas dans le pire cas ou arrivé quasi à la fin il se rend compte qu'il
doit tout redérouler depuis le début en doublant le nb de digits... et
faire ca plusieurs fois car la précision finale nécéssiterait un nb
faramineux de digits après la virgule pour décider, bien plus de digits
que n'en nécessite le résultat final.
Oui, et ?
bench qui n'a pas ete etudie pour "resister" ou pour "favoriser" IRRAM.
Si cette bibliotheque s'en sort bien, ca veut dire que le postulat de base
etait une bonne idee, au moins dans le contexte de ce bench.
Intuitivement, on se fiche un peu du cout du rejeu, si ce rejeu est peu
frequent. IRRAM fait le pari que souvent, on va obtenir un resultat avec
peu de rejeu, donc tres vite. C'est de l'algo 'stochastique'. Je ne sais
pas si quelqu'un s'est amuse a faire une analyse en moyenne de ce
comportement, mais je vois au moins deux methodes utilisees super-souvent
(Monte-Carlo et le recuit simule) ou on fait un peu le meme type de pari,
et ou on torsche regulierement des algo exacts dans des cas utiles...
In article<4c8bc2c5$0$23150$426a74cc@news.free.fr>,
Samuel DEVULDER<samuel-dot-devulder@laposte-dot-com> wrote:
Le 11/09/2010 14:44, Vincent Lefevre a écrit :
Les perf étaient bonnes. iRRAM avait d'ailleurs fini 3e à la
compétition Many Digits:
http://homepages.cwi.nl/~milad/manydigits/results.html
Cette compétition mesure les perfs des calculs en grande précision? Donc
ca n'a peut-être pas évalué le cout de re-jeu pour IRRAM. En gros si la
précision requise dans les 1er pas de l'algo est suffisante, il n'est
pas dans le pire cas ou arrivé quasi à la fin il se rend compte qu'il
doit tout redérouler depuis le début en doublant le nb de digits... et
faire ca plusieurs fois car la précision finale nécéssiterait un nb
faramineux de digits après la virgule pour décider, bien plus de digits
que n'en nécessite le résultat final.
Oui, et ?
bench qui n'a pas ete etudie pour "resister" ou pour "favoriser" IRRAM.
Si cette bibliotheque s'en sort bien, ca veut dire que le postulat de base
etait une bonne idee, au moins dans le contexte de ce bench.
Intuitivement, on se fiche un peu du cout du rejeu, si ce rejeu est peu
frequent. IRRAM fait le pari que souvent, on va obtenir un resultat avec
peu de rejeu, donc tres vite. C'est de l'algo 'stochastique'. Je ne sais
pas si quelqu'un s'est amuse a faire une analyse en moyenne de ce
comportement, mais je vois au moins deux methodes utilisees super-souvent
(Monte-Carlo et le recuit simule) ou on fait un peu le meme type de pari,
et ou on torsche regulierement des algo exacts dans des cas utiles...
In article<4c8bc2c5$0$23150$,
Samuel DEVULDER wrote:Le 11/09/2010 14:44, Vincent Lefevre a écrit :Les perf étaient bonnes. iRRAM avait d'ailleurs fini 3e à la
compétition Many Digits:
http://homepages.cwi.nl/~milad/manydigits/results.html
Cette compétition mesure les perfs des calculs en grande précision? Donc
ca n'a peut-être pas évalué le cout de re-jeu pour IRRAM. En gros si la
précision requise dans les 1er pas de l'algo est suffisante, il n'est
pas dans le pire cas ou arrivé quasi à la fin il se rend compte qu'il
doit tout redérouler depuis le début en doublant le nb de digits... et
faire ca plusieurs fois car la précision finale nécéssiterait un nb
faramineux de digits après la virgule pour décider, bien plus de digits
que n'en nécessite le résultat final.
Oui, et ?
bench qui n'a pas ete etudie pour "resister" ou pour "favoriser" IRRAM.
Si cette bibliotheque s'en sort bien, ca veut dire que le postulat de base
etait une bonne idee, au moins dans le contexte de ce bench.
Intuitivement, on se fiche un peu du cout du rejeu, si ce rejeu est peu
frequent. IRRAM fait le pari que souvent, on va obtenir un resultat avec
peu de rejeu, donc tres vite. C'est de l'algo 'stochastique'. Je ne sais
pas si quelqu'un s'est amuse a faire une analyse en moyenne de ce
comportement, mais je vois au moins deux methodes utilisees super-souvent
(Monte-Carlo et le recuit simule) ou on fait un peu le meme type de pari,
et ou on torsche regulierement des algo exacts dans des cas utiles...
Lorsque tu écris a - b - c, tu ne sauras _jamais_ si le type qui a
codé ça l'a fait en toute connaissance de cause alors que si tu
avais (a - b) - c ou a - (b + c), tu n'aurais plus aucun doute.
Et si /le type/ code (a - b - c), vous en déduisez que logiquement:
- /le type/ a codé /en toute connaissance de cause/.
- /le type/ est un peu tordu, ou simplement mutin.
Lorsque tu écris a - b - c, tu ne sauras _jamais_ si le type qui a
codé ça l'a fait en toute connaissance de cause alors que si tu
avais (a - b) - c ou a - (b + c), tu n'aurais plus aucun doute.
Et si /le type/ code (a - b - c), vous en déduisez que logiquement:
- /le type/ a codé /en toute connaissance de cause/.
- /le type/ est un peu tordu, ou simplement mutin.
Lorsque tu écris a - b - c, tu ne sauras _jamais_ si le type qui a
codé ça l'a fait en toute connaissance de cause alors que si tu
avais (a - b) - c ou a - (b + c), tu n'aurais plus aucun doute.
Et si /le type/ code (a - b - c), vous en déduisez que logiquement:
- /le type/ a codé /en toute connaissance de cause/.
- /le type/ est un peu tordu, ou simplement mutin.
Je n'ai pas analysé finement mais il me semble que ça poserait d'autres
problèmes en C avec l'opérateur -- (décrément) entre autre dans
certaines expressions ou même en combinant le - unaire et le moins
binaire.
et comme l'opérateur "puissance" n'existe pas en C, pourquoi se
compliquer la vie ?
Il ne faut pas oublier les règles de conversions implicites quand on
mélange des types dans une expression en C (char en int est assez
absurde en soi également mais ça "rend" bien des services...).
Je n'ai pas analysé finement mais il me semble que ça poserait d'autres
problèmes en C avec l'opérateur -- (décrément) entre autre dans
certaines expressions ou même en combinant le - unaire et le moins
binaire.
et comme l'opérateur "puissance" n'existe pas en C, pourquoi se
compliquer la vie ?
Il ne faut pas oublier les règles de conversions implicites quand on
mélange des types dans une expression en C (char en int est assez
absurde en soi également mais ça "rend" bien des services...).
Je n'ai pas analysé finement mais il me semble que ça poserait d'autres
problèmes en C avec l'opérateur -- (décrément) entre autre dans
certaines expressions ou même en combinant le - unaire et le moins
binaire.
et comme l'opérateur "puissance" n'existe pas en C, pourquoi se
compliquer la vie ?
Il ne faut pas oublier les règles de conversions implicites quand on
mélange des types dans une expression en C (char en int est assez
absurde en soi également mais ça "rend" bien des services...).
De toute façon IRRAM utilise une bonne bibliothèque pour les calculs
multi-précision. Donc ses perfs ne peuvent pas être trop mauvaise vis
avis de l'état de l'art pour les opérations élémentaires ne nécéssitant
pas de redérouler l'algo depuis le début.
De toute façon IRRAM utilise une bonne bibliothèque pour les calculs
multi-précision. Donc ses perfs ne peuvent pas être trop mauvaise vis
avis de l'état de l'art pour les opérations élémentaires ne nécéssitant
pas de redérouler l'algo depuis le début.
De toute façon IRRAM utilise une bonne bibliothèque pour les calculs
multi-précision. Donc ses perfs ne peuvent pas être trop mauvaise vis
avis de l'état de l'art pour les opérations élémentaires ne nécéssitant
pas de redérouler l'algo depuis le début.
Oui, et ? on parle ici du cout reel pour faire un calcul donne, avec un
bench qui n'a pas ete etudie pour "resister" ou pour "favoriser" IRRAM.
Si cette bibliotheque s'en sort bien, ca veut dire que le postulat de base
etait une bonne idee, au moins dans le contexte de ce bench.
Intuitivement, on se fiche un peu du cout du rejeu, si ce rejeu est peu
frequent. IRRAM fait le pari que souvent, on va obtenir un resultat avec
peu de rejeu, donc tres vite. C'est de l'algo 'stochastique'. Je ne sais
pas si quelqu'un s'est amuse a faire une analyse en moyenne de ce
comportement, mais je vois au moins deux methodes utilisees super-souvent
(Monte-Carlo et le recuit simule) ou on fait un peu le meme type de pari,
et ou on torsche regulierement des algo exacts dans des cas utiles...
Oui, et ? on parle ici du cout reel pour faire un calcul donne, avec un
bench qui n'a pas ete etudie pour "resister" ou pour "favoriser" IRRAM.
Si cette bibliotheque s'en sort bien, ca veut dire que le postulat de base
etait une bonne idee, au moins dans le contexte de ce bench.
Intuitivement, on se fiche un peu du cout du rejeu, si ce rejeu est peu
frequent. IRRAM fait le pari que souvent, on va obtenir un resultat avec
peu de rejeu, donc tres vite. C'est de l'algo 'stochastique'. Je ne sais
pas si quelqu'un s'est amuse a faire une analyse en moyenne de ce
comportement, mais je vois au moins deux methodes utilisees super-souvent
(Monte-Carlo et le recuit simule) ou on fait un peu le meme type de pari,
et ou on torsche regulierement des algo exacts dans des cas utiles...
Oui, et ? on parle ici du cout reel pour faire un calcul donne, avec un
bench qui n'a pas ete etudie pour "resister" ou pour "favoriser" IRRAM.
Si cette bibliotheque s'en sort bien, ca veut dire que le postulat de base
etait une bonne idee, au moins dans le contexte de ce bench.
Intuitivement, on se fiche un peu du cout du rejeu, si ce rejeu est peu
frequent. IRRAM fait le pari que souvent, on va obtenir un resultat avec
peu de rejeu, donc tres vite. C'est de l'algo 'stochastique'. Je ne sais
pas si quelqu'un s'est amuse a faire une analyse en moyenne de ce
comportement, mais je vois au moins deux methodes utilisees super-souvent
(Monte-Carlo et le recuit simule) ou on fait un peu le meme type de pari,
et ou on torsche regulierement des algo exacts dans des cas utiles...
La complexité d'une tel algo serait intéressante en fonction de la
précision voulue sachant qu'à chaque fois qu'elle augmente, les calculs
intermédiaires sont de plus en plus couteux. Les algos stochastiques ne
doivent pas chercher très loin après la virgules, alors que les biblio
multi-précision doivent pouvoir aller super-loin efficacement. Le bench
évoqué ne teste que les 10 000 ou 100 000 premières décimales après la
virgule, c'est déjà pas mal, mais on peut demander bcp plus d'une
gestion formelle des expressions. Par exemple jusqu'à combien de chiffre
après la virgule faut il calculer
(phi^n - (-1/phi)^n) / sqrt(5)
Pour s'apercevoir qu'il est entier? En fait il l'est mais pour le
décider il faut savoir travailler avec les extensions algèbriques. Cela
semble être hors de porté de IRRAM qui ne sait finalement *pas*
représenter exactement sqrt(2), sqrt(5) ou phi (c'était le point de
départ de ce fil). Il sait uniquement l'évaluer avec suffisamment de
précision. Ca n'est pas strictement équivalent, mais pas inintéressant
non plus.
La complexité d'une tel algo serait intéressante en fonction de la
précision voulue sachant qu'à chaque fois qu'elle augmente, les calculs
intermédiaires sont de plus en plus couteux. Les algos stochastiques ne
doivent pas chercher très loin après la virgules, alors que les biblio
multi-précision doivent pouvoir aller super-loin efficacement. Le bench
évoqué ne teste que les 10 000 ou 100 000 premières décimales après la
virgule, c'est déjà pas mal, mais on peut demander bcp plus d'une
gestion formelle des expressions. Par exemple jusqu'à combien de chiffre
après la virgule faut il calculer
(phi^n - (-1/phi)^n) / sqrt(5)
Pour s'apercevoir qu'il est entier? En fait il l'est mais pour le
décider il faut savoir travailler avec les extensions algèbriques. Cela
semble être hors de porté de IRRAM qui ne sait finalement *pas*
représenter exactement sqrt(2), sqrt(5) ou phi (c'était le point de
départ de ce fil). Il sait uniquement l'évaluer avec suffisamment de
précision. Ca n'est pas strictement équivalent, mais pas inintéressant
non plus.
La complexité d'une tel algo serait intéressante en fonction de la
précision voulue sachant qu'à chaque fois qu'elle augmente, les calculs
intermédiaires sont de plus en plus couteux. Les algos stochastiques ne
doivent pas chercher très loin après la virgules, alors que les biblio
multi-précision doivent pouvoir aller super-loin efficacement. Le bench
évoqué ne teste que les 10 000 ou 100 000 premières décimales après la
virgule, c'est déjà pas mal, mais on peut demander bcp plus d'une
gestion formelle des expressions. Par exemple jusqu'à combien de chiffre
après la virgule faut il calculer
(phi^n - (-1/phi)^n) / sqrt(5)
Pour s'apercevoir qu'il est entier? En fait il l'est mais pour le
décider il faut savoir travailler avec les extensions algèbriques. Cela
semble être hors de porté de IRRAM qui ne sait finalement *pas*
représenter exactement sqrt(2), sqrt(5) ou phi (c'était le point de
départ de ce fil). Il sait uniquement l'évaluer avec suffisamment de
précision. Ca n'est pas strictement équivalent, mais pas inintéressant
non plus.
iRRAM sait représenter sqrt(2), sqrt(5)... exactement: par un programme.
Mais cette forme introduit une limitation: les fonctions discontinues
ne sont pas supportées en général, et en particulier les problèmes de
décision, du style: est-ce que tel nombre est un entier?
C'est la même chose en math: sqrt(2) est représenté exactement par
une expression: sqrt(2). On peut faire des calculs plus puisssants
qu'avec iRRAM. Mais certains problèmes restent indécidables.
iRRAM sait représenter sqrt(2), sqrt(5)... exactement: par un programme.
Mais cette forme introduit une limitation: les fonctions discontinues
ne sont pas supportées en général, et en particulier les problèmes de
décision, du style: est-ce que tel nombre est un entier?
C'est la même chose en math: sqrt(2) est représenté exactement par
une expression: sqrt(2). On peut faire des calculs plus puisssants
qu'avec iRRAM. Mais certains problèmes restent indécidables.
iRRAM sait représenter sqrt(2), sqrt(5)... exactement: par un programme.
Mais cette forme introduit une limitation: les fonctions discontinues
ne sont pas supportées en général, et en particulier les problèmes de
décision, du style: est-ce que tel nombre est un entier?
C'est la même chose en math: sqrt(2) est représenté exactement par
une expression: sqrt(2). On peut faire des calculs plus puisssants
qu'avec iRRAM. Mais certains problèmes restent indécidables.
Dans l'article <4c8bf275$0$5418$,
Wykaaa écrit:Je n'ai pas analysé finement mais il me semble que ça poserait d'autres
problèmes en C avec l'opérateur -- (décrément) entre autre dans
certaines expressions ou même en combinant le - unaire et le moins
binaire.
Je ne vois pas pourquoi. Un exemple?et comme l'opérateur "puissance" n'existe pas en C, pourquoi se
compliquer la vie ?
Parce que le problème existe aussi pour le - unaire, quand on
travaille avec des modes d'arrondi dirigés (même si le fait d'avoir
un mode d'arrondi global et non attaché à chaque opération est une
mauvaise idée).Il ne faut pas oublier les règles de conversions implicites quand on
mélange des types dans une expression en C (char en int est assez
absurde en soi également mais ça "rend" bien des services...).
Le pire, c'est quand un type signé est converti implicitement en
non signé: la valeur peut être complètement changée.
Dans l'article <4c8bf275$0$5418$ba4acef3@reader.news.orange.fr>,
Wykaaa <wykaaa@yahoo.fr> écrit:
Je n'ai pas analysé finement mais il me semble que ça poserait d'autres
problèmes en C avec l'opérateur -- (décrément) entre autre dans
certaines expressions ou même en combinant le - unaire et le moins
binaire.
Je ne vois pas pourquoi. Un exemple?
et comme l'opérateur "puissance" n'existe pas en C, pourquoi se
compliquer la vie ?
Parce que le problème existe aussi pour le - unaire, quand on
travaille avec des modes d'arrondi dirigés (même si le fait d'avoir
un mode d'arrondi global et non attaché à chaque opération est une
mauvaise idée).
Il ne faut pas oublier les règles de conversions implicites quand on
mélange des types dans une expression en C (char en int est assez
absurde en soi également mais ça "rend" bien des services...).
Le pire, c'est quand un type signé est converti implicitement en
non signé: la valeur peut être complètement changée.
Dans l'article <4c8bf275$0$5418$,
Wykaaa écrit:Je n'ai pas analysé finement mais il me semble que ça poserait d'autres
problèmes en C avec l'opérateur -- (décrément) entre autre dans
certaines expressions ou même en combinant le - unaire et le moins
binaire.
Je ne vois pas pourquoi. Un exemple?et comme l'opérateur "puissance" n'existe pas en C, pourquoi se
compliquer la vie ?
Parce que le problème existe aussi pour le - unaire, quand on
travaille avec des modes d'arrondi dirigés (même si le fait d'avoir
un mode d'arrondi global et non attaché à chaque opération est une
mauvaise idée).Il ne faut pas oublier les règles de conversions implicites quand on
mélange des types dans une expression en C (char en int est assez
absurde en soi également mais ça "rend" bien des services...).
Le pire, c'est quand un type signé est converti implicitement en
non signé: la valeur peut être complètement changée.
Un peu tout ca en fait. D'ailleurs il me semble qu'on peut montrer que
les nombres des extensions algébriques ont une décomposition en fraction
continue qui est reconnaissable par un automate à état finis. Ca fait
réflechir: ne sait on finalement manipuler exactement que des choses
qu'un automate assez simple serait reconnaitre? Vaste question!
Un peu tout ca en fait. D'ailleurs il me semble qu'on peut montrer que
les nombres des extensions algébriques ont une décomposition en fraction
continue qui est reconnaissable par un automate à état finis. Ca fait
réflechir: ne sait on finalement manipuler exactement que des choses
qu'un automate assez simple serait reconnaitre? Vaste question!
Un peu tout ca en fait. D'ailleurs il me semble qu'on peut montrer que
les nombres des extensions algébriques ont une décomposition en fraction
continue qui est reconnaissable par un automate à état finis. Ca fait
réflechir: ne sait on finalement manipuler exactement que des choses
qu'un automate assez simple serait reconnaitre? Vaste question!