On voit souvent des "quel linux choisir ?", des "pourquoi linux ?" etc.
Mais finalement à devoir choisir entre la peste (du côté de chez MS) et
la grippe (notre bon vieux nunux), celà ne vous arrive pas le matin en
vous réveillant de vous dire que les programmes qui font fonctionner
votre machines ne sont que des bidouillages plus ou moins réussis ?
Regardez les codes sources d'un programme en C. Même le code d'un bon
programmeur n'est rempli que d'horreurs. Ce fameux "void" : c'est quoi
cette abomination de la programmation ? Il n'y a aucune sémantique
valable là derrière. D'ailleurs les types en C n'ont de type que le nom.
Comment se fait il qu'on puisse écrire dans la 11e case d'un tableau de
10 éléments. Ce langage surestime beaucoup les capacités des personnes
qui vont l'utiliser. Une telle chose ne doit pas être possible. Comment
imaginer que ce genre de choses peut être voulu par le programmeur ?
Je pense que vous avez déjà vu du JAVA. Mais c'est à gerber cet
emboîtement de new, cette masse colossale de classes à faire pour faire
trois fois rien ! J'ose même pas imaginer la quantité de calculs
inutiles faits par la machine pour gérer ces merdes. D'accord il y a de
l'optimisation, mais c'est loin d'être suffisant.
Dans le temps les programmes étaient bidouillés parce qu'il n'y avait
pas assez de mémoire : par exemple on utilisait une variable pour
stocker deux informations. Maintenant l'horreur est à l'autre extrême :
on a tellement de mémoire de disponible que l'on utilise trop. En C :
tant pis c'est perdu. Un trou de mémoire ? Tant que le pc doit pas
redémarrer toutes les heures à cause de ça on s'en fout. En JAVA : il y
a le ramasse miettes alors on peut bouffer de la mémoire : c'est pô grave.
Dès que les programmes ont commencé à ne plus rentrer sur une disquette
ils sont devenus beaucoup trop compliqués pour fonctionner correctement.
On en vient à une époque où on trouve acceptable un programme quand il a
moins de cent bugs alors que rien que le fait de consommer trop de
ressources fait que le programme n'est pas bon. Aujourd'hui on nous
parle de .NET et de merdouilles dans le genre. A quoi ça sert de se
lancer dans la création de langages qui se copient les uns les autres.
C, C++, JAVA, Pascal : c'est la même chose, la même façon de penser. Et
c'est une manière de penser qui pousse à faire des fautes.
Bref l'informatique ne va pas fort.
C'est pourquoi il faut que le langage prenne sur lui toutes les erreurs du programmeur et les corrige malgré lui, car tout programmeur - sans exception
impossible. Les erreurs les plus graves sont algorithmique et ton compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ... attendez, je cherche.... une preuve mathématique. Très peu de gens en ont entendu parler, certains pensent même que c'est un mythe, une légende pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Je suis perplexe.
- fait des erreurs. Programmer des ressources critiques avec des langages qui ne certifient pas la qualité de leur code est stupide et criminel.
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Joe Cool avait énoncé :
Joe Cool a émis l'idée suivante :
C'est pourquoi il faut que le langage prenne sur lui toutes les erreurs du
programmeur et les corrige malgré lui, car tout programmeur - sans
exception
impossible. Les erreurs les plus graves sont algorithmique et ton compilo
n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ...
attendez, je cherche.... une preuve mathématique. Très peu de gens en ont
entendu parler, certains pensent même que c'est un mythe, une légende pour
effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Je suis perplexe.
- fait des erreurs. Programmer des ressources critiques avec des langages
qui ne certifient pas la qualité de leur code est stupide et criminel.
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important
c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la
Création ? Êtes-vous maso ?
C'est pourquoi il faut que le langage prenne sur lui toutes les erreurs du programmeur et les corrige malgré lui, car tout programmeur - sans exception
impossible. Les erreurs les plus graves sont algorithmique et ton compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ... attendez, je cherche.... une preuve mathématique. Très peu de gens en ont entendu parler, certains pensent même que c'est un mythe, une légende pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Je suis perplexe.
- fait des erreurs. Programmer des ressources critiques avec des langages qui ne certifient pas la qualité de leur code est stupide et criminel.
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Tom
Si si ... j'ai dejà eu un stack overflow en calculant les termes d'une suite de fabionacci (donc pas grand chose) en OCaml. D'une manière recursive j'entends.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
let fibo x let rec aux = function | 0 -> 0, 1 | n -> let a, b = aux (n - 1) in b, a + b in snd (aux x);;
On peut y aller avant le stack over flow là. On tombe sur un résultat modulo bien avant.
Tom
Si si ... j'ai dejà eu un stack overflow en calculant les termes d'une
suite de fabionacci (donc pas grand chose) en OCaml. D'une manière
recursive j'entends.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit
gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas
calculer deux fois la même chose.
let fibo x let rec aux = function
| 0 -> 0, 1
| n -> let a, b = aux (n - 1) in
b, a + b
in snd (aux x);;
On peut y aller avant le stack over flow là. On tombe sur un résultat
modulo bien avant.
Si si ... j'ai dejà eu un stack overflow en calculant les termes d'une suite de fabionacci (donc pas grand chose) en OCaml. D'une manière recursive j'entends.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
let fibo x let rec aux = function | 0 -> 0, 1 | n -> let a, b = aux (n - 1) in b, a + b in snd (aux x);;
On peut y aller avant le stack over flow là. On tombe sur un résultat modulo bien avant.
Tom
JustMe
Tom vient de nous annoncer :
Si si ... j'ai dejà eu un stack overflow en calculant les termes d'une suite de fabionacci (donc pas grand chose) en OCaml. D'une manière recursive j'entends.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
Tom vient de nous annoncer :
Si si ... j'ai dejà eu un stack overflow en calculant les termes d'une
suite de fabionacci (donc pas grand chose) en OCaml. D'une manière
recursive j'entends.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars.
Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas
calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout
perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le
language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras
encore :-D)
Si si ... j'ai dejà eu un stack overflow en calculant les termes d'une suite de fabionacci (donc pas grand chose) en OCaml. D'une manière recursive j'entends.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
Tom
Elle se porte bien, merci pour elle. Elle aurait besoin d'un coup de rasoir, cela dit, ça commence à faire loin.
Et après ce sont mes propos qui n'ont rien à faire ici. Vous voulez quoi que je vienne dire toute mon admiration sur linux, c'est ça un débat ? J'aime bien Linux. Mais c'est loin d'être bien foutu. Et pour être bien foutu ça devrait être fait dans un langage bien foutu. Et par des gens qui pensent autrement qu'en impératif. Mais peut être avez vous des arguments pour me prouver que le C est un joli langage. Si ce n'est pas le cas vous pouvez retourner à votre rasoir.
Tom
Elle se porte bien, merci pour elle. Elle aurait besoin d'un coup de
rasoir, cela dit, ça commence à faire loin.
Et après ce sont mes propos qui n'ont rien à faire ici. Vous voulez quoi
que je vienne dire toute mon admiration sur linux, c'est ça un débat ?
J'aime bien Linux. Mais c'est loin d'être bien foutu. Et pour être bien
foutu ça devrait être fait dans un langage bien foutu. Et par des gens
qui pensent autrement qu'en impératif. Mais peut être avez vous des
arguments pour me prouver que le C est un joli langage. Si ce n'est pas
le cas vous pouvez retourner à votre rasoir.
Elle se porte bien, merci pour elle. Elle aurait besoin d'un coup de rasoir, cela dit, ça commence à faire loin.
Et après ce sont mes propos qui n'ont rien à faire ici. Vous voulez quoi que je vienne dire toute mon admiration sur linux, c'est ça un débat ? J'aime bien Linux. Mais c'est loin d'être bien foutu. Et pour être bien foutu ça devrait être fait dans un langage bien foutu. Et par des gens qui pensent autrement qu'en impératif. Mais peut être avez vous des arguments pour me prouver que le C est un joli langage. Si ce n'est pas le cas vous pouvez retourner à votre rasoir.
Tom
JustMe
Joe Cool avait énoncé :
impossible. Les erreurs les plus graves sont algorithmique et ton compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ... attendez, je cherche.... une preuve mathématique. Très peu de gens en ont entendu parler, certains pensent même que c'est un mythe, une légende pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet quand même...
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
MOUARFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF ! Putain j'ai failli me pisser dessus !
Joe Cool avait énoncé :
impossible. Les erreurs les plus graves sont algorithmique et ton compilo
n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ...
attendez, je cherche.... une preuve mathématique. Très peu de gens en ont
entendu parler, certains pensent même que c'est un mythe, une légende pour
effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet quand même...
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important
c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de
la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
MOUARFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF !
Putain j'ai failli me pisser dessus !
impossible. Les erreurs les plus graves sont algorithmique et ton compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ... attendez, je cherche.... une preuve mathématique. Très peu de gens en ont entendu parler, certains pensent même que c'est un mythe, une légende pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet quand même...
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
MOUARFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF ! Putain j'ai failli me pisser dessus !
Joe Cool
Tom vient de nous annoncer :
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
Être à court de mémoire n'est pas un bug. On ne peut pas contraindre un programme à utiliser peu de mémoire si sa tache l'exige, comme on ne peut pas contraindre un programme à tourner vite. Le comportement attendu est un évenement signifiant « Je suis à court de mémoire, rajoutez-en s'il vous plait. », ce que fait Caml à l'aide des exceptions Out_of_memory et Stack_overflow, mais il faudrait que les systèmes d'exploitation en C tout pourri sur les PC de merde soient capable de s'ajouter de la mémoire système à chaud pour pouvoir en profiter pleinement.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur, c'est dépendant de l'implémentation, pas du langage. De plus la dérécursivation est efficace uniquement parce que les processeurs sont construits selon un modèle impératif.
-- Joe Cool
Tom vient de nous annoncer :
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement
petit gars. Mais tu peux récupérer l'exception et le programme n'a pas
planté.
Donc si le programmeur programme mal, le programme plante. CQFD
Être à court de mémoire n'est pas un bug. On ne peut pas contraindre un
programme à utiliser peu de mémoire si sa tache l'exige, comme on ne
peut pas contraindre un programme à tourner vite. Le comportement
attendu est un évenement signifiant « Je suis à court de mémoire,
rajoutez-en s'il vous plait. », ce que fait Caml à l'aide des exceptions
Out_of_memory et Stack_overflow, mais il faudrait que les systèmes
d'exploitation en C tout pourri sur les PC de merde soient capable de
s'ajouter de la mémoire système à chaud pour pouvoir en profiter pleinement.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne
pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout
perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le
language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras
encore :-D)
C'est le travail du compilateur, c'est dépendant de l'implémentation,
pas du langage. De plus la dérécursivation est efficace uniquement parce
que les processeurs sont construits selon un modèle impératif.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
Être à court de mémoire n'est pas un bug. On ne peut pas contraindre un programme à utiliser peu de mémoire si sa tache l'exige, comme on ne peut pas contraindre un programme à tourner vite. Le comportement attendu est un évenement signifiant « Je suis à court de mémoire, rajoutez-en s'il vous plait. », ce que fait Caml à l'aide des exceptions Out_of_memory et Stack_overflow, mais il faudrait que les systèmes d'exploitation en C tout pourri sur les PC de merde soient capable de s'ajouter de la mémoire système à chaud pour pouvoir en profiter pleinement.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur, c'est dépendant de l'implémentation, pas du langage. De plus la dérécursivation est efficace uniquement parce que les processeurs sont construits selon un modèle impératif.
-- Joe Cool
Tom
Bref l'informatique ne va pas fort. Je ne trouve pas.
Personne n'est parfait.
Tiens, voilà un langage de programmation pour toi : <URL:http://www.muppetlabs.com/~breadbox/bf/>
Ce langage est un langage qui fait manipuler des "pointer" selon la description des instructions. Les pointeurs ne doivent pas être laissés aux humains. Ils ne peuvent en faire que des erreurs. Sinon je me suis déjà ammusé avec des langages. Un plus simple que le brainfuck : les machines à registres. Deux instructions : inc x : incrémente le registre x dec x y : décrémente le registre x et va en y si x est à zéro.
Ammusez vous à calculer le logarithme, le test de primalité etc. Ca se fait bien. Mais c'est pas joli. On doit macher le travail à la machine.
Tom
Bref l'informatique ne va pas fort.
Je ne trouve pas.
Personne n'est parfait.
Tiens, voilà un langage de programmation pour toi :
<URL:http://www.muppetlabs.com/~breadbox/bf/>
Ce langage est un langage qui fait manipuler des "pointer" selon la
description des instructions. Les pointeurs ne doivent pas être laissés
aux humains. Ils ne peuvent en faire que des erreurs.
Sinon je me suis déjà ammusé avec des langages. Un plus simple que le
brainfuck : les machines à registres. Deux instructions :
inc x : incrémente le registre x
dec x y : décrémente le registre x et va en y si x est à zéro.
Ammusez vous à calculer le logarithme, le test de primalité etc. Ca se
fait bien. Mais c'est pas joli. On doit macher le travail à la machine.
Bref l'informatique ne va pas fort. Je ne trouve pas.
Personne n'est parfait.
Tiens, voilà un langage de programmation pour toi : <URL:http://www.muppetlabs.com/~breadbox/bf/>
Ce langage est un langage qui fait manipuler des "pointer" selon la description des instructions. Les pointeurs ne doivent pas être laissés aux humains. Ils ne peuvent en faire que des erreurs. Sinon je me suis déjà ammusé avec des langages. Un plus simple que le brainfuck : les machines à registres. Deux instructions : inc x : incrémente le registre x dec x y : décrémente le registre x et va en y si x est à zéro.
Ammusez vous à calculer le logarithme, le test de primalité etc. Ca se fait bien. Mais c'est pas joli. On doit macher le travail à la machine.
Tom
Tom
Il y a des outils pour ça. C'est encore expérimental, car le problème est très complexe, mais ça en vient servir pour prouver des programmes dans l'industrie aéronautique.
Méthode B rules :-) Le truc qui permet de démontrer qu'un programme respecte des spécifications mais qui ne permet pas de démontrer qu'il ne les respecte pas.
Tom
Il y a des outils pour ça. C'est encore expérimental, car le problème est
très complexe, mais ça en vient servir pour prouver des programmes dans
l'industrie aéronautique.
Méthode B rules :-)
Le truc qui permet de démontrer qu'un programme respecte des
spécifications mais qui ne permet pas de démontrer qu'il ne les respecte
pas.
Il y a des outils pour ça. C'est encore expérimental, car le problème est très complexe, mais ça en vient servir pour prouver des programmes dans l'industrie aéronautique.
Méthode B rules :-) Le truc qui permet de démontrer qu'un programme respecte des spécifications mais qui ne permet pas de démontrer qu'il ne les respecte pas.
Tom
Tom
Oh bah, j'ai les idées plutôt claires sur ce qu'ils racontent (je suis payé pour ça après tout), c'est juste que je trouve le "débat" absolument pathétique.
C'est marrant : ici tout le monde est payé pour savoir plein de choses. Y'en a qui sont payés pour comprendre des choses ?
Tom
Oh bah, j'ai les idées plutôt claires sur ce qu'ils racontent (je suis
payé pour ça après tout), c'est juste que je trouve le "débat" absolument
pathétique.
C'est marrant : ici tout le monde est payé pour savoir plein de choses.
Y'en a qui sont payés pour comprendre des choses ?
Oh bah, j'ai les idées plutôt claires sur ce qu'ils racontent (je suis payé pour ça après tout), c'est juste que je trouve le "débat" absolument pathétique.
C'est marrant : ici tout le monde est payé pour savoir plein de choses. Y'en a qui sont payés pour comprendre des choses ?
Tom
JustMe
Le 09/03/2005, Joe Cool a supposé :
Tom vient de nous annoncer :
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
Être à court de mémoire n'est pas un bug.
Ca depend comment est traité le manque de mémoire. Si il y a gestion de la pénurie, c'est bon. Sinon c'est un bug.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les compilos ;-)
c'est dépendant de l'implémentation, pas du langage. De plus la dérécursivation est efficace uniquement parce que les processeurs sont construits selon un modèle impératif.
Le 09/03/2005, Joe Cool a supposé :
Tom vient de nous annoncer :
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit
gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
Être à court de mémoire n'est pas un bug.
Ca depend comment est traité le manque de mémoire. Si il y a gestion de
la pénurie, c'est bon. Sinon c'est un bug.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas
calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout
perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le
language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras
encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les
compilos ;-)
c'est dépendant de l'implémentation, pas du
langage. De plus la dérécursivation est efficace uniquement parce que les
processeurs sont construits selon un modèle impératif.
Quand Caml n'a plus de mémoire il s'arrête et dit ouhlà doucement petit gars. Mais tu peux récupérer l'exception et le programme n'a pas planté.
Donc si le programmeur programme mal, le programme plante. CQFD
Être à court de mémoire n'est pas un bug.
Ca depend comment est traité le manque de mémoire. Si il y a gestion de la pénurie, c'est bon. Sinon c'est un bug.
De plus il faut programmer Fibonacci intelligement, c'est à dire ne pas calculer deux fois la même chose.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les compilos ;-)
c'est dépendant de l'implémentation, pas du langage. De plus la dérécursivation est efficace uniquement parce que les processeurs sont construits selon un modèle impératif.