On voit souvent des "quel linux choisir ?", des "pourquoi linux ?" etc.
Mais finalement à devoir choisir entre la peste (du côté de chez MS) et
la grippe (notre bon vieux nunux), celà ne vous arrive pas le matin en
vous réveillant de vous dire que les programmes qui font fonctionner
votre machines ne sont que des bidouillages plus ou moins réussis ?
Regardez les codes sources d'un programme en C. Même le code d'un bon
programmeur n'est rempli que d'horreurs. Ce fameux "void" : c'est quoi
cette abomination de la programmation ? Il n'y a aucune sémantique
valable là derrière. D'ailleurs les types en C n'ont de type que le nom.
Comment se fait il qu'on puisse écrire dans la 11e case d'un tableau de
10 éléments. Ce langage surestime beaucoup les capacités des personnes
qui vont l'utiliser. Une telle chose ne doit pas être possible. Comment
imaginer que ce genre de choses peut être voulu par le programmeur ?
Je pense que vous avez déjà vu du JAVA. Mais c'est à gerber cet
emboîtement de new, cette masse colossale de classes à faire pour faire
trois fois rien ! J'ose même pas imaginer la quantité de calculs
inutiles faits par la machine pour gérer ces merdes. D'accord il y a de
l'optimisation, mais c'est loin d'être suffisant.
Dans le temps les programmes étaient bidouillés parce qu'il n'y avait
pas assez de mémoire : par exemple on utilisait une variable pour
stocker deux informations. Maintenant l'horreur est à l'autre extrême :
on a tellement de mémoire de disponible que l'on utilise trop. En C :
tant pis c'est perdu. Un trou de mémoire ? Tant que le pc doit pas
redémarrer toutes les heures à cause de ça on s'en fout. En JAVA : il y
a le ramasse miettes alors on peut bouffer de la mémoire : c'est pô grave.
Dès que les programmes ont commencé à ne plus rentrer sur une disquette
ils sont devenus beaucoup trop compliqués pour fonctionner correctement.
On en vient à une époque où on trouve acceptable un programme quand il a
moins de cent bugs alors que rien que le fait de consommer trop de
ressources fait que le programme n'est pas bon. Aujourd'hui on nous
parle de .NET et de merdouilles dans le genre. A quoi ça sert de se
lancer dans la création de langages qui se copient les uns les autres.
C, C++, JAVA, Pascal : c'est la même chose, la même façon de penser. Et
c'est une manière de penser qui pousse à faire des fautes.
Bref l'informatique ne va pas fort.
Comment faire comprendre à ces gens qu'ils ne sont pas le splus beaux, lmes plus forts, les meilleurs et que si ils ne s'en rendent pas compte assez vite, ils vont droit dans le mur.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il montre que tu divagues complètement.
-- <smcn> one of these days <smcn> i'm going to hunt down and kill whoever invented emoticons <smcn> then i'm going to look at him and go >=D
Joe Cool s'est exprimé en ces termes:
Encore ce mythe du programmeur parfait.
Comment faire comprendre à ces gens qu'ils ne sont pas le splus beaux,
lmes plus forts, les meilleurs et que si ils ne s'en rendent pas compte
assez vite, ils vont droit dans le mur.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il
montre que tu divagues complètement.
--
<smcn> one of these days
<smcn> i'm going to hunt down and kill whoever invented emoticons
<smcn> then i'm going to look at him and go >=D
Comment faire comprendre à ces gens qu'ils ne sont pas le splus beaux, lmes plus forts, les meilleurs et que si ils ne s'en rendent pas compte assez vite, ils vont droit dans le mur.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il montre que tu divagues complètement.
-- <smcn> one of these days <smcn> i'm going to hunt down and kill whoever invented emoticons <smcn> then i'm going to look at him and go >=D
Tom
On dirait que tu ne comprends pas très bien. Je vais te faire un dessin pour t'expliquer. Voici une représentation d'un tableau a[10] : ____ ____ ____ ____ ____ ____ ____ ____ ____ ____ | | | | | | | | | | | |a[0]|a[1]|a[2]|a[3]|a[4]|a[5]|a[6]|a[7]|a[8]|a[9]| |____|____|____|____|____|____|____|____|____|____|
Comme tu peux le constater, la première case du tableau est a[0], et la 10e case est a[9]. On se rend immédiatement compte que la 11e case de ce tableau, s'il y en avait une, serait a[10] et non a[11] comme dans ton exemple.
Bah à la place d'écrire dans la onzième case il écrit dans la douzième. Que c'est magnifique. Et en plus c'est pas comme si ce genre de machins serait utilisé par des pirates pour introduire leur propre code dans la pile d'exécution. Qu'il est magnifique ce langage. Je comprend qu'il soit défendu : que feraient les gens qui travaillent sur la sécurité informatique si on commence à faire les programmes sûrs ?
Tom
On dirait que tu ne comprends pas très bien. Je vais te faire un
dessin pour t'expliquer. Voici une représentation d'un tableau a[10] :
____ ____ ____ ____ ____ ____ ____ ____ ____ ____
| | | | | | | | | | |
|a[0]|a[1]|a[2]|a[3]|a[4]|a[5]|a[6]|a[7]|a[8]|a[9]|
|____|____|____|____|____|____|____|____|____|____|
Comme tu peux le constater, la première case du tableau est a[0], et
la 10e case est a[9]. On se rend immédiatement compte que la 11e case de
ce tableau, s'il y en avait une, serait a[10] et non a[11] comme dans
ton exemple.
Bah à la place d'écrire dans la onzième case il écrit dans la douzième.
Que c'est magnifique. Et en plus c'est pas comme si ce genre de machins
serait utilisé par des pirates pour introduire leur propre code dans la
pile d'exécution. Qu'il est magnifique ce langage. Je comprend qu'il
soit défendu : que feraient les gens qui travaillent sur la sécurité
informatique si on commence à faire les programmes sûrs ?
On dirait que tu ne comprends pas très bien. Je vais te faire un dessin pour t'expliquer. Voici une représentation d'un tableau a[10] : ____ ____ ____ ____ ____ ____ ____ ____ ____ ____ | | | | | | | | | | | |a[0]|a[1]|a[2]|a[3]|a[4]|a[5]|a[6]|a[7]|a[8]|a[9]| |____|____|____|____|____|____|____|____|____|____|
Comme tu peux le constater, la première case du tableau est a[0], et la 10e case est a[9]. On se rend immédiatement compte que la 11e case de ce tableau, s'il y en avait une, serait a[10] et non a[11] comme dans ton exemple.
Bah à la place d'écrire dans la onzième case il écrit dans la douzième. Que c'est magnifique. Et en plus c'est pas comme si ce genre de machins serait utilisé par des pirates pour introduire leur propre code dans la pile d'exécution. Qu'il est magnifique ce langage. Je comprend qu'il soit défendu : que feraient les gens qui travaillent sur la sécurité informatique si on commence à faire les programmes sûrs ?
Tom
JustMe
(supersedes )
Joe Cool avait énoncé :
impossible. Les erreurs les plus graves sont algorithmique et ton compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ... attendez, je cherche.... une preuve mathématique. Très peu de gens en ont entendu parler, certains pensent même que c'est un mythe, une légende pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Je te conseille la lecture de l'excellentissime livre : http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
MOUARFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF ! Putain j'ai failli me pisser dessus !
impossible. Les erreurs les plus graves sont algorithmique et ton
compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ...
attendez, je cherche.... une preuve mathématique. Très peu de gens en ont
entendu parler, certains pensent même que c'est un mythe, une légende
pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Je te conseille la lecture de l'excellentissime livre :
http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important
c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de
la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
MOUARFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF !
Putain j'ai failli me pisser dessus !
impossible. Les erreurs les plus graves sont algorithmique et ton compilo n'y pourra jamais rien...
Il existe un truc tout nouveau, un truc révolutionnaire qui s'appelle ... attendez, je cherche.... une preuve mathématique. Très peu de gens en ont entendu parler, certains pensent même que c'est un mythe, une légende pour effrayer les linuxiens.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Je te conseille la lecture de l'excellentissime livre : http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Programmer en C est stupide et criminel.
Le langage de programmation n'a pas d'importance. Ce qui est important c'est la conception et elle est indépendante du langage.
Dans ce cas pourquoi s'obstiner à choisir le langage le plus médiocre de la Création ? Êtes-vous maso ?
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
MOUARFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF ! Putain j'ai failli me pisser dessus !
Benjamin FRANCOIS
Tom s'est exprimé en ces termes:
Et après ce sont mes propos qui n'ont rien à faire ici. Vous voulez quoi que je vienne dire toute mon admiration sur linux, c'est ça un débat ? J'aime bien Linux. Mais c'est loin d'être bien foutu. Et pour être bien foutu ça devrait être fait dans un langage bien foutu.
Vient donc la question: dans quel langage devrait-on le récrire, à ton avis, pour que ça devienne bien foutu ?
-- <smcn> one of these days <smcn> i'm going to hunt down and kill whoever invented emoticons <smcn> then i'm going to look at him and go >=D
Tom s'est exprimé en ces termes:
Et après ce sont mes propos qui n'ont rien à faire ici. Vous voulez quoi
que je vienne dire toute mon admiration sur linux, c'est ça un débat ?
J'aime bien Linux. Mais c'est loin d'être bien foutu. Et pour être bien
foutu ça devrait être fait dans un langage bien foutu.
Vient donc la question: dans quel langage devrait-on le récrire, à ton
avis, pour que ça devienne bien foutu ?
--
<smcn> one of these days
<smcn> i'm going to hunt down and kill whoever invented emoticons
<smcn> then i'm going to look at him and go >=D
Et après ce sont mes propos qui n'ont rien à faire ici. Vous voulez quoi que je vienne dire toute mon admiration sur linux, c'est ça un débat ? J'aime bien Linux. Mais c'est loin d'être bien foutu. Et pour être bien foutu ça devrait être fait dans un langage bien foutu.
Vient donc la question: dans quel langage devrait-on le récrire, à ton avis, pour que ça devienne bien foutu ?
-- <smcn> one of these days <smcn> i'm going to hunt down and kill whoever invented emoticons <smcn> then i'm going to look at him and go >=D
Joe Cool
Le 09/03/2005, Joe Cool a supposé :
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les compilos ;-)
La dérécursivation est le travail du compilateur, il sait le faire. L'optimisation est aussi le travail du compilateur, un algorithme lent ou qui mange toute la mémoire fera de même quelque soit le langage.
-- Joe Cool
Le 09/03/2005, Joe Cool a supposé :
là tu parles d'algorithmique, plus de langage. Et le compilo, tout
perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le
language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras
encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les
compilos ;-)
La dérécursivation est le travail du compilateur, il sait le faire.
L'optimisation est aussi le travail du compilateur, un algorithme lent
ou qui mange toute la mémoire fera de même quelque soit le langage.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les compilos ;-)
La dérécursivation est le travail du compilateur, il sait le faire. L'optimisation est aussi le travail du compilateur, un algorithme lent ou qui mange toute la mémoire fera de même quelque soit le langage.
-- Joe Cool
Tom
J'ai un compilateur qui produit : Runtime error: dereferencing invalid pointer
un autre : Erreur de segmentation
Ce n'est pas ce que j'appelle sans un mot.
Moi j'appelle ça indécis. On a clairement un cas de comportement mal défini. De plus c'est quoi cette erreur de segmentation : à l'exécution de la compilation (quel super compilateur) ou à l'exécution du programme (quel super compilateur).
Et ceci quelque soit le langage. La seule manière d'éviter un maximum d'erreur est de tester abondamment.
Permettez moi de vomir. Beuaaaaaaaaaaa Ah ça va mieux. Non mais. Tester un programme pour voir si il est valide. C'est bien digne d'un programmeur en C.
Le taux est proportionnel à la taille du code et non exponentielle. Et cela dépend plus du programmeur que du langage.
Ca ne devrait pas dépendre du programmeur. Et c'est là qu'est le défaut du langage. De plus ce serait magnifique si c'était proportionnel.
Tom
J'ai un compilateur qui produit :
Runtime error: dereferencing invalid pointer
un autre :
Erreur de segmentation
Ce n'est pas ce que j'appelle sans un mot.
Moi j'appelle ça indécis. On a clairement un cas de comportement mal
défini. De plus c'est quoi cette erreur de segmentation : à l'exécution
de la compilation (quel super compilateur) ou à l'exécution du programme
(quel super compilateur).
Et ceci quelque soit le langage. La seule manière d'éviter un maximum
d'erreur est de tester abondamment.
Permettez moi de vomir. Beuaaaaaaaaaaa
Ah ça va mieux. Non mais. Tester un programme pour voir si il est
valide. C'est bien digne d'un programmeur en C.
Le taux est proportionnel à la taille du code et non exponentielle. Et
cela dépend plus du programmeur que du langage.
Ca ne devrait pas dépendre du programmeur. Et c'est là qu'est le défaut
du langage. De plus ce serait magnifique si c'était proportionnel.
J'ai un compilateur qui produit : Runtime error: dereferencing invalid pointer
un autre : Erreur de segmentation
Ce n'est pas ce que j'appelle sans un mot.
Moi j'appelle ça indécis. On a clairement un cas de comportement mal défini. De plus c'est quoi cette erreur de segmentation : à l'exécution de la compilation (quel super compilateur) ou à l'exécution du programme (quel super compilateur).
Et ceci quelque soit le langage. La seule manière d'éviter un maximum d'erreur est de tester abondamment.
Permettez moi de vomir. Beuaaaaaaaaaaa Ah ça va mieux. Non mais. Tester un programme pour voir si il est valide. C'est bien digne d'un programmeur en C.
Le taux est proportionnel à la taille du code et non exponentielle. Et cela dépend plus du programmeur que du langage.
Ca ne devrait pas dépendre du programmeur. Et c'est là qu'est le défaut du langage. De plus ce serait magnifique si c'était proportionnel.
Tom
Joe Cool
Joe Cool s'est exprimé en ces termes:
Encore ce mythe du programmeur parfait.
Comment faire comprendre à ces gens qu'ils ne sont pas le splus beaux, lmes plus forts, les meilleurs et que si ils ne s'en rendent pas compte assez vite, ils vont droit dans le mur.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il montre que tu divagues complètement.
Là ou il dit « Chez moi ça ne marche pas ? » Et bien chez moi ça marche, chez mon voisin ça marche, et ça marche pareil sur des milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve. En tant que langage non portable, je ne suis pas étonné que ce genre de « fonctionnalité » ne soit pas reproductible partout à l'identique, mais ce n'est absolument pas un argument en ma défaveur, au contraire : cela montre que dans le cas général, le comportement d'un programme en C, même très simple, n'est pas prédictible.
-- Joe Cool
Joe Cool s'est exprimé en ces termes:
Encore ce mythe du programmeur parfait.
Comment faire comprendre à ces gens qu'ils ne sont pas le splus beaux,
lmes plus forts, les meilleurs et que si ils ne s'en rendent pas compte
assez vite, ils vont droit dans le mur.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il
montre que tu divagues complètement.
Là ou il dit « Chez moi ça ne marche pas ? » Et bien chez moi ça marche,
chez mon voisin ça marche, et ça marche pareil sur des milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve. En
tant que langage non portable, je ne suis pas étonné que ce genre de «
fonctionnalité » ne soit pas reproductible partout à l'identique, mais
ce n'est absolument pas un argument en ma défaveur, au contraire : cela
montre que dans le cas général, le comportement d'un programme en C,
même très simple, n'est pas prédictible.
Comment faire comprendre à ces gens qu'ils ne sont pas le splus beaux, lmes plus forts, les meilleurs et que si ils ne s'en rendent pas compte assez vite, ils vont droit dans le mur.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il montre que tu divagues complètement.
Là ou il dit « Chez moi ça ne marche pas ? » Et bien chez moi ça marche, chez mon voisin ça marche, et ça marche pareil sur des milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve. En tant que langage non portable, je ne suis pas étonné que ce genre de « fonctionnalité » ne soit pas reproductible partout à l'identique, mais ce n'est absolument pas un argument en ma défaveur, au contraire : cela montre que dans le cas général, le comportement d'un programme en C, même très simple, n'est pas prédictible.
-- Joe Cool
Tom
On croirait lire du luc2. Un void* ne represente pas du vide, ca represente un pointeur sur une zone de memoire dont on ne veut pas se soucier du type de donnees qui y sont stockees.
On ne veut pas se soucier du type ! Mais bon sang c'est à cause de son système de non-types que le C est un non-langage ! Sachez que c'est grâce au typage statique que Caml est un langage évolué. Le mécanisme de typage est une preuve du programme. Vous pouvez rechercher lambda-calcul et isomorphisme de Curry-Howard sur le net.
Faut vraiment etre un cretin pour pas comprendre la signification du void en C. Oui, c'est pas forcement evident juste en regardant le nom, mais tu prend un livre de C, tu regardes quelques exemples de code, et si t'arrives pas a comprendre c'est que la programmation, quel que soit le langage, c'est pas pour toi.
Encore un gus qui croit que programmation = langage C. Bah ouais parce que si il fait du Java c'est pareil, si il fait du Basic c'est pareil, si il fait du Pascal : c'est pareil. Et bein non. C'est un mode de programmation (sous évolué soit dit en passant).
Tom
On croirait lire du luc2. Un void* ne represente pas du vide, ca
represente un pointeur sur une zone de memoire dont on ne veut pas se
soucier du type de donnees qui y sont stockees.
On ne veut pas se soucier du type ! Mais bon sang c'est à cause de son
système de non-types que le C est un non-langage ! Sachez que c'est
grâce au typage statique que Caml est un langage évolué. Le mécanisme de
typage est une preuve du programme. Vous pouvez rechercher lambda-calcul
et isomorphisme de Curry-Howard sur le net.
Faut vraiment etre un cretin pour pas comprendre la signification du
void en C. Oui, c'est pas forcement evident juste en regardant le nom,
mais tu prend un livre de C, tu regardes quelques exemples de code, et
si t'arrives pas a comprendre c'est que la programmation, quel que soit
le langage, c'est pas pour toi.
Encore un gus qui croit que programmation = langage C. Bah ouais parce
que si il fait du Java c'est pareil, si il fait du Basic c'est pareil,
si il fait du Pascal : c'est pareil. Et bein non. C'est un mode de
programmation (sous évolué soit dit en passant).
On croirait lire du luc2. Un void* ne represente pas du vide, ca represente un pointeur sur une zone de memoire dont on ne veut pas se soucier du type de donnees qui y sont stockees.
On ne veut pas se soucier du type ! Mais bon sang c'est à cause de son système de non-types que le C est un non-langage ! Sachez que c'est grâce au typage statique que Caml est un langage évolué. Le mécanisme de typage est une preuve du programme. Vous pouvez rechercher lambda-calcul et isomorphisme de Curry-Howard sur le net.
Faut vraiment etre un cretin pour pas comprendre la signification du void en C. Oui, c'est pas forcement evident juste en regardant le nom, mais tu prend un livre de C, tu regardes quelques exemples de code, et si t'arrives pas a comprendre c'est que la programmation, quel que soit le langage, c'est pas pour toi.
Encore un gus qui croit que programmation = langage C. Bah ouais parce que si il fait du Java c'est pareil, si il fait du Basic c'est pareil, si il fait du Pascal : c'est pareil. Et bein non. C'est un mode de programmation (sous évolué soit dit en passant).
Tom
Stephane TOUGARD
Benjamin FRANCOIS wrote:
Vient donc la question: dans quel langage devrait-on le récrire, à ton avis, pour que ça devienne bien foutu ?
Je propose le Cobol.
-- http://www.sidafr.org http://www.unices.org
Benjamin FRANCOIS wrote:
Vient donc la question: dans quel langage devrait-on le récrire, à ton
avis, pour que ça devienne bien foutu ?
Vient donc la question: dans quel langage devrait-on le récrire, à ton avis, pour que ça devienne bien foutu ?
Je propose le Cobol.
-- http://www.sidafr.org http://www.unices.org
Joe Cool
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Oui, mais je vous ais demandé ce qui posait problème, pas d'essayer d'exhiber chez moi une quelconque incompétence.
Je te conseille la lecture de l'excellentissime livre : http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Et moi je vous conseille la lecture de cet article :
« Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme », dans Monatshefte für Mathematik und Physik, volume 38, 1931;
au lieu de vulgarisations aussi simplistes que mensongères.
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
Putain j'ai failli me pisser dessus !
Á défaut de spouvoir expliquer le pourquoi de cette incontinence, comme la totalité des intervenants dans ce fil. Je n'ai lu aucun argument en faveur du C, et pourtant tout le monde (ou presque) continue à vouer un culte incohérent à ce langage et à ses dérivés directs (C++, etc.) et indirects (linux, etc.)
-- Joe Cool
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Oui, mais je vous ais demandé ce qui posait problème, pas d'essayer
d'exhiber chez moi une quelconque incompétence.
Je te conseille la lecture de l'excellentissime livre :
http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Et moi je vous conseille la lecture de cet article :
« Über formal unentscheidbare Sätze der Principia Mathematica und
verwandter Systeme », dans Monatshefte für Mathematik und Physik, volume
38, 1931;
au lieu de vulgarisations aussi simplistes que mensongères.
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
Putain j'ai failli me pisser dessus !
Á défaut de spouvoir expliquer le pourquoi de cette incontinence, comme
la totalité des intervenants dans ce fil. Je n'ai lu aucun argument en
faveur du C, et pourtant tout le monde (ou presque) continue à vouer un
culte incohérent à ce langage et à ses dérivés directs (C++, etc.) et
indirects (linux, etc.)
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Oui, mais je vous ais demandé ce qui posait problème, pas d'essayer d'exhiber chez moi une quelconque incompétence.
Je te conseille la lecture de l'excellentissime livre : http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Et moi je vous conseille la lecture de cet article :
« Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme », dans Monatshefte für Mathematik und Physik, volume 38, 1931;
au lieu de vulgarisations aussi simplistes que mensongères.
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
Putain j'ai failli me pisser dessus !
Á défaut de spouvoir expliquer le pourquoi de cette incontinence, comme la totalité des intervenants dans ce fil. Je n'ai lu aucun argument en faveur du C, et pourtant tout le monde (ou presque) continue à vouer un culte incohérent à ce langage et à ses dérivés directs (C++, etc.) et indirects (linux, etc.)