On voit souvent des "quel linux choisir ?", des "pourquoi linux ?" etc.
Mais finalement à devoir choisir entre la peste (du côté de chez MS) et
la grippe (notre bon vieux nunux), celà ne vous arrive pas le matin en
vous réveillant de vous dire que les programmes qui font fonctionner
votre machines ne sont que des bidouillages plus ou moins réussis ?
Regardez les codes sources d'un programme en C. Même le code d'un bon
programmeur n'est rempli que d'horreurs. Ce fameux "void" : c'est quoi
cette abomination de la programmation ? Il n'y a aucune sémantique
valable là derrière. D'ailleurs les types en C n'ont de type que le nom.
Comment se fait il qu'on puisse écrire dans la 11e case d'un tableau de
10 éléments. Ce langage surestime beaucoup les capacités des personnes
qui vont l'utiliser. Une telle chose ne doit pas être possible. Comment
imaginer que ce genre de choses peut être voulu par le programmeur ?
Je pense que vous avez déjà vu du JAVA. Mais c'est à gerber cet
emboîtement de new, cette masse colossale de classes à faire pour faire
trois fois rien ! J'ose même pas imaginer la quantité de calculs
inutiles faits par la machine pour gérer ces merdes. D'accord il y a de
l'optimisation, mais c'est loin d'être suffisant.
Dans le temps les programmes étaient bidouillés parce qu'il n'y avait
pas assez de mémoire : par exemple on utilisait une variable pour
stocker deux informations. Maintenant l'horreur est à l'autre extrême :
on a tellement de mémoire de disponible que l'on utilise trop. En C :
tant pis c'est perdu. Un trou de mémoire ? Tant que le pc doit pas
redémarrer toutes les heures à cause de ça on s'en fout. En JAVA : il y
a le ramasse miettes alors on peut bouffer de la mémoire : c'est pô grave.
Dès que les programmes ont commencé à ne plus rentrer sur une disquette
ils sont devenus beaucoup trop compliqués pour fonctionner correctement.
On en vient à une époque où on trouve acceptable un programme quand il a
moins de cent bugs alors que rien que le fait de consommer trop de
ressources fait que le programme n'est pas bon. Aujourd'hui on nous
parle de .NET et de merdouilles dans le genre. A quoi ça sert de se
lancer dans la création de langages qui se copient les uns les autres.
C, C++, JAVA, Pascal : c'est la même chose, la même façon de penser. Et
c'est une manière de penser qui pousse à faire des fautes.
Bref l'informatique ne va pas fort.
Ada, n'est-ce pas le langage qui t'interdit de faire de la compote
si tu reviens du marché avec des pommes _et_ des poires ? C'est pratique pour écrire un os, ça :)
-- _/°< coin
JustMe
Joe Cool a présenté l'énoncé suivant :
Le 09/03/2005, Joe Cool a supposé :
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les compilos ;-)
La dérécursivation est le travail du compilateur, il sait le faire.
ah ? Ca vient de sortir ?
lol
L'optimisation est aussi le travail du compilateur,
l'optimisation faite par un compilo n'est jamais tres efficiente. Pourquoi crois tu que les "profilers" existent si ce n'est pour permettre *au programmeur* de faire le plus gros de l'optimisation
un algorithme lent ou qui mange toute la mémoire fera de même quelque soit le langage.
tu te contredis, là :-D
Joe Cool a présenté l'énoncé suivant :
Le 09/03/2005, Joe Cool a supposé :
là tu parles d'algorithmique, plus de langage. Et le compilo, tout
perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le
language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras
encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les
compilos ;-)
La dérécursivation est le travail du compilateur, il sait le faire.
ah ? Ca vient de sortir ?
lol
L'optimisation est aussi le travail du compilateur,
l'optimisation faite par un compilo n'est jamais tres efficiente.
Pourquoi crois tu que les "profilers" existent si ce n'est pour
permettre *au programmeur* de faire le plus gros de l'optimisation
un algorithme lent ou qui
mange toute la mémoire fera de même quelque soit le langage.
là tu parles d'algorithmique, plus de langage. Et le compilo, tout perfectionné qu'il soit, n'y pourra jamais rien, quel que soit le language...
(PS: tant qu'a faire, autant dé-récursiver le calcul et tu y gagneras encore :-D)
C'est le travail du compilateur,
Mission impossible. L'algorithmique n'est pas (encore) gérée par les compilos ;-)
La dérécursivation est le travail du compilateur, il sait le faire.
ah ? Ca vient de sortir ?
lol
L'optimisation est aussi le travail du compilateur,
l'optimisation faite par un compilo n'est jamais tres efficiente. Pourquoi crois tu que les "profilers" existent si ce n'est pour permettre *au programmeur* de faire le plus gros de l'optimisation
un algorithme lent ou qui mange toute la mémoire fera de même quelque soit le langage.
tu te contredis, là :-D
Tom
Mais non. C'est vrai que les commentaires sont souvent bien foutus.
C'est marrant, « abomination » est le terme exact employé par Dennis Ritchie pour qualifier void.
Ecoutez votre maître alors, vu que vous ne me croyez pas.
Void sert à expliciter quelquechose qui serait implicitement évident sans lui, c'est donc une complexité inutile. Mais si c'est le seul reproche à faire au langage C, il n'est pas bien gros.
Le fait que le C n'a pas de système de typage n'est pas un gros reproche ? Vous êtes informaticien ?
Hu ? Un type en C sert à déterminer la signification que l'on prête à une valeur. Comment se fait il alors qu'on puisse ajouter un entier à un caractère ?
Qu'on puisse diviser un void par une chaine de caractères ? Ca a une sémantique cohérente cette chose ? Non.
On ne peut pas. cf plus haut. Ne pas confondre le tableau et la représentation mentale
que l'on a du tableau. A moins qu'il y a unsuper patch magique qui nous empêche le fameux segmentation fault que nous adorons tous.
C'est un langage qui fait confiance au programmeur, nuance !
Il ne devrait pas. Mon Gaim qui plante est d'accord avec moi. Pourtant ça doit pas être un mauvais programmeur celui qui l'a fait je suppose. C'est cette confiance qui fait que Debian doit sortir une version Stable, une Testing et une Unstable ?
Cette chose n'étant pas possible, personne n'a imaginé qu'elle puisse être voulue par le programmeur. Pourtant c'est possible. Un programme n'a la sémantique qu'on veut bien
lui donner.
L'intérêt des classes, c'est quand on fait beaucoup de choses, et non trois fois rien, justement. Je ne pense pas qu'il y ait un intérêt aux classes.
Pas beaucoup, ce n'est pas pour ça que Java est lent. Que j'adore Java.
On dit une « fuite » de mémoire. Le trou de mémoire est plus cérébral comme problème. Il existe des logiciels pour les détecter. (valgrind par exemple). Ils ne devraient tout simplement pas exister. Encore un exemple de
rustine pour combler des lacunes d'un langage défaillant.
Au prix de la barette de mémoire, ce n'est plus bien grave en effet.
Sans commentaires.
Oui, mais s'ils sont compliqués c'est qu'il font des choses compliquées.
Pas forcément. C'est là que ça devient grâve. Regardez un Hello World en Java : je dois rire ou pleurer ?
Si les langages se copient, c'est que chacun reprend ce qu'il estime de meilleur dans l'autre langage, et y ajoute ce qu'il pense manquer.
c'est surtout qu'il veut garder ce qu'il connait. Les gens ont peur d'apprendre de nouvelles choses. C'est ce genre d'abrutit qui vient dire que Caml est un mauvais langage. Bah ouais y'a pas de void en Caml, on ne peut pas faire n'importe quoi.
Hu ? Je crois qu'il est à peu près admis que le nombre de fautes ne dépend pas du langage. Les artifices pour soi-disant protéger le programmeur ne fonctionne pas contre la majorité des erreurs, et seule une phase intensive de tests permet de limiter les erreurs.
Mais arrêtez avec vos tests ! Quand vous étiez en primaire et qu'on vous demandait de calculer la taille de l'hypothénuse d'un triangle rectangle sachant la longueur des deux autres côtés, vous sortiez la règle ? Le typage permet d'éviter la majorité des erreurs. Ensuite une sémantique non ambigüe permet d'en éviter une grosse autre partie. Pour le reste il faut prouver.
Bref l'informatique ne va pas fort. Mais si, mais si.
Tout va bien dans le meilleur des mondes. Dans combien de temps vous viendrez pleurer ? Dans cinquante ans ?
Tom
Mais non.
C'est vrai que les commentaires sont souvent bien foutus.
C'est marrant, « abomination » est le terme exact employé par Dennis
Ritchie pour qualifier void.
Ecoutez votre maître alors, vu que vous ne me croyez pas.
Void sert à expliciter quelquechose qui serait implicitement évident
sans lui, c'est donc une complexité inutile. Mais si c'est le seul
reproche à faire au langage C, il n'est pas bien gros.
Le fait que le C n'a pas de système de typage n'est pas un gros reproche
? Vous êtes informaticien ?
Hu ? Un type en C sert à déterminer la signification que l'on prête à
une valeur.
Comment se fait il alors qu'on puisse ajouter un entier à un caractère ?
Qu'on puisse diviser un void par une chaine de caractères ? Ca a une
sémantique cohérente cette chose ? Non.
On ne peut pas.
cf plus haut. Ne pas confondre le tableau et la représentation mentale
que l'on a du tableau. A moins qu'il y a unsuper patch magique qui nous
empêche le fameux segmentation fault que nous adorons tous.
C'est un langage qui fait confiance au programmeur, nuance !
Il ne devrait pas. Mon Gaim qui plante est d'accord avec moi. Pourtant
ça doit pas être un mauvais programmeur celui qui l'a fait je suppose.
C'est cette confiance qui fait que Debian doit sortir une version
Stable, une Testing et une Unstable ?
Cette chose n'étant pas possible, personne n'a imaginé qu'elle puisse
être voulue par le programmeur.
Pourtant c'est possible. Un programme n'a la sémantique qu'on veut bien
lui donner.
L'intérêt des classes, c'est quand on fait beaucoup de choses, et non
trois fois rien, justement.
Je ne pense pas qu'il y ait un intérêt aux classes.
Pas beaucoup, ce n'est pas pour ça que Java est lent.
Que j'adore Java.
On dit une « fuite » de mémoire. Le trou de mémoire est plus cérébral
comme problème. Il existe des logiciels pour les détecter. (valgrind par
exemple).
Ils ne devraient tout simplement pas exister. Encore un exemple de
rustine pour combler des lacunes d'un langage défaillant.
Au prix de la barette de mémoire, ce n'est plus bien grave en effet.
Sans commentaires.
Oui, mais s'ils sont compliqués c'est qu'il font des choses compliquées.
Pas forcément. C'est là que ça devient grâve. Regardez un Hello World en
Java : je dois rire ou pleurer ?
Si les langages se copient, c'est que chacun reprend ce qu'il estime de
meilleur dans l'autre langage, et y ajoute ce qu'il pense manquer.
c'est surtout qu'il veut garder ce qu'il connait. Les gens ont peur
d'apprendre de nouvelles choses. C'est ce genre d'abrutit qui vient dire
que Caml est un mauvais langage. Bah ouais y'a pas de void en Caml, on
ne peut pas faire n'importe quoi.
Hu ? Je crois qu'il est à peu près admis que le nombre de fautes ne
dépend pas du langage. Les artifices pour soi-disant protéger le
programmeur ne fonctionne pas contre la majorité des erreurs, et seule
une phase intensive de tests permet de limiter les erreurs.
Mais arrêtez avec vos tests ! Quand vous étiez en primaire et qu'on vous
demandait de calculer la taille de l'hypothénuse d'un triangle rectangle
sachant la longueur des deux autres côtés, vous sortiez la règle ?
Le typage permet d'éviter la majorité des erreurs. Ensuite une
sémantique non ambigüe permet d'en éviter une grosse autre partie. Pour
le reste il faut prouver.
Bref l'informatique ne va pas fort.
Mais si, mais si.
Tout va bien dans le meilleur des mondes. Dans combien de temps vous
viendrez pleurer ? Dans cinquante ans ?
Mais non. C'est vrai que les commentaires sont souvent bien foutus.
C'est marrant, « abomination » est le terme exact employé par Dennis Ritchie pour qualifier void.
Ecoutez votre maître alors, vu que vous ne me croyez pas.
Void sert à expliciter quelquechose qui serait implicitement évident sans lui, c'est donc une complexité inutile. Mais si c'est le seul reproche à faire au langage C, il n'est pas bien gros.
Le fait que le C n'a pas de système de typage n'est pas un gros reproche ? Vous êtes informaticien ?
Hu ? Un type en C sert à déterminer la signification que l'on prête à une valeur. Comment se fait il alors qu'on puisse ajouter un entier à un caractère ?
Qu'on puisse diviser un void par une chaine de caractères ? Ca a une sémantique cohérente cette chose ? Non.
On ne peut pas. cf plus haut. Ne pas confondre le tableau et la représentation mentale
que l'on a du tableau. A moins qu'il y a unsuper patch magique qui nous empêche le fameux segmentation fault que nous adorons tous.
C'est un langage qui fait confiance au programmeur, nuance !
Il ne devrait pas. Mon Gaim qui plante est d'accord avec moi. Pourtant ça doit pas être un mauvais programmeur celui qui l'a fait je suppose. C'est cette confiance qui fait que Debian doit sortir une version Stable, une Testing et une Unstable ?
Cette chose n'étant pas possible, personne n'a imaginé qu'elle puisse être voulue par le programmeur. Pourtant c'est possible. Un programme n'a la sémantique qu'on veut bien
lui donner.
L'intérêt des classes, c'est quand on fait beaucoup de choses, et non trois fois rien, justement. Je ne pense pas qu'il y ait un intérêt aux classes.
Pas beaucoup, ce n'est pas pour ça que Java est lent. Que j'adore Java.
On dit une « fuite » de mémoire. Le trou de mémoire est plus cérébral comme problème. Il existe des logiciels pour les détecter. (valgrind par exemple). Ils ne devraient tout simplement pas exister. Encore un exemple de
rustine pour combler des lacunes d'un langage défaillant.
Au prix de la barette de mémoire, ce n'est plus bien grave en effet.
Sans commentaires.
Oui, mais s'ils sont compliqués c'est qu'il font des choses compliquées.
Pas forcément. C'est là que ça devient grâve. Regardez un Hello World en Java : je dois rire ou pleurer ?
Si les langages se copient, c'est que chacun reprend ce qu'il estime de meilleur dans l'autre langage, et y ajoute ce qu'il pense manquer.
c'est surtout qu'il veut garder ce qu'il connait. Les gens ont peur d'apprendre de nouvelles choses. C'est ce genre d'abrutit qui vient dire que Caml est un mauvais langage. Bah ouais y'a pas de void en Caml, on ne peut pas faire n'importe quoi.
Hu ? Je crois qu'il est à peu près admis que le nombre de fautes ne dépend pas du langage. Les artifices pour soi-disant protéger le programmeur ne fonctionne pas contre la majorité des erreurs, et seule une phase intensive de tests permet de limiter les erreurs.
Mais arrêtez avec vos tests ! Quand vous étiez en primaire et qu'on vous demandait de calculer la taille de l'hypothénuse d'un triangle rectangle sachant la longueur des deux autres côtés, vous sortiez la règle ? Le typage permet d'éviter la majorité des erreurs. Ensuite une sémantique non ambigüe permet d'en éviter une grosse autre partie. Pour le reste il faut prouver.
Bref l'informatique ne va pas fort. Mais si, mais si.
Tout va bien dans le meilleur des mondes. Dans combien de temps vous viendrez pleurer ? Dans cinquante ans ?
Tom
David MAREC
Joe Cool :
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il montre que tu divagues complètement.
Là ou il dit « Chez moi ça ne marche pas ? » Et bien chez moi ça marche, chez mon voisin ça marche, et ça marche pareil sur des milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve. En tant que langage non portable, je ne suis pas étonné que ce genre de « fonctionnalité » ne soit pas reproductible partout à l'identique, mais ce n'est absolument pas un argument en ma défaveur, au contraire : cela montre que dans le cas général, le comportement d'un programme en C, même très simple, n'est pas prédictible.
Bien sûr que si, _chez moi_ la plupart des programmes C fonctionnent de la même façon que sur des _milliers d'autres machines_ ainsi que _chez votre voisin_. Si vous y trouvez un cas particulier, ce n'est pas une preuve. Ce n'est absolument pas un argument en votre faveur.
Donc, dans le cas général, un programme C est prédictible.
Joe Cool :
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il
montre que tu divagues complètement.
Là ou il dit « Chez moi ça ne marche pas ? » Et bien chez moi ça marche,
chez mon voisin ça marche, et ça marche pareil sur des milliers de
machines.
Là n'est pas la question, un cas particulier n'est pas une preuve. En
tant que langage non portable, je ne suis pas étonné que ce genre de «
fonctionnalité » ne soit pas reproductible partout à l'identique, mais
ce n'est absolument pas un argument en ma défaveur, au contraire : cela
montre que dans le cas général, le comportement d'un programme en C,
même très simple, n'est pas prédictible.
Bien sûr que si, _chez moi_ la plupart des programmes C fonctionnent de
la même façon que sur des _milliers d'autres machines_ ainsi que _chez
votre voisin_.
Si vous y trouvez un cas particulier, ce n'est pas une preuve.
Ce n'est absolument pas un argument en votre faveur.
Donc, dans le cas général, un programme C est prédictible.
C'est dommage que tu ne réponds pas au reste. Tu sais, le passage où il montre que tu divagues complètement.
Là ou il dit « Chez moi ça ne marche pas ? » Et bien chez moi ça marche, chez mon voisin ça marche, et ça marche pareil sur des milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve. En tant que langage non portable, je ne suis pas étonné que ce genre de « fonctionnalité » ne soit pas reproductible partout à l'identique, mais ce n'est absolument pas un argument en ma défaveur, au contraire : cela montre que dans le cas général, le comportement d'un programme en C, même très simple, n'est pas prédictible.
Bien sûr que si, _chez moi_ la plupart des programmes C fonctionnent de la même façon que sur des _milliers d'autres machines_ ainsi que _chez votre voisin_. Si vous y trouvez un cas particulier, ce n'est pas une preuve. Ce n'est absolument pas un argument en votre faveur.
Donc, dans le cas général, un programme C est prédictible.
Rakotomandimby (R12y) Mihamina
( Wed, 09 Mar 2005 09:29:46 +0100 ) Joe Cool :
Je crois que tu viens de trouver sans t'en rendre compte l'élément essentiel pour lequel ton troll s'effrondre. Quelque soit le langage (même un programme Ada peut faire exploser une fusée Ariane), il existe deux types de développeurs: le bon développeur qui sait développer et le mauvais développeur. Le bon ressemble au mauvais sauf qu'il est bon ! Bref, tu devrais regarder entre la chaise et le clavier et tu auras 90% des causes de problèmes informatiques.
C'est pourquoi il faut que le langage prenne sur lui toutes les erreurs du programmeur et les corrige malgré lui, car tout programmeur - sans exception - fait des erreurs. Programmer des ressources critiques avec des langages qui ne certifient pas la qualité de leur code est stupide et criminel.
Programmer en C est stupide et criminel.
je n'en peux plus, je place le FU2 sur fclc -- L'ASPO a pour but de démocratiser l'acces a l'informatique. Une de ses activité est l'infogerance (http://aspo.rktmb.org/activites/infogerance) Tél: + 33 2 38 04 26 04 ou + 33 6 33 26 13 14 (France)
( Wed, 09 Mar 2005 09:29:46 +0100 ) Joe Cool :
Je crois que tu viens de trouver sans t'en rendre compte l'élément
essentiel pour lequel ton troll s'effrondre. Quelque soit le langage
(même un programme Ada peut faire exploser une fusée Ariane), il existe
deux types de développeurs: le bon développeur qui sait développer et le
mauvais développeur. Le bon ressemble au mauvais sauf qu'il est bon !
Bref, tu devrais regarder entre la chaise et le clavier et tu auras 90%
des causes de problèmes informatiques.
C'est pourquoi il faut que le langage prenne sur lui toutes les erreurs
du programmeur et les corrige malgré lui, car tout programmeur - sans
exception - fait des erreurs. Programmer des ressources critiques avec
des langages qui ne certifient pas la qualité de leur code est stupide
et criminel.
Programmer en C est stupide et criminel.
je n'en peux plus, je place le FU2 sur fclc
--
L'ASPO a pour but de démocratiser l'acces a l'informatique. Une de ses
activité est l'infogerance (http://aspo.rktmb.org/activites/infogerance)
Tél: + 33 2 38 04 26 04 ou + 33 6 33 26 13 14 (France)
Je crois que tu viens de trouver sans t'en rendre compte l'élément essentiel pour lequel ton troll s'effrondre. Quelque soit le langage (même un programme Ada peut faire exploser une fusée Ariane), il existe deux types de développeurs: le bon développeur qui sait développer et le mauvais développeur. Le bon ressemble au mauvais sauf qu'il est bon ! Bref, tu devrais regarder entre la chaise et le clavier et tu auras 90% des causes de problèmes informatiques.
C'est pourquoi il faut que le langage prenne sur lui toutes les erreurs du programmeur et les corrige malgré lui, car tout programmeur - sans exception - fait des erreurs. Programmer des ressources critiques avec des langages qui ne certifient pas la qualité de leur code est stupide et criminel.
Programmer en C est stupide et criminel.
je n'en peux plus, je place le FU2 sur fclc -- L'ASPO a pour but de démocratiser l'acces a l'informatique. Une de ses activité est l'infogerance (http://aspo.rktmb.org/activites/infogerance) Tél: + 33 2 38 04 26 04 ou + 33 6 33 26 13 14 (France)
Tom
Que fais tu du théorème de Godel ?
Gödel n'a jamais fait un théorème qui dit que l'on ne peut pas prouver un programme.
Ca fait longtemps que j'ai abandonné le basic :-D Bon maintenant c'est son cousin le C qu'il faut abandonner.
Tom
Que fais tu du théorème de Godel ?
Gödel n'a jamais fait un théorème qui dit que l'on ne peut pas prouver
un programme.
Ca fait longtemps que j'ai abandonné le basic :-D
Bon maintenant c'est son cousin le C qu'il faut abandonner.
Gödel n'a jamais fait un théorème qui dit que l'on ne peut pas prouver un programme.
Ca fait longtemps que j'ai abandonné le basic :-D Bon maintenant c'est son cousin le C qu'il faut abandonner.
Tom
talon
Joe Cool wrote: milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve.
Oui, et il n'y a pas que les maths dans la vie. Il y a même des gens qui pensent que les maths, on n'en a rien à faire. Ou que si un événement a une probabilité 10^{-30} de se produire, c'est exactement pareil en ce qui nous concerne que s'il est impossible qu'il se produise. Ou encore que le formattage des informaticiens français par d'anciens mathématiciens généralement de seconde classe, pour rester poli, est une des grandes catastrophes de notre enseignement. Ou plus généralement le formattage des scientifiques français par les mathématiques, d'ailleurs on s'occupe en ce moment de faire cesser cette aberration ....
--
Michel TALON
Joe Cool <zierouhli_@d_free.fr> wrote:
milliers de machines.
Là n'est pas la question, un cas particulier n'est pas une preuve.
Oui, et il n'y a pas que les maths dans la vie. Il y a même des gens qui
pensent que les maths, on n'en a rien à faire. Ou que si un événement a une
probabilité 10^{-30} de se produire, c'est exactement pareil en ce qui nous
concerne que s'il est impossible qu'il se produise. Ou encore que le
formattage des informaticiens français par d'anciens mathématiciens
généralement de seconde classe, pour rester poli, est une des grandes
catastrophes de notre enseignement. Ou plus généralement le formattage
des scientifiques français par les mathématiques, d'ailleurs on s'occupe en ce
moment de faire cesser cette aberration ....
Là n'est pas la question, un cas particulier n'est pas une preuve.
Oui, et il n'y a pas que les maths dans la vie. Il y a même des gens qui pensent que les maths, on n'en a rien à faire. Ou que si un événement a une probabilité 10^{-30} de se produire, c'est exactement pareil en ce qui nous concerne que s'il est impossible qu'il se produise. Ou encore que le formattage des informaticiens français par d'anciens mathématiciens généralement de seconde classe, pour rester poli, est une des grandes catastrophes de notre enseignement. Ou plus généralement le formattage des scientifiques français par les mathématiques, d'ailleurs on s'occupe en ce moment de faire cesser cette aberration ....
--
Michel TALON
JustMe
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ? Un tantinet si tu sais ce que signifie le théoreme en question :-D
Oui, mais je vous ais demandé ce qui posait problème, pas d'essayer d'exhiber chez moi une quelconque incompétence.
Un tres bon résumé est donné par http://membres.lycos.fr/godel/ :
La premiere consequence de ces theormes est que la Verite ne peut pas etre exprime en terme de demonstrabilite. Une chose prouvable n'est pas necssairement vraie et une chose vraie n'est pas toujours prouvable.
Alors ton argument sur La Preuve Mathématique comme Vérité Absolue ;-)
Je te conseille la lecture de l'excellentissime livre : http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Et moi je vous conseille la lecture de cet article :
« Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme », dans Monatshefte für Mathematik und Physik, volume 38, 1931;
Oui et ?
En gros cet article prouve qu'il existe des taches que l'esprit humain peut resoudre et pas la machine. Ca va dans le sens de ce que je dis. Merci :-D
au lieu de vulgarisations aussi simplistes que mensongères.
Lis le livre en question avant de dire d'autres conneries :-D
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
Putain j'ai failli me pisser dessus !
Á défaut de spouvoir expliquer le pourquoi de cette incontinence, comme la totalité des intervenants dans ce fil. Je n'ai lu aucun argument en faveur du C, et pourtant tout le monde (ou presque) continue à vouer un culte incohérent à ce langage et à ses dérivés directs (C++, etc.) et indirects (linux, etc.)
Je ne voue pas un culte au C. Je constate simplement que pour ecrire un Device Driver, le Basic n'est pas tip top (lisp non plus). Chaque langage a ses qulités, ses défauts et ses champs d'application. Il n'existe pas de langage parfait. Le C a simplement l'intéret d'etre assez proche de la machine pour permettre la réalisation d'applications "couches basse" tout un apportant un niveau d'abstraction pour facilité la protabilité du code. Point-barre.
Que fais tu du théorème de Godel ?
Et ? C'est sensé être un problème ?
Un tantinet si tu sais ce que signifie le théoreme en question :-D
Oui, mais je vous ais demandé ce qui posait problème, pas d'essayer d'exhiber
chez moi une quelconque incompétence.
Un tres bon résumé est donné par http://membres.lycos.fr/godel/ :
La premiere consequence de ces theormes est que la Verite ne peut pas
etre exprime en terme de demonstrabilite. Une chose prouvable n'est pas
necssairement vraie et une chose vraie n'est pas toujours prouvable.
Alors ton argument sur La Preuve Mathématique comme Vérité Absolue ;-)
Je te conseille la lecture de l'excellentissime livre :
http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Et moi je vous conseille la lecture de cet article :
« Über formal unentscheidbare Sätze der Principia Mathematica und verwandter
Systeme », dans Monatshefte für Mathematik und Physik, volume 38, 1931;
Oui et ?
En gros cet article prouve qu'il existe des taches que l'esprit humain
peut resoudre et pas la machine. Ca va dans le sens de ce que je dis.
Merci :-D
au lieu de vulgarisations aussi simplistes que mensongères.
Lis le livre en question avant de dire d'autres conneries :-D
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
Putain j'ai failli me pisser dessus !
Á défaut de spouvoir expliquer le pourquoi de cette incontinence, comme la
totalité des intervenants dans ce fil. Je n'ai lu aucun argument en faveur du
C, et pourtant tout le monde (ou presque) continue à vouer un culte
incohérent à ce langage et à ses dérivés directs (C++, etc.) et indirects
(linux, etc.)
Je ne voue pas un culte au C. Je constate simplement que pour ecrire un
Device Driver, le Basic n'est pas tip top (lisp non plus). Chaque
langage a ses qulités, ses défauts et ses champs d'application. Il
n'existe pas de langage parfait. Le C a simplement l'intéret d'etre
assez proche de la machine pour permettre la réalisation d'applications
"couches basse" tout un apportant un niveau d'abstraction pour facilité
la protabilité du code. Point-barre.
Et ? C'est sensé être un problème ? Un tantinet si tu sais ce que signifie le théoreme en question :-D
Oui, mais je vous ais demandé ce qui posait problème, pas d'essayer d'exhiber chez moi une quelconque incompétence.
Un tres bon résumé est donné par http://membres.lycos.fr/godel/ :
La premiere consequence de ces theormes est que la Verite ne peut pas etre exprime en terme de demonstrabilite. Une chose prouvable n'est pas necssairement vraie et une chose vraie n'est pas toujours prouvable.
Alors ton argument sur La Preuve Mathématique comme Vérité Absolue ;-)
Je te conseille la lecture de l'excellentissime livre : http://www.lmet.fr/fiche.cgi?_ISBN=2-10-005435-X
Et moi je vous conseille la lecture de cet article :
« Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme », dans Monatshefte für Mathematik und Physik, volume 38, 1931;
Oui et ?
En gros cet article prouve qu'il existe des taches que l'esprit humain peut resoudre et pas la machine. Ca va dans le sens de ce que je dis. Merci :-D
au lieu de vulgarisations aussi simplistes que mensongères.
Lis le livre en question avant de dire d'autres conneries :-D
Ca fait longtemps que j'ai abandonné le basic :-D
Pourtant le BASIC est plus portable que le C, et de meilleur qualité.
Putain j'ai failli me pisser dessus !
Á défaut de spouvoir expliquer le pourquoi de cette incontinence, comme la totalité des intervenants dans ce fil. Je n'ai lu aucun argument en faveur du C, et pourtant tout le monde (ou presque) continue à vouer un culte incohérent à ce langage et à ses dérivés directs (C++, etc.) et indirects (linux, etc.)
Je ne voue pas un culte au C. Je constate simplement que pour ecrire un Device Driver, le Basic n'est pas tip top (lisp non plus). Chaque langage a ses qulités, ses défauts et ses champs d'application. Il n'existe pas de langage parfait. Le C a simplement l'intéret d'etre assez proche de la machine pour permettre la réalisation d'applications "couches basse" tout un apportant un niveau d'abstraction pour facilité la protabilité du code. Point-barre.
Joe Cool
Joe Cool a présenté l'énoncé suivant :
La dérécursivation est le travail du compilateur, il sait le faire.
ah ? Ca vient de sortir ?
Oui.
L'optimisation est aussi le travail du compilateur,
l'optimisation faite par un compilo n'est jamais tres efficiente. Pourquoi crois tu que les "profilers" existent si ce n'est pour permettre *au programmeur* de faire le plus gros de l'optimisation
Ceci pourrait ëtre automatisé sans mal, si les ingénieurs avaient un peu plus de connaissance.
un algorithme lent ou qui mange toute la mémoire fera de même quelque soit le langage.
tu te contredis, là :-D
Apprenez à faire la différence entre l'algorithmique et la réorganisation de code. La première influe sur la complexité tandis que la seconde agit sur le facteur constant néglié dans le calcul de la complexité.
Un algorithme décrit entre autres un comportement que le compilateur ne doit pas avoir le droit de modifier sous prétexte d'optimisation. Il ne doit pas remplacer des listes par des arbres sous prétexte que c'est plus rapide.
-- Joe Cool
Joe Cool a présenté l'énoncé suivant :
La dérécursivation est le travail du compilateur, il sait le faire.
ah ? Ca vient de sortir ?
Oui.
L'optimisation est aussi le travail du compilateur,
l'optimisation faite par un compilo n'est jamais tres efficiente.
Pourquoi crois tu que les "profilers" existent si ce n'est pour
permettre *au programmeur* de faire le plus gros de l'optimisation
Ceci pourrait ëtre automatisé sans mal, si les ingénieurs avaient un peu
plus de connaissance.
un algorithme lent ou qui mange toute la mémoire fera de même quelque
soit le langage.
tu te contredis, là :-D
Apprenez à faire la différence entre l'algorithmique et la
réorganisation de code. La première influe sur la complexité tandis que
la seconde agit sur le facteur constant néglié dans le calcul de la
complexité.
Un algorithme décrit entre autres un comportement que le compilateur ne
doit pas avoir le droit de modifier sous prétexte d'optimisation. Il ne
doit pas remplacer des listes par des arbres sous prétexte que c'est
plus rapide.
La dérécursivation est le travail du compilateur, il sait le faire.
ah ? Ca vient de sortir ?
Oui.
L'optimisation est aussi le travail du compilateur,
l'optimisation faite par un compilo n'est jamais tres efficiente. Pourquoi crois tu que les "profilers" existent si ce n'est pour permettre *au programmeur* de faire le plus gros de l'optimisation
Ceci pourrait ëtre automatisé sans mal, si les ingénieurs avaient un peu plus de connaissance.
un algorithme lent ou qui mange toute la mémoire fera de même quelque soit le langage.
tu te contredis, là :-D
Apprenez à faire la différence entre l'algorithmique et la réorganisation de code. La première influe sur la complexité tandis que la seconde agit sur le facteur constant néglié dans le calcul de la complexité.
Un algorithme décrit entre autres un comportement que le compilateur ne doit pas avoir le droit de modifier sous prétexte d'optimisation. Il ne doit pas remplacer des listes par des arbres sous prétexte que c'est plus rapide.
-- Joe Cool
JustMe
Tom a couché sur son écran :
Que fais tu du théorème de Godel ?
Gödel n'a jamais fait un théorème qui dit que l'on ne peut pas prouver un programme.
Non il a juste prouvé qu'il existait des propositions non décidables (ie: dont on ne peurtt prouver ni la véracité ni la fausseté). Donc la Preuve Mathématique n'a pas une portée absolue :-D
Ca fait longtemps que j'ai abandonné le basic :-D Bon maintenant c'est son cousin le C qu'il faut abandonner.
Il ya au moins deux problemes a cela : - chaque langage a un champ d'application et il n'y a pas de langage parfait, juste des langages plus adaptés à un domaine de réalisation que d'autres - on ne va pas jeter l'existant à la poubelle pour de simple considération ethético-philosophique.
et je ne parle pas du probleme de disponibilité des programmeur, de disponibilité des compilateurs, de pérénité des langages, etc..
Encore une fois, le langage choisi n'a que peu d'importance. C'est la conception qui compte avant tout. Pour construire un pont on peut choisir le metal, la pierre, le bois, le béton, etc... ou un mix de plusieurs. Chaque solution a ses avantages, ses défauts et ses limites mais aucune n'est parfaite.
Pour les langages informatiques c'est pareil.
Tom a couché sur son écran :
Que fais tu du théorème de Godel ?
Gödel n'a jamais fait un théorème qui dit que l'on ne peut pas prouver un
programme.
Non il a juste prouvé qu'il existait des propositions non décidables
(ie: dont on ne peurtt prouver ni la véracité ni la fausseté). Donc la
Preuve Mathématique n'a pas une portée absolue :-D
Ca fait longtemps que j'ai abandonné le basic :-D
Bon maintenant c'est son cousin le C qu'il faut abandonner.
Il ya au moins deux problemes a cela :
- chaque langage a un champ d'application et il n'y a pas de langage
parfait, juste des langages plus adaptés à un domaine de réalisation
que d'autres
- on ne va pas jeter l'existant à la poubelle pour de simple
considération ethético-philosophique.
et je ne parle pas du probleme de disponibilité des programmeur, de
disponibilité des compilateurs, de pérénité des langages, etc..
Encore une fois, le langage choisi n'a que peu d'importance. C'est la
conception qui compte avant tout. Pour construire un pont on peut
choisir le metal, la pierre, le bois, le béton, etc... ou un mix de
plusieurs. Chaque solution a ses avantages, ses défauts et ses limites
mais aucune n'est parfaite.
Gödel n'a jamais fait un théorème qui dit que l'on ne peut pas prouver un programme.
Non il a juste prouvé qu'il existait des propositions non décidables (ie: dont on ne peurtt prouver ni la véracité ni la fausseté). Donc la Preuve Mathématique n'a pas une portée absolue :-D
Ca fait longtemps que j'ai abandonné le basic :-D Bon maintenant c'est son cousin le C qu'il faut abandonner.
Il ya au moins deux problemes a cela : - chaque langage a un champ d'application et il n'y a pas de langage parfait, juste des langages plus adaptés à un domaine de réalisation que d'autres - on ne va pas jeter l'existant à la poubelle pour de simple considération ethético-philosophique.
et je ne parle pas du probleme de disponibilité des programmeur, de disponibilité des compilateurs, de pérénité des langages, etc..
Encore une fois, le langage choisi n'a que peu d'importance. C'est la conception qui compte avant tout. Pour construire un pont on peut choisir le metal, la pierre, le bois, le béton, etc... ou un mix de plusieurs. Chaque solution a ses avantages, ses défauts et ses limites mais aucune n'est parfaite.