On voit souvent des "quel linux choisir ?", des "pourquoi linux ?" etc.
Mais finalement à devoir choisir entre la peste (du côté de chez MS) et
la grippe (notre bon vieux nunux), celà ne vous arrive pas le matin en
vous réveillant de vous dire que les programmes qui font fonctionner
votre machines ne sont que des bidouillages plus ou moins réussis ?
Regardez les codes sources d'un programme en C. Même le code d'un bon
programmeur n'est rempli que d'horreurs. Ce fameux "void" : c'est quoi
cette abomination de la programmation ? Il n'y a aucune sémantique
valable là derrière. D'ailleurs les types en C n'ont de type que le nom.
Comment se fait il qu'on puisse écrire dans la 11e case d'un tableau de
10 éléments. Ce langage surestime beaucoup les capacités des personnes
qui vont l'utiliser. Une telle chose ne doit pas être possible. Comment
imaginer que ce genre de choses peut être voulu par le programmeur ?
Je pense que vous avez déjà vu du JAVA. Mais c'est à gerber cet
emboîtement de new, cette masse colossale de classes à faire pour faire
trois fois rien ! J'ose même pas imaginer la quantité de calculs
inutiles faits par la machine pour gérer ces merdes. D'accord il y a de
l'optimisation, mais c'est loin d'être suffisant.
Dans le temps les programmes étaient bidouillés parce qu'il n'y avait
pas assez de mémoire : par exemple on utilisait une variable pour
stocker deux informations. Maintenant l'horreur est à l'autre extrême :
on a tellement de mémoire de disponible que l'on utilise trop. En C :
tant pis c'est perdu. Un trou de mémoire ? Tant que le pc doit pas
redémarrer toutes les heures à cause de ça on s'en fout. En JAVA : il y
a le ramasse miettes alors on peut bouffer de la mémoire : c'est pô grave.
Dès que les programmes ont commencé à ne plus rentrer sur une disquette
ils sont devenus beaucoup trop compliqués pour fonctionner correctement.
On en vient à une époque où on trouve acceptable un programme quand il a
moins de cent bugs alors que rien que le fait de consommer trop de
ressources fait que le programme n'est pas bon. Aujourd'hui on nous
parle de .NET et de merdouilles dans le genre. A quoi ça sert de se
lancer dans la création de langages qui se copient les uns les autres.
C, C++, JAVA, Pascal : c'est la même chose, la même façon de penser. Et
c'est une manière de penser qui pousse à faire des fautes.
Bref l'informatique ne va pas fort.
Le Wed, 09 Mar 2005 18:56:32 +0000, Nicolas George a écrit :
Joe Cool , dans le message <422f3e28$0$23421$, a écrit :
Oui, car il n'est divisible que par 1 et par lui même.
Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse. 1 n'est pas premier pour avoir l'unicité de la décomposition en nombre
premier d'un nombre , mais ce n'est qu'une convention
Joe Cool
Je vais sans doute vous apprendre une chose, en général les gens quand ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de sa compétence ça n'arrange rien.
Je déteste les arguments d'autorité : ils ne valent rien, ils ne méritent même pas le titre d'argument. Vous ne saurez rien de mes compétences, et je ne veux pas savoir si vous êtes professeur des universités, lycéen ou Linus Torvalds.
-- Joe Cool
Je vais sans doute vous apprendre une chose, en général les gens quand
ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent
rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de
qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de
sa compétence ça n'arrange rien.
Je déteste les arguments d'autorité : ils ne valent rien, ils ne
méritent même pas le titre d'argument. Vous ne saurez rien de mes
compétences, et je ne veux pas savoir si vous êtes professeur des
universités, lycéen ou Linus Torvalds.
Je vais sans doute vous apprendre une chose, en général les gens quand ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de sa compétence ça n'arrange rien.
Je déteste les arguments d'autorité : ils ne valent rien, ils ne méritent même pas le titre d'argument. Vous ne saurez rien de mes compétences, et je ne veux pas savoir si vous êtes professeur des universités, lycéen ou Linus Torvalds.
-- Joe Cool
Irvin Probst
On 2005-03-09, Joe Cool wrote:
Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et prétentieuse soutenue par aucun argument autre que "vous êtes tous des dinosaures doublés de cons".
Moi les seuls arguments en faveur du C que j'ai vu sont :
- troll ! - faites donc un OS en trucmuch !
Je vais sans doute vous apprendre une chose, en général les gens quand ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de sa compétence ça n'arrange rien.
Je n'insulte personne. Vous vous sentez insultés parce que vous vous identifiez à votre langage préféré, envers lequel vous n'êtes pas du tout objectif.
Le C est mon langage préféré ? Ah ? Vous m'apprenez quelque chose à votre tour. Merci.
-- Irvin
On 2005-03-09, Joe Cool <zierouhli_@d_free.fr> wrote:
Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et
prétentieuse soutenue par aucun argument autre que "vous êtes tous des
dinosaures doublés de cons".
Moi les seuls arguments en faveur du C que j'ai vu sont :
- troll !
- faites donc un OS en trucmuch !
Je vais sans doute vous apprendre une chose, en général les gens quand
ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent
rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de
qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de
sa compétence ça n'arrange rien.
Je n'insulte personne. Vous vous sentez insultés parce que vous vous
identifiez à votre langage préféré, envers lequel vous n'êtes pas du
tout objectif.
Le C est mon langage préféré ? Ah ? Vous m'apprenez quelque chose à
votre tour. Merci.
Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et prétentieuse soutenue par aucun argument autre que "vous êtes tous des dinosaures doublés de cons".
Moi les seuls arguments en faveur du C que j'ai vu sont :
- troll ! - faites donc un OS en trucmuch !
Je vais sans doute vous apprendre une chose, en général les gens quand ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de sa compétence ça n'arrange rien.
Je n'insulte personne. Vous vous sentez insultés parce que vous vous identifiez à votre langage préféré, envers lequel vous n'êtes pas du tout objectif.
Le C est mon langage préféré ? Ah ? Vous m'apprenez quelque chose à votre tour. Merci.
-- Irvin
Nicolas George
Joe Cool , dans le message <422f4d30$0$9517$, a écrit :
Ceci n'a rien à voir avec les « undefined behaviour » du C.
Les comportements indéfinis, c'est une manière de dire qu'il est interdit, _en C_, d'utiliser certaines constructions. Ça n'a rien de non-portable. Ctitiquer le C sur les comportements indéfinis, c'est à peu près aussi crétin que de critiquer Caml parce qu'il ne définit pas ce qui se passe quand écrit « let x = ) ».
Joe Cool , dans le message <422f4d30$0$9517$636a15ce@news.free.fr>, a
écrit :
Ceci n'a rien à voir avec les « undefined behaviour » du C.
Les comportements indéfinis, c'est une manière de dire qu'il est interdit,
_en C_, d'utiliser certaines constructions. Ça n'a rien de non-portable.
Ctitiquer le C sur les comportements indéfinis, c'est à peu près aussi
crétin que de critiquer Caml parce qu'il ne définit pas ce qui se passe
quand écrit « let x = ) ».
Joe Cool , dans le message <422f4d30$0$9517$, a écrit :
Ceci n'a rien à voir avec les « undefined behaviour » du C.
Les comportements indéfinis, c'est une manière de dire qu'il est interdit, _en C_, d'utiliser certaines constructions. Ça n'a rien de non-portable. Ctitiquer le C sur les comportements indéfinis, c'est à peu près aussi crétin que de critiquer Caml parce qu'il ne définit pas ce qui se passe quand écrit « let x = ) ».
Eric Jacoboni
JustMe writes:
Cela dit, je m'en fous, je ne suis pas matheux. Le seul moment où j'ai
ca se voit :-)
Ah ? Pourquoi ?
En plus, d'un point de vue pratique, ça m'arrange assez de commencer à 2.
pauvres eleves...
C'est juste pour tenter une bonne répartie, ou tu peux argumenter ? -- Éric Jacoboni, né il y a 1413837140 secondes
JustMe <pasdespam@merci.beaucoup> writes:
Cela dit, je m'en fous, je ne suis pas matheux. Le seul moment où j'ai
ca se voit :-)
Ah ? Pourquoi ?
En plus, d'un point de vue
pratique, ça m'arrange assez de commencer à 2.
pauvres eleves...
C'est juste pour tenter une bonne répartie, ou tu peux argumenter ?
--
Éric Jacoboni, né il y a 1413837140 secondes
Cela dit, je m'en fous, je ne suis pas matheux. Le seul moment où j'ai
ca se voit :-)
Ah ? Pourquoi ?
En plus, d'un point de vue pratique, ça m'arrange assez de commencer à 2.
pauvres eleves...
C'est juste pour tenter une bonne répartie, ou tu peux argumenter ? -- Éric Jacoboni, né il y a 1413837140 secondes
Nicolas George
Joe Cool , dans le message <422f4a69$0$9517$, a écrit :
Pinaillez donc sur des définitions, il en restera surement une trace dans l'Histoire de l'Humanité.
Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond est une chose, que vous vous rabattiez sur des détails est navrant.
Ce n'est pas seulement une question de définition, il y a des raisons importantes derrières. Ces raisons, je les connais bien, et je peux m'appuyer dessus pour affirmer. Ce n'est pas le cas de tout le monde ici.
Joe Cool , dans le message <422f4a69$0$9517$636a15ce@news.free.fr>, a
écrit :
Pinaillez donc sur des définitions, il en restera surement une trace
dans l'Histoire de l'Humanité.
Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond
est une chose, que vous vous rabattiez sur des détails est navrant.
Ce n'est pas seulement une question de définition, il y a des raisons
importantes derrières. Ces raisons, je les connais bien, et je peux
m'appuyer dessus pour affirmer. Ce n'est pas le cas de tout le monde ici.
Joe Cool , dans le message <422f4a69$0$9517$, a écrit :
Pinaillez donc sur des définitions, il en restera surement une trace dans l'Histoire de l'Humanité.
Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond est une chose, que vous vous rabattiez sur des détails est navrant.
Ce n'est pas seulement une question de définition, il y a des raisons importantes derrières. Ces raisons, je les connais bien, et je peux m'appuyer dessus pour affirmer. Ce n'est pas le cas de tout le monde ici.
JustMe
Nicolas George a émis l'idée suivante :
JustMe , dans le message , a
Dit autrement : les cas indécidables sont des situations artificielles, conçues précisément pour être indécidables (avec un argument diagonal par exemple). Les situations réellement utiles utilisent des constructions bien plus simples, des boucles (ou des récursions bornées). Je t'engage à prouver cela. Tu frises la fields ;-)
Prouver quoi ? Je fais une affirmation heuristique concernant des notions d'utilité, il n'y a rien de prouvable. Tu es sûr que tu as bien compris ce que j'ai dit ?
Les heuristiques sont une manière savantes de nommer des recettes de cuisines plus ou moins fiable. On est bien loin de la sacro sainte et universelle "preuve mathématique" agitée par l'autre zozo et c'est d'ailleurs là que je voulais en venir. Merci
Nicolas George a émis l'idée suivante :
JustMe , dans le message <mn.4caa7d53ac62da15.15643@merci.beaucoup>, a
Dit autrement : les cas indécidables sont des situations artificielles,
conçues précisément pour être indécidables (avec un argument diagonal par
exemple). Les situations réellement utiles utilisent des constructions bien
plus simples, des boucles (ou des récursions bornées).
Je t'engage à prouver cela. Tu frises la fields ;-)
Prouver quoi ? Je fais une affirmation heuristique concernant des notions
d'utilité, il n'y a rien de prouvable. Tu es sûr que tu as bien compris ce
que j'ai dit ?
Les heuristiques sont une manière savantes de nommer des recettes de
cuisines plus ou moins fiable. On est bien loin de la sacro sainte et
universelle "preuve mathématique" agitée par l'autre zozo et c'est
d'ailleurs là que je voulais en venir. Merci
Dit autrement : les cas indécidables sont des situations artificielles, conçues précisément pour être indécidables (avec un argument diagonal par exemple). Les situations réellement utiles utilisent des constructions bien plus simples, des boucles (ou des récursions bornées). Je t'engage à prouver cela. Tu frises la fields ;-)
Prouver quoi ? Je fais une affirmation heuristique concernant des notions d'utilité, il n'y a rien de prouvable. Tu es sûr que tu as bien compris ce que j'ai dit ?
Les heuristiques sont une manière savantes de nommer des recettes de cuisines plus ou moins fiable. On est bien loin de la sacro sainte et universelle "preuve mathématique" agitée par l'autre zozo et c'est d'ailleurs là que je voulais en venir. Merci
Nicolas George
JustMe , dans le message , a écrit :
Non ca n'est pas pareil. Dans le second cas on quitte une appli dans un état aléatoire, dans le second on peut passer par une phase de nettoyage/rollback pour revenir à un etat connu (sur des fichiers de données par ex).
On peut parfaitement rattraper tout à fait fiablement une segmentation fault.
JustMe , dans le message <mn.4cba7d5365423811.15643@merci.beaucoup>, a
écrit :
Non ca n'est pas pareil. Dans le second cas on quitte une appli dans un
état aléatoire, dans le second on peut passer par une phase de
nettoyage/rollback pour revenir à un etat connu (sur des fichiers de
données par ex).
On peut parfaitement rattraper tout à fait fiablement une segmentation
fault.
Non ca n'est pas pareil. Dans le second cas on quitte une appli dans un état aléatoire, dans le second on peut passer par une phase de nettoyage/rollback pour revenir à un etat connu (sur des fichiers de données par ex).
On peut parfaitement rattraper tout à fait fiablement une segmentation fault.
Nicolas George
Joe Cool , dans le message <422f4b50$0$9517$, a écrit :
Qu'un programme se termine par un « Fatal error: exception ^^^^^^^^^^
Invalid_argument("Array.set") » ou un « segmentation fault », c'est pareil, au final : le programme n'a pas donné le bon résultat, point final.
Un programme qui plante est mort, alors qu'un programme qui lève une exception est toujours fonctionnel.
Apprends à lire. Un programme qui se prend une exception qu'il ne rattrape pas est tout aussi mort qu'un programme qui se prend un SIGSEGV qu'il ne rattrape pas.
Joe Cool , dans le message <422f4b50$0$9517$636a15ce@news.free.fr>, a
écrit :
Qu'un programme se termine par un « Fatal error: exception
^^^^^^^^^^
Invalid_argument("Array.set") » ou un « segmentation fault », c'est pareil,
au final : le programme n'a pas donné le bon résultat, point final.
Un programme qui plante est mort, alors qu'un programme qui lève une
exception est toujours fonctionnel.
Apprends à lire. Un programme qui se prend une exception qu'il ne rattrape
pas est tout aussi mort qu'un programme qui se prend un SIGSEGV qu'il ne
rattrape pas.
Joe Cool , dans le message <422f4b50$0$9517$, a écrit :
Qu'un programme se termine par un « Fatal error: exception ^^^^^^^^^^
Invalid_argument("Array.set") » ou un « segmentation fault », c'est pareil, au final : le programme n'a pas donné le bon résultat, point final.
Un programme qui plante est mort, alors qu'un programme qui lève une exception est toujours fonctionnel.
Apprends à lire. Un programme qui se prend une exception qu'il ne rattrape pas est tout aussi mort qu'un programme qui se prend un SIGSEGV qu'il ne rattrape pas.
Irvin Probst
On 2005-03-09, Joe Cool wrote:
Oui, car il n'est divisible que par 1 et par lui même.
Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.
Pinaillez donc sur des définitions, il en restera surement une trace dans l'Histoire de l'Humanité.
Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond est une chose, que vous vous rabattiez sur des détails est navrant.
*HAHAHAHA* Alors celle-là faudrait l'encadrer en page de garde de tout bouquin de mathématiques, ça ferait rire des générations d'étudiants.
-- Irvin
On 2005-03-09, Joe Cool <zierouhli_@d_free.fr> wrote:
Oui, car il n'est divisible que par 1 et par lui même.
Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.
Pinaillez donc sur des définitions, il en restera surement une trace
dans l'Histoire de l'Humanité.
Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond
est une chose, que vous vous rabattiez sur des détails est navrant.
*HAHAHAHA*
Alors celle-là faudrait l'encadrer en page de garde de tout bouquin de
mathématiques, ça ferait rire des générations d'étudiants.