OVH Cloud OVH Cloud

a-t-on le choix ?

444 réponses
Avatar
Tom
Bonjour,

On voit souvent des "quel linux choisir ?", des "pourquoi linux ?" etc.
Mais finalement à devoir choisir entre la peste (du côté de chez MS) et
la grippe (notre bon vieux nunux), celà ne vous arrive pas le matin en
vous réveillant de vous dire que les programmes qui font fonctionner
votre machines ne sont que des bidouillages plus ou moins réussis ?

Regardez les codes sources d'un programme en C. Même le code d'un bon
programmeur n'est rempli que d'horreurs. Ce fameux "void" : c'est quoi
cette abomination de la programmation ? Il n'y a aucune sémantique
valable là derrière. D'ailleurs les types en C n'ont de type que le nom.
Comment se fait il qu'on puisse écrire dans la 11e case d'un tableau de
10 éléments. Ce langage surestime beaucoup les capacités des personnes
qui vont l'utiliser. Une telle chose ne doit pas être possible. Comment
imaginer que ce genre de choses peut être voulu par le programmeur ?
Je pense que vous avez déjà vu du JAVA. Mais c'est à gerber cet
emboîtement de new, cette masse colossale de classes à faire pour faire
trois fois rien ! J'ose même pas imaginer la quantité de calculs
inutiles faits par la machine pour gérer ces merdes. D'accord il y a de
l'optimisation, mais c'est loin d'être suffisant.
Dans le temps les programmes étaient bidouillés parce qu'il n'y avait
pas assez de mémoire : par exemple on utilisait une variable pour
stocker deux informations. Maintenant l'horreur est à l'autre extrême :
on a tellement de mémoire de disponible que l'on utilise trop. En C :
tant pis c'est perdu. Un trou de mémoire ? Tant que le pc doit pas
redémarrer toutes les heures à cause de ça on s'en fout. En JAVA : il y
a le ramasse miettes alors on peut bouffer de la mémoire : c'est pô grave.
Dès que les programmes ont commencé à ne plus rentrer sur une disquette
ils sont devenus beaucoup trop compliqués pour fonctionner correctement.
On en vient à une époque où on trouve acceptable un programme quand il a
moins de cent bugs alors que rien que le fait de consommer trop de
ressources fait que le programme n'est pas bon. Aujourd'hui on nous
parle de .NET et de merdouilles dans le genre. A quoi ça sert de se
lancer dans la création de langages qui se copient les uns les autres.
C, C++, JAVA, Pascal : c'est la même chose, la même façon de penser. Et
c'est une manière de penser qui pousse à faire des fautes.
Bref l'informatique ne va pas fort.

Tom

10 réponses

Avatar
Galkine
Le Wed, 09 Mar 2005 18:56:32 +0000, Nicolas George a écrit :

Joe Cool , dans le message <422f3e28$0$23421$, a
écrit :
Oui, car il n'est divisible que par 1 et par lui même.


Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.
1 n'est pas premier pour avoir l'unicité de la décomposition en nombre

premier d'un nombre , mais ce n'est qu'une convention


Avatar
Joe Cool
Je vais sans doute vous apprendre une chose, en général les gens quand
ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent
rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de
qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de
sa compétence ça n'arrange rien.


Je déteste les arguments d'autorité : ils ne valent rien, ils ne
méritent même pas le titre d'argument. Vous ne saurez rien de mes
compétences, et je ne veux pas savoir si vous êtes professeur des
universités, lycéen ou Linus Torvalds.

--
Joe Cool

Avatar
Irvin Probst
On 2005-03-09, Joe Cool wrote:

Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et
prétentieuse soutenue par aucun argument autre que "vous êtes tous des
dinosaures doublés de cons".


Moi les seuls arguments en faveur du C que j'ai vu sont :

- troll !
- faites donc un OS en trucmuch !


Je vais sans doute vous apprendre une chose, en général les gens quand
ils voient un quidam arriver pour leur expliquer qu'ils ne connaissent
rien à rien et sont des abrutis ils n'ont pas envie d'avoir un débat de
qualité avec lui. Quand icelui ne donne pas en plus la moindre preuve de
sa compétence ça n'arrange rien.

Je n'insulte personne. Vous vous sentez insultés parce que vous vous
identifiez à votre langage préféré, envers lequel vous n'êtes pas du
tout objectif.


Le C est mon langage préféré ? Ah ? Vous m'apprenez quelque chose à
votre tour. Merci.

--
Irvin


Avatar
Nicolas George
Joe Cool , dans le message <422f4d30$0$9517$, a
écrit :
Ceci n'a rien à voir avec les « undefined behaviour » du C.


Les comportements indéfinis, c'est une manière de dire qu'il est interdit,
_en C_, d'utiliser certaines constructions. Ça n'a rien de non-portable.
Ctitiquer le C sur les comportements indéfinis, c'est à peu près aussi
crétin que de critiquer Caml parce qu'il ne définit pas ce qui se passe
quand écrit « let x = ) ».

Avatar
Eric Jacoboni
JustMe writes:

Cela dit, je m'en fous, je ne suis pas matheux. Le seul moment où j'ai


ca se voit :-)


Ah ? Pourquoi ?

En plus, d'un point de vue
pratique, ça m'arrange assez de commencer à 2.


pauvres eleves...


C'est juste pour tenter une bonne répartie, ou tu peux argumenter ?
--
Éric Jacoboni, né il y a 1413837140 secondes


Avatar
Nicolas George
Joe Cool , dans le message <422f4a69$0$9517$, a
écrit :
Pinaillez donc sur des définitions, il en restera surement une trace
dans l'Histoire de l'Humanité.

Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond
est une chose, que vous vous rabattiez sur des détails est navrant.


Ce n'est pas seulement une question de définition, il y a des raisons
importantes derrières. Ces raisons, je les connais bien, et je peux
m'appuyer dessus pour affirmer. Ce n'est pas le cas de tout le monde ici.

Avatar
JustMe
Nicolas George a émis l'idée suivante :
JustMe , dans le message , a
Dit autrement : les cas indécidables sont des situations artificielles,
conçues précisément pour être indécidables (avec un argument diagonal par
exemple). Les situations réellement utiles utilisent des constructions bien
plus simples, des boucles (ou des récursions bornées).
Je t'engage à prouver cela. Tu frises la fields ;-)



Prouver quoi ? Je fais une affirmation heuristique concernant des notions
d'utilité, il n'y a rien de prouvable. Tu es sûr que tu as bien compris ce
que j'ai dit ?


Les heuristiques sont une manière savantes de nommer des recettes de
cuisines plus ou moins fiable. On est bien loin de la sacro sainte et
universelle "preuve mathématique" agitée par l'autre zozo et c'est
d'ailleurs là que je voulais en venir. Merci



Avatar
Nicolas George
JustMe , dans le message , a
écrit :
Non ca n'est pas pareil. Dans le second cas on quitte une appli dans un
état aléatoire, dans le second on peut passer par une phase de
nettoyage/rollback pour revenir à un etat connu (sur des fichiers de
données par ex).


On peut parfaitement rattraper tout à fait fiablement une segmentation
fault.

Avatar
Nicolas George
Joe Cool , dans le message <422f4b50$0$9517$, a
écrit :
Qu'un programme se termine par un « Fatal error: exception
^^^^^^^^^^


Invalid_argument("Array.set") » ou un « segmentation fault », c'est pareil,
au final : le programme n'a pas donné le bon résultat, point final.


Un programme qui plante est mort, alors qu'un programme qui lève une
exception est toujours fonctionnel.


Apprends à lire. Un programme qui se prend une exception qu'il ne rattrape
pas est tout aussi mort qu'un programme qui se prend un SIGSEGV qu'il ne
rattrape pas.


Avatar
Irvin Probst
On 2005-03-09, Joe Cool wrote:

Oui, car il n'est divisible que par 1 et par lui même.


Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.


Pinaillez donc sur des définitions, il en restera surement une trace
dans l'Histoire de l'Humanité.

Comme si c'était important ! Que vous ne maitrisiez pas le débat de fond
est une chose, que vous vous rabattiez sur des détails est navrant.


*HAHAHAHA*
Alors celle-là faudrait l'encadrer en page de garde de tout bouquin de
mathématiques, ça ferait rire des générations d'étudiants.

--
Irvin