On voit souvent des "quel linux choisir ?", des "pourquoi linux ?" etc.
Mais finalement à devoir choisir entre la peste (du côté de chez MS) et
la grippe (notre bon vieux nunux), celà ne vous arrive pas le matin en
vous réveillant de vous dire que les programmes qui font fonctionner
votre machines ne sont que des bidouillages plus ou moins réussis ?
Regardez les codes sources d'un programme en C. Même le code d'un bon
programmeur n'est rempli que d'horreurs. Ce fameux "void" : c'est quoi
cette abomination de la programmation ? Il n'y a aucune sémantique
valable là derrière. D'ailleurs les types en C n'ont de type que le nom.
Comment se fait il qu'on puisse écrire dans la 11e case d'un tableau de
10 éléments. Ce langage surestime beaucoup les capacités des personnes
qui vont l'utiliser. Une telle chose ne doit pas être possible. Comment
imaginer que ce genre de choses peut être voulu par le programmeur ?
Je pense que vous avez déjà vu du JAVA. Mais c'est à gerber cet
emboîtement de new, cette masse colossale de classes à faire pour faire
trois fois rien ! J'ose même pas imaginer la quantité de calculs
inutiles faits par la machine pour gérer ces merdes. D'accord il y a de
l'optimisation, mais c'est loin d'être suffisant.
Dans le temps les programmes étaient bidouillés parce qu'il n'y avait
pas assez de mémoire : par exemple on utilisait une variable pour
stocker deux informations. Maintenant l'horreur est à l'autre extrême :
on a tellement de mémoire de disponible que l'on utilise trop. En C :
tant pis c'est perdu. Un trou de mémoire ? Tant que le pc doit pas
redémarrer toutes les heures à cause de ça on s'en fout. En JAVA : il y
a le ramasse miettes alors on peut bouffer de la mémoire : c'est pô grave.
Dès que les programmes ont commencé à ne plus rentrer sur une disquette
ils sont devenus beaucoup trop compliqués pour fonctionner correctement.
On en vient à une époque où on trouve acceptable un programme quand il a
moins de cent bugs alors que rien que le fait de consommer trop de
ressources fait que le programme n'est pas bon. Aujourd'hui on nous
parle de .NET et de merdouilles dans le genre. A quoi ça sert de se
lancer dans la création de langages qui se copient les uns les autres.
C, C++, JAVA, Pascal : c'est la même chose, la même façon de penser. Et
c'est une manière de penser qui pousse à faire des fautes.
Bref l'informatique ne va pas fort.
Joe Cool , dans le message <422f4348$0$30324$, a écrit :
Vous voulez à tout prix prouver que Linux est portable
Non, il faudrait apprendre à lire. Je veux prouver que la notion « s'exécute absolument pareil sur toutes les architectures » n'est pas une notion pertinente.
Joe Cool , dans le message <422f4348$0$30324$626a14ce@news.free.fr>, a
écrit :
Vous voulez à tout prix prouver que Linux est portable
Non, il faudrait apprendre à lire. Je veux prouver que la notion « s'exécute
absolument pareil sur toutes les architectures » n'est pas une notion
pertinente.
Joe Cool , dans le message <422f4348$0$30324$, a écrit :
Vous voulez à tout prix prouver que Linux est portable
Non, il faudrait apprendre à lire. Je veux prouver que la notion « s'exécute absolument pareil sur toutes les architectures » n'est pas une notion pertinente.
Joe Cool
Joe Cool , dans le message <422f4348$0$30324$, a
Vous voulez à tout prix prouver que Linux est portable
Non, il faudrait apprendre à lire. Je veux prouver que la notion « s'exécute absolument pareil sur toutes les architectures » n'est pas une notion pertinente.
C'est la seule notion pertinente, quand on se limite à ce qui est calculé. Un programme représentant un calcul, il est naturel d'exiger que ce programme calcule la même chose quelque soit l'implémentation, modulo les limitations de la machine.
-- Joe Cool
Joe Cool , dans le message <422f4348$0$30324$626a14ce@news.free.fr>, a
Vous voulez à tout prix prouver que Linux est portable
Non, il faudrait apprendre à lire. Je veux prouver que la notion « s'exécute
absolument pareil sur toutes les architectures » n'est pas une notion
pertinente.
C'est la seule notion pertinente, quand on se limite à ce qui est
calculé. Un programme représentant un calcul, il est naturel d'exiger
que ce programme calcule la même chose quelque soit l'implémentation,
modulo les limitations de la machine.
Vous voulez à tout prix prouver que Linux est portable
Non, il faudrait apprendre à lire. Je veux prouver que la notion « s'exécute absolument pareil sur toutes les architectures » n'est pas une notion pertinente.
C'est la seule notion pertinente, quand on se limite à ce qui est calculé. Un programme représentant un calcul, il est naturel d'exiger que ce programme calcule la même chose quelque soit l'implémentation, modulo les limitations de la machine.
-- Joe Cool
JustMe
Nicolas George a formulé la demande :
JustMe , dans le message , a
Cette affirmation est loin d'etre evidente, tres tres loin...
Pour moi, au contraire, c'est complètement évident : quand j'écris un programme, je sais ce qu'il fait.
Non, tu crois savoir ce que tu aimerais qu'il fasse
Et par « savoir ce qu'il fait », je veux justement dire que j'entrevois une preuve de ce qu'il fait.
ah ?
Dit autrement : les cas indécidables sont des situations artificielles, conçues précisément pour être indécidables (avec un argument diagonal par exemple). Les situations réellement utiles utilisent des constructions bien plus simples, des boucles (ou des récursions bornées).
Je t'engage à prouver cela. Tu frises la fields ;-)
Nicolas George a formulé la demande :
JustMe , dans le message <mn.4c937d5329430a23.15643@merci.beaucoup>, a
Cette affirmation est loin d'etre evidente, tres tres loin...
Pour moi, au contraire, c'est complètement évident : quand j'écris un
programme, je sais ce qu'il fait.
Non, tu crois savoir ce que tu aimerais qu'il fasse
Et par « savoir ce qu'il fait », je veux
justement dire que j'entrevois une preuve de ce qu'il fait.
ah ?
Dit autrement : les cas indécidables sont des situations artificielles,
conçues précisément pour être indécidables (avec un argument diagonal par
exemple). Les situations réellement utiles utilisent des constructions bien
plus simples, des boucles (ou des récursions bornées).
Je t'engage à prouver cela. Tu frises la fields ;-)
Cette affirmation est loin d'etre evidente, tres tres loin...
Pour moi, au contraire, c'est complètement évident : quand j'écris un programme, je sais ce qu'il fait.
Non, tu crois savoir ce que tu aimerais qu'il fasse
Et par « savoir ce qu'il fait », je veux justement dire que j'entrevois une preuve de ce qu'il fait.
ah ?
Dit autrement : les cas indécidables sont des situations artificielles, conçues précisément pour être indécidables (avec un argument diagonal par exemple). Les situations réellement utiles utilisent des constructions bien plus simples, des boucles (ou des récursions bornées).
Je t'engage à prouver cela. Tu frises la fields ;-)
Joe Cool
On 2005-03-09, Tom wrote:
Lâchez les trolls!
Quand on n'a rien d'autre à dire y'a que ça à faire.
Ou alors on peut envoyer je ne sais combien de posts pour insulter à tout va ses contradicteurs, mépriser leur travail et se poser en grand manitou de l'Informatique du XXIe siècle.
Comme Dijkstra ? Dijkstra est un troll ?
-- Joe Cool
On 2005-03-09, Tom <tom@tom.com> wrote:
Lâchez les trolls!
Quand on n'a rien d'autre à dire y'a que ça à faire.
Ou alors on peut envoyer je ne sais combien de posts pour insulter à
tout va ses contradicteurs, mépriser leur travail et se poser en grand
manitou de l'Informatique du XXIe siècle.
Quand on n'a rien d'autre à dire y'a que ça à faire.
Ou alors on peut envoyer je ne sais combien de posts pour insulter à tout va ses contradicteurs, mépriser leur travail et se poser en grand manitou de l'Informatique du XXIe siècle.
Comme Dijkstra ? Dijkstra est un troll ?
-- Joe Cool
Irvin Probst
On 2005-03-09, Michel Talon wrote:
Linus Torvalds est un des grands informaticiens ayant existé, oui, il l'a prouvé en créant un OS. Einstein est un immense génie, autrement dit il ne joue pas dans la même cour.
Et même lui s'est monumentalement planté à certaines occasions. Comme quoi citer <mettre ici un nom> comme preuve ultime de la vérité est d'une bétise sans nom.
-- Irvin
On 2005-03-09, Michel Talon <talon@lpthe.jussieu.fr> wrote:
Linus Torvalds est un des grands informaticiens ayant existé, oui, il l'a
prouvé en créant un OS. Einstein est un immense génie, autrement dit il ne
joue pas dans la même cour.
Et même lui s'est monumentalement planté à certaines occasions. Comme
quoi citer <mettre ici un nom> comme preuve ultime de la vérité est
d'une bétise sans nom.
Linus Torvalds est un des grands informaticiens ayant existé, oui, il l'a prouvé en créant un OS. Einstein est un immense génie, autrement dit il ne joue pas dans la même cour.
Et même lui s'est monumentalement planté à certaines occasions. Comme quoi citer <mettre ici un nom> comme preuve ultime de la vérité est d'une bétise sans nom.
-- Irvin
Nicolas George
Joe Cool , dans le message <422f3e28$0$23421$, a écrit :
Oui, car il n'est divisible que par 1 et par lui même.
Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.
Joe Cool , dans le message <422f3e28$0$23421$626a14ce@news.free.fr>, a
écrit :
Oui, car il n'est divisible que par 1 et par lui même.
Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.
Joe Cool , dans le message <422f3e28$0$23421$, a écrit :
Oui, car il n'est divisible que par 1 et par lui même.
Donc en plus d'être mauvais en C, tu es mauvais en maths. On progresse.
JustMe
Michel Talon a exprimé avec précision :
Tom wrote:
Oui, et? Tu compares Dijkstra à Einstein?
Dijkstra est l'un des plus grands informaticiens ayant existé. Et je ne vois pas pourquoi on devrait comparer Dijkstra à Einstein. Ils ne travaillaient pas dans le même domaine.
Linus Torvalds est un des grands informaticiens ayant existé, oui, il l'a prouvé en créant un OS. Einstein est un immense génie, autrement dit il ne joue pas dans la même cour.
Il n'a pas crée un OS. Il a lancé une impulsion et a réussi a fédérer des centaines de développeurs autour de son idée. C'est encore plus beau.
Michel Talon a exprimé avec précision :
Tom <tom@tom.com> wrote:
Oui, et? Tu compares Dijkstra à Einstein?
Dijkstra est l'un des plus grands informaticiens ayant existé. Et je ne
vois pas pourquoi on devrait comparer Dijkstra à Einstein. Ils ne
travaillaient pas dans le même domaine.
Linus Torvalds est un des grands informaticiens ayant existé, oui, il l'a
prouvé en créant un OS. Einstein est un immense génie, autrement dit il ne
joue pas dans la même cour.
Il n'a pas crée un OS. Il a lancé une impulsion et a réussi a fédérer
des centaines de développeurs autour de son idée. C'est encore plus
beau.
Dijkstra est l'un des plus grands informaticiens ayant existé. Et je ne vois pas pourquoi on devrait comparer Dijkstra à Einstein. Ils ne travaillaient pas dans le même domaine.
Linus Torvalds est un des grands informaticiens ayant existé, oui, il l'a prouvé en créant un OS. Einstein est un immense génie, autrement dit il ne joue pas dans la même cour.
Il n'a pas crée un OS. Il a lancé une impulsion et a réussi a fédérer des centaines de développeurs autour de son idée. C'est encore plus beau.
Nicolas George
Eric Jacoboni , dans le message , a écrit :
Les avis là-dessus sont partagés...
Je suppose que tu parles de 1 et pas de 2. Non, les avis ne sont pas partagés : un certain nombre de propriétés très importantes en arithmétiques seraient fausses si on commençait par admettre que 1 est premier. En particulier l'unicité de la décomposition en facteurs premiers.
Eric Jacoboni , dans le message <m2wtsgy939.fsf@mac.scrogneugneu.org>, a
écrit :
Les avis là-dessus sont partagés...
Je suppose que tu parles de 1 et pas de 2. Non, les avis ne sont pas
partagés : un certain nombre de propriétés très importantes en arithmétiques
seraient fausses si on commençait par admettre que 1 est premier. En
particulier l'unicité de la décomposition en facteurs premiers.
Je suppose que tu parles de 1 et pas de 2. Non, les avis ne sont pas partagés : un certain nombre de propriétés très importantes en arithmétiques seraient fausses si on commençait par admettre que 1 est premier. En particulier l'unicité de la décomposition en facteurs premiers.
Irvin Probst
On 2005-03-09, JKB wrote:
Dites... Est-ce que vous avez déjà vu dans la _vraie_ vie un programmeur qui s'arrête aux warnings donnés par un compilo ? La plupart du temps, il faut déjà mettre une option spécifique pour obtenir ces warnings...
Quand j'envoie mon code dériver à 30m sous l'eau dans le Golfe de Finlande figure toi que oui. Et les matières auxquelles je participait cette année exigeaient comme résultat un code compilant sans warnings pour qu'on accepte le rendu des élèves. Bref, change de collègues ou change de prof.
-- Irvin
On 2005-03-09, JKB <knatschke@koenigsberg.fr> wrote:
Dites... Est-ce que vous avez déjà vu dans la _vraie_ vie un
programmeur qui s'arrête aux warnings donnés par un compilo ? La
plupart du temps, il faut déjà mettre une option spécifique pour
obtenir ces warnings...
Quand j'envoie mon code dériver à 30m sous l'eau dans le Golfe de
Finlande figure toi que oui.
Et les matières auxquelles je participait cette année exigeaient comme
résultat un code compilant sans warnings pour qu'on accepte le rendu des
élèves.
Bref, change de collègues ou change de prof.
Dites... Est-ce que vous avez déjà vu dans la _vraie_ vie un programmeur qui s'arrête aux warnings donnés par un compilo ? La plupart du temps, il faut déjà mettre une option spécifique pour obtenir ces warnings...
Quand j'envoie mon code dériver à 30m sous l'eau dans le Golfe de Finlande figure toi que oui. Et les matières auxquelles je participait cette année exigeaient comme résultat un code compilant sans warnings pour qu'on accepte le rendu des élèves. Bref, change de collègues ou change de prof.
-- Irvin
Joe Cool
On 2005-03-09, Tom wrote:
Oh bah, j'ai les idées plutôt claires sur ce qu'ils racontent (je suis payé pour ça après tout), c'est juste que je trouve le "débat" absolument pathétique.
C'est marrant : ici tout le monde est payé pour savoir plein de choses. Y'en a qui sont payés pour comprendre des choses ?
Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et prétentieuse soutenue par aucun argument autre que "vous êtes tous des dinosaures doublés de cons".
Moi les seuls arguments en faveur du C que j'ai vu sont :
- troll ! - faites donc un OS en trucmuch !
Mais au fond je ne m'en fais pas pour vous, vous avez découvert caml lundi, hier vous postiez ici au sujet du C, aujourd'hui vous avez passé votre temps à insulter un nombre incalculable de gens, demain en retournant à votre travail vous retomberez sans doute sur Terre.
Je n'insulte personne. Vous vous sentez insultés parce que vous vous identifiez à votre langage préféré, envers lequel vous n'êtes pas du tout objectif.
Je constate que personne ici n'a l'air de maitriser les bases de la complexité et de la calculabilité. Les arguments proposés sont tous ignorés car ils ne sont pas perçus comme des arguments : il faut au moins connaitre les bases théoriques de l'informatique pour savoir de quoi il retourne.
En résumé : on ne touche pas au C, le C c'est sacré !
Finalement Dijkstra avait raison. Il nous manque.
-- Joe Cool
On 2005-03-09, Tom <tom@tom.com> wrote:
Oh bah, j'ai les idées plutôt claires sur ce qu'ils racontent (je suis
payé pour ça après tout), c'est juste que je trouve le "débat" absolument
pathétique.
C'est marrant : ici tout le monde est payé pour savoir plein de choses.
Y'en a qui sont payés pour comprendre des choses ?
Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et
prétentieuse soutenue par aucun argument autre que "vous êtes tous des
dinosaures doublés de cons".
Moi les seuls arguments en faveur du C que j'ai vu sont :
- troll !
- faites donc un OS en trucmuch !
Mais au fond je ne m'en fais pas pour vous, vous avez découvert caml
lundi, hier vous postiez ici au sujet du C, aujourd'hui vous avez
passé votre temps à insulter un nombre incalculable de gens, demain
en retournant à votre travail vous retomberez sans doute sur Terre.
Je n'insulte personne. Vous vous sentez insultés parce que vous vous
identifiez à votre langage préféré, envers lequel vous n'êtes pas du
tout objectif.
Je constate que personne ici n'a l'air de maitriser les bases de la
complexité et de la calculabilité. Les arguments proposés sont tous
ignorés car ils ne sont pas perçus comme des arguments : il faut au
moins connaitre les bases théoriques de l'informatique pour savoir de
quoi il retourne.
En résumé : on ne touche pas au C, le C c'est sacré !
Oh bah, j'ai les idées plutôt claires sur ce qu'ils racontent (je suis payé pour ça après tout), c'est juste que je trouve le "débat" absolument pathétique.
C'est marrant : ici tout le monde est payé pour savoir plein de choses. Y'en a qui sont payés pour comprendre des choses ?
Y'en a qui sont payés pour avoir autre chose qu'une vision dogmatique et prétentieuse soutenue par aucun argument autre que "vous êtes tous des dinosaures doublés de cons".
Moi les seuls arguments en faveur du C que j'ai vu sont :
- troll ! - faites donc un OS en trucmuch !
Mais au fond je ne m'en fais pas pour vous, vous avez découvert caml lundi, hier vous postiez ici au sujet du C, aujourd'hui vous avez passé votre temps à insulter un nombre incalculable de gens, demain en retournant à votre travail vous retomberez sans doute sur Terre.
Je n'insulte personne. Vous vous sentez insultés parce que vous vous identifiez à votre langage préféré, envers lequel vous n'êtes pas du tout objectif.
Je constate que personne ici n'a l'air de maitriser les bases de la complexité et de la calculabilité. Les arguments proposés sont tous ignorés car ils ne sont pas perçus comme des arguments : il faut au moins connaitre les bases théoriques de l'informatique pour savoir de quoi il retourne.
En résumé : on ne touche pas au C, le C c'est sacré !