Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Linux Crashing Unity

395 réponses
Avatar
P4nd1-P4nd4
Comme vous le savez, Ubuntu en a marre de KDE et Gnome, et partent sur
un
nouvel-environnement-de-la-mort-qui-tu-révolutionnaire-de-l'-année-Linux,

soit

UNITY

Mais voilà, lors de tests de 11 utilisateurs, 5 l'ont FAIT CRASHER !!!

Linux, c'est un pas en avant, deux pas en arrière

Et quand on marche en arrière sans regarder, on risque bien de se faire
...


Longue Vie à Linux, qu'ils continuent encore longtemps de faire rire
les utilisateurs (sensés) de Windows ou d'Apple ;>))

10 réponses

Avatar
pehache-olino
"JKB" a écrit dans le message de news:


Tout ce que je sais c'est que ma boîte, qui est largement moins
connue et avec moins de moyens que Dassault, développe ses applis
sous unix aujourd'hui comme hier. Et donc que chez Dassault ils
pourraient le faire sans problème si ils voulaient. Si ils ne le
font pas ce n'est pas par défaut de développeurs sous unix. Les
développeurs si on en veut on en trouve et on les garde.



Je ne connais pas une petite boîte capable de sortir aujourd'hui
un soft du niveau de Libra ou Catia d'il y a quinze ans. Il faut que
ce soit une très grosse boîte pour investir dans ce genre de
logiciel et aujourd'hui, les contraintes de développement font que
c'est sous Windows.



C'est tout simplement faux. Dans mon domaine d'activité les logiciels
spécialisés ne sont pas aussi connus que Catia, mais ils sont aussi gros, et
ils sont tous sous Unix.


Et pour répondre à ta question : les développeurs Unix, les vrais,
ça ne court plus les rues. Je ne parle pas de bidouilleurs sous Qt,
Boost et compagnies, mais de vrais développeurs qui savent optimiser
des bouts de codes et se satisfont des specs SysV ou Posix.



Pour un projet genre Catia, la proportion de développeurs dans le projet qui
intervient sur le bas niveau et a besoin de connaître les specs SysV ou
Posix est très faible. Le reste c'est du développement indépendant ou
quasi-indépendant de la plate-forme

--
pehache
http://pehache.free.fr
http://papepipaupu.wordpress.com
Avatar
JKB
Le Sat, 7 May 2011 19:40:56 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


Tout ce que je sais c'est que ma boîte, qui est largement moins
connue et avec moins de moyens que Dassault, développe ses applis
sous unix aujourd'hui comme hier. Et donc que chez Dassault ils
pourraient le faire sans problème si ils voulaient. Si ils ne le
font pas ce n'est pas par défaut de développeurs sous unix. Les
développeurs si on en veut on en trouve et on les garde.



Je ne connais pas une petite boîte capable de sortir aujourd'hui
un soft du niveau de Libra ou Catia d'il y a quinze ans. Il faut que
ce soit une très grosse boîte pour investir dans ce genre de
logiciel et aujourd'hui, les contraintes de développement font que
c'est sous Windows.



C'est tout simplement faux. Dans mon domaine d'activité les logiciels
spécialisés ne sont pas aussi connus que Catia, mais ils sont aussi gros, et
ils sont tous sous Unix.



Chouette une liste !

Et pour répondre à ta question : les développeurs Unix, les vrais,
ça ne court plus les rues. Je ne parle pas de bidouilleurs sous Qt,
Boost et compagnies, mais de vrais développeurs qui savent optimiser
des bouts de codes et se satisfont des specs SysV ou Posix.



Pour un projet genre Catia, la proportion de développeurs dans le projet qui
intervient sur le bas niveau et a besoin de connaître les specs SysV ou
Posix est très faible. Le reste c'est du développement indépendant ou
quasi-indépendant de la plate-forme



Non. Un outil comme Libra ne peut se permettre d'être codé comme ça
(ou alors, il faut des clusters monumentaux pour simuler des
circuits ridicules).

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
pehache-olino
"JKB" a écrit dans le message de news:

Le Sat, 7 May 2011 17:35:19 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


La mauvaise foi habituelle...



L'as-tu déjà utilisé et _administré_ ? Ce truc est inutilisable
parce que la ligne de commande est moisie (je parle du powershell)
et que l'immense majorité des utilitaires a été pensée pour un GUI
et non pour une ligne de commande.



Ca tombe bien, il y a une GUI avec Windows core.



Et tu vas nous expliquer l'intérêt d'avoir une GUI après nous avoir
expliqué l'intérêt de ne pas en avoir. La GUI de Windows core est ue
GUI minimale qui est infoutue de faire fonctionner normalement une
applications _standard_. C'est une GUI capable de coller plusieurs
interprètes de commandes les uns à côté des autres. Après, il faut
utiliser la ligne de commande. Cette sombre merde n'a été faite que
pour répondre à la ligne de commande Unix et est _inutilisable_ a
tel point que je ne l'ai vu qu'une seule fois sur une machine de
test.



Mort de rire. Tu ne l'as vu qu'une fois sur une machine de test, mais tu
*sais* que c'est inutilisable.

Charlot.

--
pehache
http://pehache.free.fr
http://papepipaupu.wordpress.com
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


C'est tout simplement faux. Dans mon domaine d'activité les logiciels
spécialisés ne sont pas aussi connus que Catia, mais ils sont aussi
gros, et ils sont tous sous Unix.



Chouette une liste !



Aucune chance que tu connaisses.


Pour un projet genre Catia, la proportion de développeurs dans le
projet qui intervient sur le bas niveau et a besoin de connaître les
specs SysV ou Posix est très faible. Le reste c'est du développement
indépendant ou quasi-indépendant de la plate-forme



Non. Un outil comme Libra ne peut se permettre d'être codé comme ça
(ou alors, il faut des clusters monumentaux pour simuler des
circuits ridicules).



N'importe quoi.

La plaie dans le développement d'applications techniques/scientifiques, ce
sont les excités de ton genre qui veulent coller de la prog au niveau
système partout pour économiser 4 octets ou gagner 2% de vitesse, et qui te
font des codes illisibles par d'autres qu'eux et inmaintenables. La valeur
ajoutée de ce genre de logiciel, c'est le contenu algorithmique, c'est là
qu'il faut le plus de développeurs, mais ce ne sont pas du purs
informaticiens qu'il faut.

--
pehache
http://pehache.free.fr
http://papepipaupu.wordpress.com
Avatar
JKB
Le Sun, 8 May 2011 18:12:43 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:

Le Sat, 7 May 2011 17:35:19 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


La mauvaise foi habituelle...



L'as-tu déjà utilisé et _administré_ ? Ce truc est inutilisable
parce que la ligne de commande est moisie (je parle du powershell)
et que l'immense majorité des utilitaires a été pensée pour un GUI
et non pour une ligne de commande.



Ca tombe bien, il y a une GUI avec Windows core.



Et tu vas nous expliquer l'intérêt d'avoir une GUI après nous avoir
expliqué l'intérêt de ne pas en avoir. La GUI de Windows core est ue
GUI minimale qui est infoutue de faire fonctionner normalement une
applications _standard_. C'est une GUI capable de coller plusieurs
interprètes de commandes les uns à côté des autres. Après, il faut
utiliser la ligne de commande. Cette sombre merde n'a été faite que
pour répondre à la ligne de commande Unix et est _inutilisable_ a
tel point que je ne l'ai vu qu'une seule fois sur une machine de
test.



Mort de rire. Tu ne l'as vu qu'une fois sur une machine de test, mais tu
*sais* que c'est inutilisable.

Charlot.



Le Charlot, il l'a effectivement vu une seule fois, sur une machine
de test. Le "une" fois était sur un projet qui a duré six mois et au
final, c'est un W2008R2 qui a été installé (et qui entre nous ne
donnait pas satisfaction non plus, mais pour d'autres raisons).

Six mois, ça permet de se faire une idée de la merde en question.

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
JKB
Le Sun, 8 May 2011 18:22:23 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


C'est tout simplement faux. Dans mon domaine d'activité les logiciels
spécialisés ne sont pas aussi connus que Catia, mais ils sont aussi
gros, et ils sont tous sous Unix.



Chouette une liste !



Aucune chance que tu connaisses.



Dis toujours.

Pour un projet genre Catia, la proportion de développeurs dans le
projet qui intervient sur le bas niveau et a besoin de connaître les
specs SysV ou Posix est très faible. Le reste c'est du développement
indépendant ou quasi-indépendant de la plate-forme



Non. Un outil comme Libra ne peut se permettre d'être codé comme ça
(ou alors, il faut des clusters monumentaux pour simuler des
circuits ridicules).



N'importe quoi.



Écoute, mon grand. En 1995, on simulait des amplificateurs
hyperfréquence sur des SS20 qui tournaient avec deux processeurs à
75 MHz, 64 Mo, en un temps qui ferait rougir les machines actuelles. La
différence est toute conne. La programmation était un tout petit peu
optimisée et aujourd'hui, ce qui n'est plus le cas aujourd'hui. En
1995, on utilisait des routeurs de type Orcad qui tournait sous
MS-DOS, sur des PC qui avaient au mieux 2 Mo de mémoire. Essaie de
prendre une carte de l'époque et de le router avec une version
moderne du même Orcad. On se contrefiche actuellement des ressources
consommées en partant du principe que l'utilisateur n'a qu'à acheter
une barrette mémoire supplémentaire voire un autre processeur ou une
autre machine. C'est idiot dans l'immense majorité des cas.

Et je t'arrête tout de suite, je n'ai pas dit que c'était mieux il y
a quinze ans ou mieux aujourd'hui. Mon discours est simplement
qu'aujourd'hui, on se contrefiche éperdument de la consommation des
ressources.

La plaie dans le développement d'applications techniques/scientifiques, ce
sont les excités de ton genre qui veulent coller de la prog au niveau
système partout pour économiser 4 octets ou gagner 2% de vitesse,



1/ Je ne suis pas excité contrairement à toi qui se permets un peu
plus haut de m'insulter. Ne t'étonnes surtout pas que je te réponde
sur le même ton.
2/ Je ne suis pas un informaticien de formation, mais un matheux qui
a toujours fait de l'analyse numérique et du calcul parallèle.
3/ Ça fait plus de quinze ans que j'écris des specs de langages et
que j'implante les interprètes et compilateurs de ces langages.
4/ Ce n'est pas parce que tu utilises des choses comme les pthreads
que tu fais de la programmation système, d'autant plus que tu peux
cacher ces primitives une fois pour toute dans des fonctions de
bibliothèques. Ce n'est parce que tu codes comme un goret que tout
le monde code comme toi. D'ailleurs, si tu considères les pthreads
comme de la programmation système, cela en dit long sur tes
compétences.

et qui te
font des codes illisibles par d'autres qu'eux et inmaintenables. La valeur
ajoutée de ce genre de logiciel, c'est le contenu algorithmique, c'est là
qu'il faut le plus de développeurs, mais ce ne sont pas du purs
informaticiens qu'il faut.



Je n'ai jamais prétendu le contraire.

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


Mort de rire. Tu ne l'as vu qu'une fois sur une machine de test,
mais tu *sais* que c'est inutilisable.

Charlot.



Le Charlot, il l'a effectivement vu une seule fois, sur une machine
de test. Le "une" fois était sur un projet qui a duré six mois et au
final, c'est un W2008R2 qui a été installé (et qui entre nous ne
donnait pas satisfaction non plus, mais pour d'autres raisons).

Six mois, ça permet de se faire une idée de la merde en question.



T'es admin Windows ?

--
pehache
http://pehache.free.fr
http://papepipaupu.wordpress.com
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


Pour un projet genre Catia, la proportion de développeurs dans le
projet qui intervient sur le bas niveau et a besoin de connaître
les specs SysV ou Posix est très faible. Le reste c'est du
développement indépendant ou quasi-indépendant de la plate-forme



Non. Un outil comme Libra ne peut se permettre d'être codé comme ça
(ou alors, il faut des clusters monumentaux pour simuler des
circuits ridicules).



N'importe quoi.



Écoute, mon grand. En 1995, on simulait des amplificateurs
hyperfréquence sur des SS20 qui tournaient avec deux processeurs à
75 MHz, 64 Mo, en un temps qui ferait rougir les machines actuelles.



Ah, le même algo ne pourrait pas tourner sur les machines actuelles ?

La différence est toute conne. La programmation était un tout petit
peu optimisée et aujourd'hui, ce qui n'est plus le cas aujourd'hui. En
1995, on utilisait des routeurs de type Orcad qui tournait sous
MS-DOS, sur des PC qui avaient au mieux 2 Mo de mémoire. Essaie de
prendre une carte de l'époque et de le router avec une version
moderne du même Orcad. On se contrefiche actuellement des ressources
consommées en partant du principe que l'utilisateur n'a qu'à acheter
une barrette mémoire supplémentaire voire un autre processeur ou une
autre machine. C'est idiot dans l'immense majorité des cas.



Et juste pour rire, combien coûtait une SS20 bipro en 1995 ? Après tout, en
optimisant encore plus ton code il aurait pu tourner aussi vite (et même
plus vite, hein...) sur un PC bien moins cher et avc 640Ko de RAM.


Et je t'arrête tout de suite, je n'ai pas dit que c'était mieux il y
a quinze ans ou mieux aujourd'hui. Mon discours est simplement
qu'aujourd'hui, on se contrefiche éperdument de la consommation des
ressources.



Non, on ne s'en fiche pas. Simplement, comme la RAM ou le disque coûtent
1000 fois moins cher qu'il y a 15 ans, les contraintes ne sont plus du tout
aux mêmes endroits.


La plaie dans le développement d'applications
techniques/scientifiques, ce sont les excités de ton genre qui
veulent coller de la prog au niveau système partout pour économiser
4 octets ou gagner 2% de vitesse,



1/ Je ne suis pas excité contrairement à toi qui se permets un peu
plus haut de m'insulter. Ne t'étonnes surtout pas que je te réponde
sur le même ton.
2/ Je ne suis pas un informaticien de formation, mais un matheux qui
a toujours fait de l'analyse numérique et du calcul parallèle.



Pas informaticien de formation, mais informaticien contrarié c'est évident.
C'est les pires.

Et excuse-moi, mais tu n'es pas ce que j'appelle un matheux (sauf si
connaître l'existence des matrices de corrélation fait le matheux...).
Nicolas George en est un (pour ce que j'en vois), mais pas toi (ni moi).

3/ Ça fait plus de quinze ans que j'écris des specs de langages et
que j'implante les interprètes et compilateurs de ces langages.



Une de tes nombreuses activités, on sait...

4/ Ce n'est pas parce que tu utilises des choses comme les pthreads
que tu fais de la programmation système, d'autant plus que tu peux
cacher ces primitives une fois pour toute dans des fonctions de
bibliothèques. Ce n'est parce que tu codes comme un goret que tout
le monde code comme toi. D'ailleurs, si tu considères les pthreads
comme de la programmation système, cela en dit long sur tes
compétences.



En effet. Disons que tu utilises des appels système, plutôt. Qui sont tout
sauf nécessaire en calcul scientifique. Il y a suffisamment de bibliothèques
de haut niveau qui évitent d'y avoir recours. Entre MPI et OpenMP il y a
tout ce qu'il faut pour le parallélisme en calcul scientifique par exemple,
sans avoir besoin de se tripoter la nouilles avec des pthreads ou autres. A
la limite, aujourd'hui, c'est pour la programmation des GPU qu'il peut y
avoir besoin de connaissances "bas niveau", en l'absence d'outils standards
"haut niveau".

et qui te
font des codes illisibles par d'autres qu'eux et inmaintenables. La
valeur ajoutée de ce genre de logiciel, c'est le contenu
algorithmique, c'est là qu'il faut le plus de développeurs, mais ce
ne sont pas du purs informaticiens qu'il faut.



Je n'ai jamais prétendu le contraire.




Alleluia...

Mais en fait je dirais même qu'il ne faut pas non d'informaticiens
contrariés, qui ont toujours la tentation d'aller optimiser ceci ou cela en
bas niveau et de réinventer l'eau tiède au lieu de se concentrer sur le
contenu algorithmique.

--
pehache
http://pehache.free.fr
http://papepipaupu.wordpress.com
Avatar
JKB
Le Wed, 11 May 2011 22:27:01 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


Mort de rire. Tu ne l'as vu qu'une fois sur une machine de test,
mais tu *sais* que c'est inutilisable.

Charlot.



Le Charlot, il l'a effectivement vu une seule fois, sur une machine
de test. Le "une" fois était sur un projet qui a duré six mois et au
final, c'est un W2008R2 qui a été installé (et qui entre nous ne
donnait pas satisfaction non plus, mais pour d'autres raisons).

Six mois, ça permet de se faire une idée de la merde en question.



T'es admin Windows ?



Non, et je n'ai jamais prétendu cela. J'ai juste bossé sur un projet
avec un administrateur Windows _confirmé_, de ceux qui sont capables
d'attaquer un W2008R2 en ligne de commande et certifié Microsoft
machin-chose. Et lorsque je l'ai vu s'arracher les cheveux sur ce
truc et dire qu'il fallait installer une version complète pour faire
ce qu'on avait besoin de faire, j'ai plutôt tendance à le croire lui
que toi.

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
JKB
Le Wed, 11 May 2011 22:56:39 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


Pour un projet genre Catia, la proportion de développeurs dans le
projet qui intervient sur le bas niveau et a besoin de connaître
les specs SysV ou Posix est très faible. Le reste c'est du
développement indépendant ou quasi-indépendant de la plate-forme



Non. Un outil comme Libra ne peut se permettre d'être codé comme ça
(ou alors, il faut des clusters monumentaux pour simuler des
circuits ridicules).



N'importe quoi.



Écoute, mon grand. En 1995, on simulait des amplificateurs
hyperfréquence sur des SS20 qui tournaient avec deux processeurs à
75 MHz, 64 Mo, en un temps qui ferait rougir les machines actuelles.



Ah, le même algo ne pourrait pas tourner sur les machines actuelles ?



Si, mais il faudrait juste garder les softs qui tournaient avec
Solaris 2.4 ou 2.5 et essayer de les faire tourner sous 2.10 (à
moins qu'il ne s'agisse de 5.10). Les outils en question, rigolo, ne
sont plus supportés depuis belle lurette, ce qui pose des problèmes !

La différence est toute conne. La programmation était un tout petit
peu optimisée et aujourd'hui, ce qui n'est plus le cas aujourd'hui. En
1995, on utilisait des routeurs de type Orcad qui tournait sous
MS-DOS, sur des PC qui avaient au mieux 2 Mo de mémoire. Essaie de
prendre une carte de l'époque et de le router avec une version
moderne du même Orcad. On se contrefiche actuellement des ressources
consommées en partant du principe que l'utilisateur n'a qu'à acheter
une barrette mémoire supplémentaire voire un autre processeur ou une
autre machine. C'est idiot dans l'immense majorité des cas.



Et juste pour rire, combien coûtait une SS20 bipro en 1995 ?



Au tarif éducation ou laboratoire ? 17 000 FF de l'époque, soit une
fois et demi le prox d'un PC tout juste correct de la même époque.
Si je retrouve une facture, je te la scanne rien que pour toi.

Après tout, en
optimisant encore plus ton code il aurait pu tourner aussi vite (et même
plus vite, hein...) sur un PC bien moins cher et avc 640Ko de RAM.


Et je t'arrête tout de suite, je n'ai pas dit que c'était mieux il y
a quinze ans ou mieux aujourd'hui. Mon discours est simplement
qu'aujourd'hui, on se contrefiche éperdument de la consommation des
ressources.



Non, on ne s'en fiche pas. Simplement, comme la RAM ou le disque coûtent
1000 fois moins cher qu'il y a 15 ans, les contraintes ne sont plus du tout
aux mêmes endroits.



Non, on s'en _contrefiche_. On s'en contrefiche même tellement bien
qu'on écrit des bouts d'OS en Java. On utilise des langages objets
(à ramasse-miette pour couronner le tout) un peu partout. C'est
antinomique avec l'économie de ressources. Mais tu risques encore de
ne pas comprendre pourquoi.

La plaie dans le développement d'applications
techniques/scientifiques, ce sont les excités de ton genre qui
veulent coller de la prog au niveau système partout pour économiser
4 octets ou gagner 2% de vitesse,



1/ Je ne suis pas excité contrairement à toi qui se permets un peu
plus haut de m'insulter. Ne t'étonnes surtout pas que je te réponde
sur le même ton.
2/ Je ne suis pas un informaticien de formation, mais un matheux qui
a toujours fait de l'analyse numérique et du calcul parallèle.



Pas informaticien de formation, mais informaticien contrarié c'est évident.
C'est les pires.



Je ne suis pas contrarié. Contrariant peut-être, surtout avec les
khons, mais contrarié, certainement pas.

Et excuse-moi, mais tu n'es pas ce que j'appelle un matheux (sauf si
connaître l'existence des matrices de corrélation fait le matheux...).



Tu n'as jamais regardé de près ce que j'avais déjà pondu. De toute
façon, tu risquerais fort de ne rien comprendre. Il y a des papiers
de mon cru dans diverses revues et conférences, je te laisse
chercher. Ils ont une dizaine d'années, mais ne t'en fait pas, j'ai
continué mes travaux, mais pour des laboratoires de grands groupes
qui ne publient pas forcément (mais qui déposent des brevets).

Nicolas George en est un (pour ce que j'en vois), mais pas toi (ni moi).

3/ Ça fait plus de quinze ans que j'écris des specs de langages et
que j'implante les interprètes et compilateurs de ces langages.



Une de tes nombreuses activités, on sait...



Non, c'est mon activité principale ne t'en déplaise. J'écris des
specs de langages adaptés à certains problèmes de calcul
scientifique. Et ça a un immense avantage, une fois que le langage
est spécifié, le programme de résolution du problème initiale ne
change plus et l'optimisation se fait dans le langage et plus dans
l'algorithme lui-même. Rassure-toi, je ne réinvente pas la roue à
chaque fois.

4/ Ce n'est pas parce que tu utilises des choses comme les pthreads
que tu fais de la programmation système, d'autant plus que tu peux
cacher ces primitives une fois pour toute dans des fonctions de
bibliothèques. Ce n'est parce que tu codes comme un goret que tout
le monde code comme toi. D'ailleurs, si tu considères les pthreads
comme de la programmation système, cela en dit long sur tes
compétences.



En effet. Disons que tu utilises des appels système, plutôt. Qui sont tout
sauf nécessaire en calcul scientifique. Il y a suffisamment de bibliothèques
de haut niveau qui évitent d'y avoir recours. Entre MPI et OpenMP il y a
tout ce qu'il faut pour le parallélisme en calcul scientifique par exemple,



OpenMP est une merde dans le cas général, mais je ne vais pas passer
du temps à t'expliquer pourquoi. Au fait, ce n'est pas moi qui le
prétends, c'est expliqué sur les listes de diffusion du truc par les
concepteurs d'OpenMP. Dit autrement pour toi, OpenMP fait que c'est
intéressant dans le cas d'un calcul parallélisable au niveau
atomique qui tourne seul sur une machine à plusieurs voies. Je te
laisse conclure.

sans avoir besoin de se tripoter la nouilles avec des pthreads ou autres. A
la limite, aujourd'hui, c'est pour la programmation des GPU qu'il peut y
avoir besoin de connaissances "bas niveau", en l'absence d'outils standards
"haut niveau".

et qui te
font des codes illisibles par d'autres qu'eux et inmaintenables. La
valeur ajoutée de ce genre de logiciel, c'est le contenu
algorithmique, c'est là qu'il faut le plus de développeurs, mais ce
ne sont pas du purs informaticiens qu'il faut.



Je n'ai jamais prétendu le contraire.




Alleluia...

Mais en fait je dirais même qu'il ne faut pas non d'informaticiens
contrariés, qui ont toujours la tentation d'aller optimiser ceci ou cela en
bas niveau et de réinventer l'eau tiède au lieu de se concentrer sur le
contenu algorithmique.



Ahahahahahahahahaha ! Il y a des tas de problèmes NP-complets en
analyse numérique dont les algorithmes sont parfaitement connus. On
sait même pour certains donner une borne maximale au temps de
résolution. Le problème est qu'on ne peut pas les implanter parce qu'il
n'existe pas de langage permettant de le faire correctement, soit parce
que la parallélisation est foireuse (cas MPI ou OpenMP), soit parce que
les bibliothèques de haut niveau sont trivialement sous-optimales.
Aujourd'hui, le problème n'est pas tant l'algorithmie que la façon
d'implanter ces algorithmes de façon un tant soit peu intelligente.
Séparer l'un de l'autre est juste risible. Et séparer l'implantation
des limitations du matériel est aussi risible puisqu'il faut limiter
au maximum les goulets d'étranglements, ce que ne fera jamais un
truc comme OpenMP puisqu'il ne peut au mieux que contrôler ce qui se
passe dans son processus (pour ne pas dire son fil d'exécution).

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr