Le troll de course qu'il y a sur frp !!! Combien de posts ???
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
Le troll de course qu'il y a sur frp !!! Combien de posts ???
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
Le troll de course qu'il y a sur frp !!! Combien de posts ???
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
l'autre jour j'ai vomi du alain minc.
putain ça a pas bon goût.
et dire que j'ai été nourri à ça pendant mes études...
l'autre jour j'ai vomi du alain minc.
putain ça a pas bon goût.
et dire que j'ai été nourri à ça pendant mes études...
l'autre jour j'ai vomi du alain minc.
putain ça a pas bon goût.
et dire que j'ai été nourri à ça pendant mes études...
Le 08/10/2012 11:39, birdy a écrit :pépé flingueur
http://cjoint.com/?BJilJi3pTKZ
Ça commence comme Maoïste et ça finit à la National Rifle Association !
Le 08/10/2012 11:39, birdy a écrit :
pépé flingueur
http://cjoint.com/?BJilJi3pTKZ
Ça commence comme Maoïste et ça finit à la National Rifle Association !
Le 08/10/2012 11:39, birdy a écrit :pépé flingueur
http://cjoint.com/?BJilJi3pTKZ
Ça commence comme Maoïste et ça finit à la National Rifle Association !
histoire de relancer ce thread moribond :
http://cjoint.com/12oc/BJgtYViZtdi_2012-10-06_19.41.05r.jpg
c'est dans le Monde de ce soir (samedi 6 octobre) et ça résume parfaitement ce
que je pense d'Apple depuis quelques années.
pour ceux qui veulent lire l'article en ligne, je viens de le trouver là :
http://www.lemonde.fr/technologies/article/2012/10/05/apple-face-au-choc-des-realites_1770780_651865.html
histoire de relancer ce thread moribond :
http://cjoint.com/12oc/BJgtYViZtdi_2012-10-06_19.41.05r.jpg
c'est dans le Monde de ce soir (samedi 6 octobre) et ça résume parfaitement ce
que je pense d'Apple depuis quelques années.
pour ceux qui veulent lire l'article en ligne, je viens de le trouver là :
http://www.lemonde.fr/technologies/article/2012/10/05/apple-face-au-choc-des-realites_1770780_651865.html
histoire de relancer ce thread moribond :
http://cjoint.com/12oc/BJgtYViZtdi_2012-10-06_19.41.05r.jpg
c'est dans le Monde de ce soir (samedi 6 octobre) et ça résume parfaitement ce
que je pense d'Apple depuis quelques années.
pour ceux qui veulent lire l'article en ligne, je viens de le trouver là :
http://www.lemonde.fr/technologies/article/2012/10/05/apple-face-au-choc-des-realites_1770780_651865.html
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
markorki<moicestmarkorkichezorangefr> wrote:T'as pas de chance, moi j'ai connu de vrais génies dans ces années là,
T'as pas de chance... moi aussi :)
enfin, des gens qui utilisaient peut-être nettement plus de 10% des
capacités de leur encéphale, des qui codaient proprement,
Tu oublies que la notion de « coder proprement » est devenu bien plus
exigeante depuis.
devinaient
tout de suite où un autre allait ne pas voir un détail pourtant
important, et pouvaient tenir plusieurs conversations à la fois tout en
débuggant un driver, un dispatcher ou un compilateur...
Et ils cuisaient des pizza à la chaleur de leur front aussi... ahh... le
beau temps d'antan où le lait coulait à flot dans des rivières de
miel...
... et quand tu codais sur des gros minis à l'époque, les codes étaient
peut-être "moins utilisés", mais par des gens plus exigeants et/ou plus
soucieux de faire du bon boulot.
Non. Par des gens qui bossaient sur des codes plus petits qui faisaient
bien moins de choses, qui n'étaient pas portables, qui utilisaient des
astuces indémerdables par quelqu'un d'autre que leur auteur.
Des codes suffisament petit pour être maintenus par de toutes petites
équipes.
Pas question de répondre "ça marchera peut-être dans laprochaine
version, mais pour l'instant on étudie le pb".
Parce qu'à l'époque on avait des codes simples qui ne dépendaient pas
d'autres codes et qui n'avaient pas de dépendances.
J'ai l'impression à te lire que tu n'as aucune idée de ce que peut-être
un cycle de production de code.
À l'époque ils ne prenaient pas le temps de faire de tests de régression
par exemple. Là ça prend du temps.
A l'époque, les gens qui bossaient sur le système ne laissaient pas un
plantage inexploité :
Aujourd'hui ce ne serait pas UN plantage mais des centaines de miliers.
Donc imagine combien tu payerais ton logiciel si tu devais faire
analyser TOUS les dumps.
dump de toute la mémoire, et analyse avec les
moyens du bord... analyseur de "core dump" ou analyse "à la main" à
partir de l'état de la pile sysytème au moment du plantage, et en
descendant les tables système comme des grands. La motivation palliait
plus que largement la rusticité des outils, et un bug du noyau ne
trainait pas plus de quelques jours.
Un dump aujourd'hui ce n'est pas 16K comme à l'époque dont tu parles
mais 4Go ou plus.. je te laisse faire le calcul.
Ne t'en fais pas j'ai AUSSI fait du débuggage sur dump imprimé de la
mémoire, je connais le taf.
Ah.. à l'époque on codait les années sur deux chiffres... preuve que tes
prétendus génies ne pensaient pas à tout :
markorki<moicestmarkorkichezorangefr> wrote:
T'as pas de chance, moi j'ai connu de vrais génies dans ces années là,
T'as pas de chance... moi aussi :)
enfin, des gens qui utilisaient peut-être nettement plus de 10% des
capacités de leur encéphale, des qui codaient proprement,
Tu oublies que la notion de « coder proprement » est devenu bien plus
exigeante depuis.
devinaient
tout de suite où un autre allait ne pas voir un détail pourtant
important, et pouvaient tenir plusieurs conversations à la fois tout en
débuggant un driver, un dispatcher ou un compilateur...
Et ils cuisaient des pizza à la chaleur de leur front aussi... ahh... le
beau temps d'antan où le lait coulait à flot dans des rivières de
miel...
... et quand tu codais sur des gros minis à l'époque, les codes étaient
peut-être "moins utilisés", mais par des gens plus exigeants et/ou plus
soucieux de faire du bon boulot.
Non. Par des gens qui bossaient sur des codes plus petits qui faisaient
bien moins de choses, qui n'étaient pas portables, qui utilisaient des
astuces indémerdables par quelqu'un d'autre que leur auteur.
Des codes suffisament petit pour être maintenus par de toutes petites
équipes.
Pas question de répondre "ça marchera peut-être dans laprochaine
version, mais pour l'instant on étudie le pb".
Parce qu'à l'époque on avait des codes simples qui ne dépendaient pas
d'autres codes et qui n'avaient pas de dépendances.
J'ai l'impression à te lire que tu n'as aucune idée de ce que peut-être
un cycle de production de code.
À l'époque ils ne prenaient pas le temps de faire de tests de régression
par exemple. Là ça prend du temps.
A l'époque, les gens qui bossaient sur le système ne laissaient pas un
plantage inexploité :
Aujourd'hui ce ne serait pas UN plantage mais des centaines de miliers.
Donc imagine combien tu payerais ton logiciel si tu devais faire
analyser TOUS les dumps.
dump de toute la mémoire, et analyse avec les
moyens du bord... analyseur de "core dump" ou analyse "à la main" à
partir de l'état de la pile sysytème au moment du plantage, et en
descendant les tables système comme des grands. La motivation palliait
plus que largement la rusticité des outils, et un bug du noyau ne
trainait pas plus de quelques jours.
Un dump aujourd'hui ce n'est pas 16K comme à l'époque dont tu parles
mais 4Go ou plus.. je te laisse faire le calcul.
Ne t'en fais pas j'ai AUSSI fait du débuggage sur dump imprimé de la
mémoire, je connais le taf.
Ah.. à l'époque on codait les années sur deux chiffres... preuve que tes
prétendus génies ne pensaient pas à tout :
markorki<moicestmarkorkichezorangefr> wrote:T'as pas de chance, moi j'ai connu de vrais génies dans ces années là,
T'as pas de chance... moi aussi :)
enfin, des gens qui utilisaient peut-être nettement plus de 10% des
capacités de leur encéphale, des qui codaient proprement,
Tu oublies que la notion de « coder proprement » est devenu bien plus
exigeante depuis.
devinaient
tout de suite où un autre allait ne pas voir un détail pourtant
important, et pouvaient tenir plusieurs conversations à la fois tout en
débuggant un driver, un dispatcher ou un compilateur...
Et ils cuisaient des pizza à la chaleur de leur front aussi... ahh... le
beau temps d'antan où le lait coulait à flot dans des rivières de
miel...
... et quand tu codais sur des gros minis à l'époque, les codes étaient
peut-être "moins utilisés", mais par des gens plus exigeants et/ou plus
soucieux de faire du bon boulot.
Non. Par des gens qui bossaient sur des codes plus petits qui faisaient
bien moins de choses, qui n'étaient pas portables, qui utilisaient des
astuces indémerdables par quelqu'un d'autre que leur auteur.
Des codes suffisament petit pour être maintenus par de toutes petites
équipes.
Pas question de répondre "ça marchera peut-être dans laprochaine
version, mais pour l'instant on étudie le pb".
Parce qu'à l'époque on avait des codes simples qui ne dépendaient pas
d'autres codes et qui n'avaient pas de dépendances.
J'ai l'impression à te lire que tu n'as aucune idée de ce que peut-être
un cycle de production de code.
À l'époque ils ne prenaient pas le temps de faire de tests de régression
par exemple. Là ça prend du temps.
A l'époque, les gens qui bossaient sur le système ne laissaient pas un
plantage inexploité :
Aujourd'hui ce ne serait pas UN plantage mais des centaines de miliers.
Donc imagine combien tu payerais ton logiciel si tu devais faire
analyser TOUS les dumps.
dump de toute la mémoire, et analyse avec les
moyens du bord... analyseur de "core dump" ou analyse "à la main" à
partir de l'état de la pile sysytème au moment du plantage, et en
descendant les tables système comme des grands. La motivation palliait
plus que largement la rusticité des outils, et un bug du noyau ne
trainait pas plus de quelques jours.
Un dump aujourd'hui ce n'est pas 16K comme à l'époque dont tu parles
mais 4Go ou plus.. je te laisse faire le calcul.
Ne t'en fais pas j'ai AUSSI fait du débuggage sur dump imprimé de la
mémoire, je connais le taf.
Ah.. à l'époque on codait les années sur deux chiffres... preuve que tes
prétendus génies ne pensaient pas à tout :
FiLH a écrit :markorki<moicestmarkorkichezorangefr> wrote:T'as pas de chance, moi j'ai connu de vrais génies dans ces années là,
T'as pas de chance... moi aussi :)
ben ça ne me gène pas...enfin, des gens qui utilisaient peut-être nettement plus de 10% des
capacités de leur encéphale, des qui codaient proprement,
Tu oublies que la notion de « coder proprement » est devenu bien plus
exigeante depuis.
Maintenant, il faut respecter des normes de programmation, interfaces
standards, normes même sur lenommage des variables, des tas de trucs :
ce genre de trucs j'en ai spécifié dans les années 80 et de-ci de-là
jusqu'en passé 2000.
La seule évolution est la précision des specs qui s'est approfondie, et
les kg de "non papier" que ça engendre.
A l'époque il n'y avait pas de normes (encore qu'il y avait la bande à
Stallman, thompson et autres, et ajouter un perif (un coupleur de comms
par exemple) ou une fonctionnalité dans un Unix supposait déjà
derespecter un certain nombre disons d' "usages".
Par exemple, en 82 ou 83, on faisait du multi-fenétrage sur écran
monochrome, en 1024*768, avec déjà un équivalent X11 (c'est-à-dire des
terminaux textes déplaçables / superposables tous vus comme maintenant
des xterm) mais ce n'était que des "outils" pour des développements qui
touchaient aux télécomms.
Je maintiens que dès cette époque, chez certains, il y a avit des normes
préises, mais évidemment dont la portée était une équipe de
développement, voire un établissement.devinaient
tout de suite où un autre allait ne pas voir un détail pourtant
important, et pouvaient tenir plusieurs conversations à la fois tout en
débuggant un driver, un dispatcher ou un compilateur...
Et ils cuisaient des pizza à la chaleur de leur front aussi... ahh... le
beau temps d'antan où le lait coulait à flot dans des rivières de
miel...
Des qui aidaient simultanément plusieurs personnes au debug tout en
tapotant sur plusieurs terminaux et en testant leurs modifs, je n'en ai
connu que deux, où j'étais. Je doute qu'il n'y en ait pas eu ailleurs ;-)
Mais en dehors de ce multi-processing extrème, des "gourous" j'en ai
connu d'autres.... et quand tu codais sur des gros minis à l'époque, les codes étaient
peut-être "moins utilisés", mais par des gens plus exigeants et/ou plus
soucieux de faire du bon boulot.
Non. Par des gens qui bossaient sur des codes plus petits qui faisaient
bien moins de choses, qui n'étaient pas portables, qui utilisaient des
astuces indémerdables par quelqu'un d'autre que leur auteur.
Des codes suffisament petit pour être maintenus par de toutes petites
équipes.
Des codes qui font plus de choses...
Ils en font trop, le découpage en modules, ça existe, et le test
exhaustif, ça n'existe plus.
Un projet se pilote maintenant comme un avion de ligne: on fait des
hypothèses sur les tests à ne pas faire comme les pilotes négocient un
décollage avec un (ou des) organe(s) foireux.Pas question de répondre "ça marchera peut-être dans laprochaine
version, mais pour l'instant on étudie le pb".
Parce qu'à l'époque on avait des codes simples qui ne dépendaient pas
d'autres codes et qui n'avaient pas de dépendances.
Désolé, mais les dépendances et les outils pour les gérer, ça avait été
absorbé par les "règles de l'art" depuis des années dans le monde mini
en 80.
La gestion de la complexité croissante s'appuie sur des outils également
plus complexes, ça ne devrait pas marcher plus mal.J'ai l'impression à te lire que tu n'as aucune idée de ce que peut-être
un cycle de production de code.
À l'époque ils ne prenaient pas le temps de faire de tests de régression
par exemple. Là ça prend du temps.
????
J'ai quitté ce monde en 87 pour aller faire une autre informatique
(moins "système") pour changer de région, mais en 87 il y avait
longtemps qu'on intégrait aux jeux de tests et aux plans de tests tout
test ayant servi à vérifier la correction d'un bug, tout ce qui avait
fait l'objet d'une vérif sur une version le faisait dans toutes les
versions qui suivaient.
Si ce n'est pas de la non-régression, je ne sais pas ce que c'est.A l'époque, les gens qui bossaient sur le système ne laissaient pas un
plantage inexploité :
Aujourd'hui ce ne serait pas UN plantage mais des centaines de miliers.
Donc imagine combien tu payerais ton logiciel si tu devais faire
analyser TOUS les dumps.
Mauvais argument : il y aurait peut-être des millier de plantages, mais
qui peuvent reposer sur les mêmes quelques erreurs élémentaires, le
millier de plantages n'étant dû qu'à la non correction pour cause de
non-analyse du premier.
J'ai connu ce pb, j'étais scié quand je sortais de mon équipe, de voir
que chez certains, un plantage donnait lieu à un fsck, et roule ma poule
: personne ne se demandait pourquoi, d'où forcément récidive avant
longtemps.
Essayer de comprendre était "une perte de temps". Apparemment, les n
reboots, les fsck et éventuellement les pertes de données n'en étaient
pas...dump de toute la mémoire, et analyse avec les
moyens du bord... analyseur de "core dump" ou analyse "à la main" à
partir de l'état de la pile sysytème au moment du plantage, et en
descendant les tables système comme des grands. La motivation palliait
plus que largement la rusticité des outils, et un bug du noyau ne
trainait pas plus de quelques jours.
Un dump aujourd'hui ce n'est pas 16K comme à l'époque dont tu parles
mais 4Go ou plus.. je te laisse faire le calcul.
16KO dans les années 80 ???
FiLH a écrit :
markorki<moicestmarkorkichezorangefr> wrote:
T'as pas de chance, moi j'ai connu de vrais génies dans ces années là,
T'as pas de chance... moi aussi :)
ben ça ne me gène pas...
enfin, des gens qui utilisaient peut-être nettement plus de 10% des
capacités de leur encéphale, des qui codaient proprement,
Tu oublies que la notion de « coder proprement » est devenu bien plus
exigeante depuis.
Maintenant, il faut respecter des normes de programmation, interfaces
standards, normes même sur lenommage des variables, des tas de trucs :
ce genre de trucs j'en ai spécifié dans les années 80 et de-ci de-là
jusqu'en passé 2000.
La seule évolution est la précision des specs qui s'est approfondie, et
les kg de "non papier" que ça engendre.
A l'époque il n'y avait pas de normes (encore qu'il y avait la bande à
Stallman, thompson et autres, et ajouter un perif (un coupleur de comms
par exemple) ou une fonctionnalité dans un Unix supposait déjà
derespecter un certain nombre disons d' "usages".
Par exemple, en 82 ou 83, on faisait du multi-fenétrage sur écran
monochrome, en 1024*768, avec déjà un équivalent X11 (c'est-à-dire des
terminaux textes déplaçables / superposables tous vus comme maintenant
des xterm) mais ce n'était que des "outils" pour des développements qui
touchaient aux télécomms.
Je maintiens que dès cette époque, chez certains, il y a avit des normes
préises, mais évidemment dont la portée était une équipe de
développement, voire un établissement.
devinaient
tout de suite où un autre allait ne pas voir un détail pourtant
important, et pouvaient tenir plusieurs conversations à la fois tout en
débuggant un driver, un dispatcher ou un compilateur...
Et ils cuisaient des pizza à la chaleur de leur front aussi... ahh... le
beau temps d'antan où le lait coulait à flot dans des rivières de
miel...
Des qui aidaient simultanément plusieurs personnes au debug tout en
tapotant sur plusieurs terminaux et en testant leurs modifs, je n'en ai
connu que deux, où j'étais. Je doute qu'il n'y en ait pas eu ailleurs ;-)
Mais en dehors de ce multi-processing extrème, des "gourous" j'en ai
connu d'autres.
... et quand tu codais sur des gros minis à l'époque, les codes étaient
peut-être "moins utilisés", mais par des gens plus exigeants et/ou plus
soucieux de faire du bon boulot.
Non. Par des gens qui bossaient sur des codes plus petits qui faisaient
bien moins de choses, qui n'étaient pas portables, qui utilisaient des
astuces indémerdables par quelqu'un d'autre que leur auteur.
Des codes suffisament petit pour être maintenus par de toutes petites
équipes.
Des codes qui font plus de choses...
Ils en font trop, le découpage en modules, ça existe, et le test
exhaustif, ça n'existe plus.
Un projet se pilote maintenant comme un avion de ligne: on fait des
hypothèses sur les tests à ne pas faire comme les pilotes négocient un
décollage avec un (ou des) organe(s) foireux.
Pas question de répondre "ça marchera peut-être dans laprochaine
version, mais pour l'instant on étudie le pb".
Parce qu'à l'époque on avait des codes simples qui ne dépendaient pas
d'autres codes et qui n'avaient pas de dépendances.
Désolé, mais les dépendances et les outils pour les gérer, ça avait été
absorbé par les "règles de l'art" depuis des années dans le monde mini
en 80.
La gestion de la complexité croissante s'appuie sur des outils également
plus complexes, ça ne devrait pas marcher plus mal.
J'ai l'impression à te lire que tu n'as aucune idée de ce que peut-être
un cycle de production de code.
À l'époque ils ne prenaient pas le temps de faire de tests de régression
par exemple. Là ça prend du temps.
????
J'ai quitté ce monde en 87 pour aller faire une autre informatique
(moins "système") pour changer de région, mais en 87 il y avait
longtemps qu'on intégrait aux jeux de tests et aux plans de tests tout
test ayant servi à vérifier la correction d'un bug, tout ce qui avait
fait l'objet d'une vérif sur une version le faisait dans toutes les
versions qui suivaient.
Si ce n'est pas de la non-régression, je ne sais pas ce que c'est.
A l'époque, les gens qui bossaient sur le système ne laissaient pas un
plantage inexploité :
Aujourd'hui ce ne serait pas UN plantage mais des centaines de miliers.
Donc imagine combien tu payerais ton logiciel si tu devais faire
analyser TOUS les dumps.
Mauvais argument : il y aurait peut-être des millier de plantages, mais
qui peuvent reposer sur les mêmes quelques erreurs élémentaires, le
millier de plantages n'étant dû qu'à la non correction pour cause de
non-analyse du premier.
J'ai connu ce pb, j'étais scié quand je sortais de mon équipe, de voir
que chez certains, un plantage donnait lieu à un fsck, et roule ma poule
: personne ne se demandait pourquoi, d'où forcément récidive avant
longtemps.
Essayer de comprendre était "une perte de temps". Apparemment, les n
reboots, les fsck et éventuellement les pertes de données n'en étaient
pas...
dump de toute la mémoire, et analyse avec les
moyens du bord... analyseur de "core dump" ou analyse "à la main" à
partir de l'état de la pile sysytème au moment du plantage, et en
descendant les tables système comme des grands. La motivation palliait
plus que largement la rusticité des outils, et un bug du noyau ne
trainait pas plus de quelques jours.
Un dump aujourd'hui ce n'est pas 16K comme à l'époque dont tu parles
mais 4Go ou plus.. je te laisse faire le calcul.
16KO dans les années 80 ???
FiLH a écrit :markorki<moicestmarkorkichezorangefr> wrote:T'as pas de chance, moi j'ai connu de vrais génies dans ces années là,
T'as pas de chance... moi aussi :)
ben ça ne me gène pas...enfin, des gens qui utilisaient peut-être nettement plus de 10% des
capacités de leur encéphale, des qui codaient proprement,
Tu oublies que la notion de « coder proprement » est devenu bien plus
exigeante depuis.
Maintenant, il faut respecter des normes de programmation, interfaces
standards, normes même sur lenommage des variables, des tas de trucs :
ce genre de trucs j'en ai spécifié dans les années 80 et de-ci de-là
jusqu'en passé 2000.
La seule évolution est la précision des specs qui s'est approfondie, et
les kg de "non papier" que ça engendre.
A l'époque il n'y avait pas de normes (encore qu'il y avait la bande à
Stallman, thompson et autres, et ajouter un perif (un coupleur de comms
par exemple) ou une fonctionnalité dans un Unix supposait déjà
derespecter un certain nombre disons d' "usages".
Par exemple, en 82 ou 83, on faisait du multi-fenétrage sur écran
monochrome, en 1024*768, avec déjà un équivalent X11 (c'est-à-dire des
terminaux textes déplaçables / superposables tous vus comme maintenant
des xterm) mais ce n'était que des "outils" pour des développements qui
touchaient aux télécomms.
Je maintiens que dès cette époque, chez certains, il y a avit des normes
préises, mais évidemment dont la portée était une équipe de
développement, voire un établissement.devinaient
tout de suite où un autre allait ne pas voir un détail pourtant
important, et pouvaient tenir plusieurs conversations à la fois tout en
débuggant un driver, un dispatcher ou un compilateur...
Et ils cuisaient des pizza à la chaleur de leur front aussi... ahh... le
beau temps d'antan où le lait coulait à flot dans des rivières de
miel...
Des qui aidaient simultanément plusieurs personnes au debug tout en
tapotant sur plusieurs terminaux et en testant leurs modifs, je n'en ai
connu que deux, où j'étais. Je doute qu'il n'y en ait pas eu ailleurs ;-)
Mais en dehors de ce multi-processing extrème, des "gourous" j'en ai
connu d'autres.... et quand tu codais sur des gros minis à l'époque, les codes étaient
peut-être "moins utilisés", mais par des gens plus exigeants et/ou plus
soucieux de faire du bon boulot.
Non. Par des gens qui bossaient sur des codes plus petits qui faisaient
bien moins de choses, qui n'étaient pas portables, qui utilisaient des
astuces indémerdables par quelqu'un d'autre que leur auteur.
Des codes suffisament petit pour être maintenus par de toutes petites
équipes.
Des codes qui font plus de choses...
Ils en font trop, le découpage en modules, ça existe, et le test
exhaustif, ça n'existe plus.
Un projet se pilote maintenant comme un avion de ligne: on fait des
hypothèses sur les tests à ne pas faire comme les pilotes négocient un
décollage avec un (ou des) organe(s) foireux.Pas question de répondre "ça marchera peut-être dans laprochaine
version, mais pour l'instant on étudie le pb".
Parce qu'à l'époque on avait des codes simples qui ne dépendaient pas
d'autres codes et qui n'avaient pas de dépendances.
Désolé, mais les dépendances et les outils pour les gérer, ça avait été
absorbé par les "règles de l'art" depuis des années dans le monde mini
en 80.
La gestion de la complexité croissante s'appuie sur des outils également
plus complexes, ça ne devrait pas marcher plus mal.J'ai l'impression à te lire que tu n'as aucune idée de ce que peut-être
un cycle de production de code.
À l'époque ils ne prenaient pas le temps de faire de tests de régression
par exemple. Là ça prend du temps.
????
J'ai quitté ce monde en 87 pour aller faire une autre informatique
(moins "système") pour changer de région, mais en 87 il y avait
longtemps qu'on intégrait aux jeux de tests et aux plans de tests tout
test ayant servi à vérifier la correction d'un bug, tout ce qui avait
fait l'objet d'une vérif sur une version le faisait dans toutes les
versions qui suivaient.
Si ce n'est pas de la non-régression, je ne sais pas ce que c'est.A l'époque, les gens qui bossaient sur le système ne laissaient pas un
plantage inexploité :
Aujourd'hui ce ne serait pas UN plantage mais des centaines de miliers.
Donc imagine combien tu payerais ton logiciel si tu devais faire
analyser TOUS les dumps.
Mauvais argument : il y aurait peut-être des millier de plantages, mais
qui peuvent reposer sur les mêmes quelques erreurs élémentaires, le
millier de plantages n'étant dû qu'à la non correction pour cause de
non-analyse du premier.
J'ai connu ce pb, j'étais scié quand je sortais de mon équipe, de voir
que chez certains, un plantage donnait lieu à un fsck, et roule ma poule
: personne ne se demandait pourquoi, d'où forcément récidive avant
longtemps.
Essayer de comprendre était "une perte de temps". Apparemment, les n
reboots, les fsck et éventuellement les pertes de données n'en étaient
pas...dump de toute la mémoire, et analyse avec les
moyens du bord... analyseur de "core dump" ou analyse "à la main" à
partir de l'état de la pile sysytème au moment du plantage, et en
descendant les tables système comme des grands. La motivation palliait
plus que largement la rusticité des outils, et un bug du noyau ne
trainait pas plus de quelques jours.
Un dump aujourd'hui ce n'est pas 16K comme à l'époque dont tu parles
mais 4Go ou plus.. je te laisse faire le calcul.
16KO dans les années 80 ???
Le 09/10/2012 22:48, MELMOTH a écrit :*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Le 09/10/2012 22:48, MELMOTH a écrit :
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Le 09/10/2012 22:48, MELMOTH a écrit :*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Le 10/10/2012 10:26, jdd a écrit :Le 09/10/2012 22:48, MELMOTH a écrit :*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Tu filtres les messages sur le sujet, ça donne à l'instant 2260 messages.
Le 10/10/2012 10:26, jdd a écrit :
Le 09/10/2012 22:48, MELMOTH a écrit :
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Tu filtres les messages sur le sujet, ça donne à l'instant 2260 messages.
Le 10/10/2012 10:26, jdd a écrit :Le 09/10/2012 22:48, MELMOTH a écrit :*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Tu filtres les messages sur le sujet, ça donne à l'instant 2260 messages.
On 10.10.2012 12:49, Ghost-Rider wrote:Le 10/10/2012 10:26, jdd a écrit :Le 09/10/2012 22:48, MELMOTH a écrit :*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Tu filtres les messages sur le sujet, ça donne à l'instant 2260 messages.
j'en vois que 2153.
On 10.10.2012 12:49, Ghost-Rider wrote:
Le 10/10/2012 10:26, jdd a écrit :
Le 09/10/2012 22:48, MELMOTH a écrit :
*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Tu filtres les messages sur le sujet, ça donne à l'instant 2260 messages.
j'en vois que 2153.
On 10.10.2012 12:49, Ghost-Rider wrote:Le 10/10/2012 10:26, jdd a écrit :Le 09/10/2012 22:48, MELMOTH a écrit :*2227* à 22H45 le 9 octobre 2012...
Melmothéen, comme Il Se doit...
tu trouve ça comment?
Tu filtres les messages sur le sujet, ça donne à l'instant 2260 messages.
j'en vois que 2153.