On Dec 10, 9:03 am, ""
wrote:Je me dis que tes macros pourraient me servir, soit directemetn, soit
comme base d'inspiration. Pourrais-tu les rendre disponibles, ou
penses-tu qu'elles te sont trop spécifiques ?
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
On Dec 10, 9:03 am, "loic.actarus.j...@numericable.fr"
<loic.actarus.j...@numericable.fr> wrote:
Je me dis que tes macros pourraient me servir, soit directemetn, soit
comme base d'inspiration. Pourrais-tu les rendre disponibles, ou
penses-tu qu'elles te sont trop spécifiques ?
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
On Dec 10, 9:03 am, ""
wrote:Je me dis que tes macros pourraient me servir, soit directemetn, soit
comme base d'inspiration. Pourrais-tu les rendre disponibles, ou
penses-tu qu'elles te sont trop spécifiques ?
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
Le 09-12-2009, ld a écrit :
>> Et puis les débogueurs que je connaissais ne montraient pas d'hi storique.
>> Souvent, la question c'est "pourquoi cette var vaut ça ?", et tu rem ontes
>> le temps. En affichant les variables en console, la console se souvien t.
>> De plus, en ce qui concerne les fuites mémoires,valgrindest
>> bien plus efficace que de suivre pas à pas le débogueur.
> C'est surement vrai pour les cas "d'ecole". Perso, j'ai rapidement
> atteint les limites de valgrind, des que ton programme manipule qques
> 100MB de data allouee dynamiquement, il devient beaucoup trop lent (x
> 1000) et trop gourmand (pas de resultat du tout sur une machine avec 4
> GB). Je m'en sers surtout pour debugger les tests unitaires, mais en
> conditions reelles, j'utilise d'autres techniques plus efficace...
Quelles techniques ?
>> En prenant aux 10% des francais les plus riches 12% de leurs revenus,
>> on pourrait doubler les revenus des 10% les plus pauvres.
>>http://www.inegalites.fr/spip.php?article1&id_mot0
> Il serait surtout tant de decrire la richesse d'un pays par deciles et
> plus "en moyenne". La moyenne masque les inegalites croissantes avec
> les 10% "les plus riches" qui arrivent a faire augmenter la moyenne
> nationale malgre un appauvrissement des 50% "les plus pauvres"...
On s'en fout des inégalités, c'est le PIB qui compte :-(
Le 09-12-2009, ld <laurent.den...@gmail.com> a écrit :
>> Et puis les débogueurs que je connaissais ne montraient pas d'hi storique.
>> Souvent, la question c'est "pourquoi cette var vaut ça ?", et tu rem ontes
>> le temps. En affichant les variables en console, la console se souvien t.
>> De plus, en ce qui concerne les fuites mémoires,valgrindest
>> bien plus efficace que de suivre pas à pas le débogueur.
> C'est surement vrai pour les cas "d'ecole". Perso, j'ai rapidement
> atteint les limites de valgrind, des que ton programme manipule qques
> 100MB de data allouee dynamiquement, il devient beaucoup trop lent (x
> 1000) et trop gourmand (pas de resultat du tout sur une machine avec 4
> GB). Je m'en sers surtout pour debugger les tests unitaires, mais en
> conditions reelles, j'utilise d'autres techniques plus efficace...
Quelles techniques ?
>> En prenant aux 10% des francais les plus riches 12% de leurs revenus,
>> on pourrait doubler les revenus des 10% les plus pauvres.
>>http://www.inegalites.fr/spip.php?article1&id_mot=130
> Il serait surtout tant de decrire la richesse d'un pays par deciles et
> plus "en moyenne". La moyenne masque les inegalites croissantes avec
> les 10% "les plus riches" qui arrivent a faire augmenter la moyenne
> nationale malgre un appauvrissement des 50% "les plus pauvres"...
On s'en fout des inégalités, c'est le PIB qui compte :-(
Le 09-12-2009, ld a écrit :
>> Et puis les débogueurs que je connaissais ne montraient pas d'hi storique.
>> Souvent, la question c'est "pourquoi cette var vaut ça ?", et tu rem ontes
>> le temps. En affichant les variables en console, la console se souvien t.
>> De plus, en ce qui concerne les fuites mémoires,valgrindest
>> bien plus efficace que de suivre pas à pas le débogueur.
> C'est surement vrai pour les cas "d'ecole". Perso, j'ai rapidement
> atteint les limites de valgrind, des que ton programme manipule qques
> 100MB de data allouee dynamiquement, il devient beaucoup trop lent (x
> 1000) et trop gourmand (pas de resultat du tout sur une machine avec 4
> GB). Je m'en sers surtout pour debugger les tests unitaires, mais en
> conditions reelles, j'utilise d'autres techniques plus efficace...
Quelles techniques ?
>> En prenant aux 10% des francais les plus riches 12% de leurs revenus,
>> on pourrait doubler les revenus des 10% les plus pauvres.
>>http://www.inegalites.fr/spip.php?article1&id_mot0
> Il serait surtout tant de decrire la richesse d'un pays par deciles et
> plus "en moyenne". La moyenne masque les inegalites croissantes avec
> les 10% "les plus riches" qui arrivent a faire augmenter la moyenne
> nationale malgre un appauvrissement des 50% "les plus pauvres"...
On s'en fout des inégalités, c'est le PIB qui compte :-(
Le 10-12-2009, ld a écrit :
> On 10 déc, 12:49, Marc Boyer wrote :
>> Le 09-12-2009, James Kanze a écrit :
>> Après avoir vainement essayé de trouver quelque chose qu'un
>> envionnement permettrait de faire, et pas l'autre, on arrive
>> à quelque chose de plus connu: la courbe d'apprentissage,
>> qui trace la productivité vs l'investissement.
> Quand tu parles de cette courbe, tu penses aux Unixes, a Linux ou a
> Posix? Parce que l'ecriture de script _portable_ utilisant ses outils
> est loin d'etre simple. Perso je me suis limite a Posix + gmake.
Tu évoques un autre problème: la portabilité et/ou compatibilit é.
Win* s'est clairement assis sur le sujet, donc, on ne peut pas
lui reprocher de ne pas tenir ses promesses.
Quand je parlais d'investissement, c'était une question
humaine, pas logicielle, ce n'était pas le fait qu'un
script écrit en 1997 sur SunOS fonctionne en 2009 sur Linux,
mais plutôt que tu retrouves très vite tes habitudes, et que
tu vas assez vite être à même de corriger le truc.
>> Et même si les Unix-like offre de plus en plus d'outils
>> à accès facile, les outils fort investissement/forte prod
>> restent la base du système, et très accessibles.
> Mais pas toujours portable.
Oui, mais à mon sens, c'est un autre problème.
> Il y a souvent des compromis a faire comme
> bash, gmake, gawk etc... ce qui revient peut-etre a dire que GNU est
> entrain de propager son "standard". En 17 ans de Linux, je me suis
> souvent senti "perdu" dans les options des memes outils sur SunOs ou
> HPUX par exemple. Certe la philosophie reste la meme, mais ta courbe
> n'est pas si "droite" que ca.
Non, mais si on te demande de faire la même chose sur Win98 ou
Windows 7, la variation risque d'être encore plus grande, non ?
Le 10-12-2009, ld <laurent.den...@gmail.com> a écrit :
> On 10 déc, 12:49, Marc Boyer <Marc.Bo...@cert.onera.fr.invalid> wrote :
>> Le 09-12-2009, James Kanze <james.ka...@gmail.com> a écrit :
>> Après avoir vainement essayé de trouver quelque chose qu'un
>> envionnement permettrait de faire, et pas l'autre, on arrive
>> à quelque chose de plus connu: la courbe d'apprentissage,
>> qui trace la productivité vs l'investissement.
> Quand tu parles de cette courbe, tu penses aux Unixes, a Linux ou a
> Posix? Parce que l'ecriture de script _portable_ utilisant ses outils
> est loin d'etre simple. Perso je me suis limite a Posix + gmake.
Tu évoques un autre problème: la portabilité et/ou compatibilit é.
Win* s'est clairement assis sur le sujet, donc, on ne peut pas
lui reprocher de ne pas tenir ses promesses.
Quand je parlais d'investissement, c'était une question
humaine, pas logicielle, ce n'était pas le fait qu'un
script écrit en 1997 sur SunOS fonctionne en 2009 sur Linux,
mais plutôt que tu retrouves très vite tes habitudes, et que
tu vas assez vite être à même de corriger le truc.
>> Et même si les Unix-like offre de plus en plus d'outils
>> à accès facile, les outils fort investissement/forte prod
>> restent la base du système, et très accessibles.
> Mais pas toujours portable.
Oui, mais à mon sens, c'est un autre problème.
> Il y a souvent des compromis a faire comme
> bash, gmake, gawk etc... ce qui revient peut-etre a dire que GNU est
> entrain de propager son "standard". En 17 ans de Linux, je me suis
> souvent senti "perdu" dans les options des memes outils sur SunOs ou
> HPUX par exemple. Certe la philosophie reste la meme, mais ta courbe
> n'est pas si "droite" que ca.
Non, mais si on te demande de faire la même chose sur Win98 ou
Windows 7, la variation risque d'être encore plus grande, non ?
Le 10-12-2009, ld a écrit :
> On 10 déc, 12:49, Marc Boyer wrote :
>> Le 09-12-2009, James Kanze a écrit :
>> Après avoir vainement essayé de trouver quelque chose qu'un
>> envionnement permettrait de faire, et pas l'autre, on arrive
>> à quelque chose de plus connu: la courbe d'apprentissage,
>> qui trace la productivité vs l'investissement.
> Quand tu parles de cette courbe, tu penses aux Unixes, a Linux ou a
> Posix? Parce que l'ecriture de script _portable_ utilisant ses outils
> est loin d'etre simple. Perso je me suis limite a Posix + gmake.
Tu évoques un autre problème: la portabilité et/ou compatibilit é.
Win* s'est clairement assis sur le sujet, donc, on ne peut pas
lui reprocher de ne pas tenir ses promesses.
Quand je parlais d'investissement, c'était une question
humaine, pas logicielle, ce n'était pas le fait qu'un
script écrit en 1997 sur SunOS fonctionne en 2009 sur Linux,
mais plutôt que tu retrouves très vite tes habitudes, et que
tu vas assez vite être à même de corriger le truc.
>> Et même si les Unix-like offre de plus en plus d'outils
>> à accès facile, les outils fort investissement/forte prod
>> restent la base du système, et très accessibles.
> Mais pas toujours portable.
Oui, mais à mon sens, c'est un autre problème.
> Il y a souvent des compromis a faire comme
> bash, gmake, gawk etc... ce qui revient peut-etre a dire que GNU est
> entrain de propager son "standard". En 17 ans de Linux, je me suis
> souvent senti "perdu" dans les options des memes outils sur SunOs ou
> HPUX par exemple. Certe la philosophie reste la meme, mais ta courbe
> n'est pas si "droite" que ca.
Non, mais si on te demande de faire la même chose sur Win98 ou
Windows 7, la variation risque d'être encore plus grande, non ?
> gdb se scripte assez bien, mais je ne sache pas qu'on puisse y
> définir des fonctions.
Selon la doc, tu peux, mais je ne connais pas jusqu'où.
> gdb se scripte assez bien, mais je ne sache pas qu'on puisse y
> définir des fonctions.
Selon la doc, tu peux, mais je ne connais pas jusqu'où.
> gdb se scripte assez bien, mais je ne sache pas qu'on puisse y
> définir des fonctions.
Selon la doc, tu peux, mais je ne connais pas jusqu'où.
Le top, c'est les "watchpoints" de gdb (et d'autres debuggers
certainement). Ca te permet de surveiller un morceau de mémoire (y
compris si tu n'as plus de variable qui y pointe). Et si tu reste
raisonnable, c'est fait en hard.
Pour l'exemple, tu fais deux tableaux sur la pile, et une écriture qui
déborde du premier dans le deuxième, qui est sous surveillance.
On peut sûrement faire cela avec des printf.
Le top, c'est les "watchpoints" de gdb (et d'autres debuggers
certainement). Ca te permet de surveiller un morceau de mémoire (y
compris si tu n'as plus de variable qui y pointe). Et si tu reste
raisonnable, c'est fait en hard.
Pour l'exemple, tu fais deux tableaux sur la pile, et une écriture qui
déborde du premier dans le deuxième, qui est sous surveillance.
On peut sûrement faire cela avec des printf.
Le top, c'est les "watchpoints" de gdb (et d'autres debuggers
certainement). Ca te permet de surveiller un morceau de mémoire (y
compris si tu n'as plus de variable qui y pointe). Et si tu reste
raisonnable, c'est fait en hard.
Pour l'exemple, tu fais deux tableaux sur la pile, et une écriture qui
déborde du premier dans le deuxième, qui est sous surveillance.
On peut sûrement faire cela avec des printf.
Dans ma dernière version, le fichier ".vsmacro" fait 607 ko ( je ne sai s pas
comment c'est composé, car j'en ai surement pas tapé autant), en comp araison
le fichier d'exemple fourni avec VS2008 ("Samples.vsmacros") fait 700k o.
Je ne compte pas les patrons de fichiers (qui compte peanuts en
comparaison).
Les macros, me sont légèrement personnalisées, mais pourraient êt re
facilement généralisables.
Mais ce qui m'épate c'est que cela ne te dispensera pas de fournir un e ffort
d'apprentissage, surtout si tu dois les modifier.
As-tu essayé, comme je le disais auparavant, d'utiliser la fonction
d'enregistrement de macro, c'a débroussaille grandement ...
Dans ma dernière version, le fichier ".vsmacro" fait 607 ko ( je ne sai s pas
comment c'est composé, car j'en ai surement pas tapé autant), en comp araison
le fichier d'exemple fourni avec VS2008 ("Samples.vsmacros") fait 700k o.
Je ne compte pas les patrons de fichiers (qui compte peanuts en
comparaison).
Les macros, me sont légèrement personnalisées, mais pourraient êt re
facilement généralisables.
Mais ce qui m'épate c'est que cela ne te dispensera pas de fournir un e ffort
d'apprentissage, surtout si tu dois les modifier.
As-tu essayé, comme je le disais auparavant, d'utiliser la fonction
d'enregistrement de macro, c'a débroussaille grandement ...
Dans ma dernière version, le fichier ".vsmacro" fait 607 ko ( je ne sai s pas
comment c'est composé, car j'en ai surement pas tapé autant), en comp araison
le fichier d'exemple fourni avec VS2008 ("Samples.vsmacros") fait 700k o.
Je ne compte pas les patrons de fichiers (qui compte peanuts en
comparaison).
Les macros, me sont légèrement personnalisées, mais pourraient êt re
facilement généralisables.
Mais ce qui m'épate c'est que cela ne te dispensera pas de fournir un e ffort
d'apprentissage, surtout si tu dois les modifier.
As-tu essayé, comme je le disais auparavant, d'utiliser la fonction
d'enregistrement de macro, c'a débroussaille grandement ...
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
On 10 déc, 15:54, James Kanze wrote:Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
Pour apprendre les macros, il y a deux aspects :
- Le langage, là c'est du visual basic, c'est pas très beau, mais ça
s'apprend vite. Je n'ai pas contre jamais essayé de voir si on avait
ou pas accès à toutes l'API .NET directement (monter des boîtes de
dialogue...)
. Peut-être faut-il faire une extension pour ça ? En tout
cas on peut facilement appeler un exécutable externe, ou une DLL .NET.
- Le modèle objet de visual studio. Le point d'entrée est DTE, après,
tout est assez bien documenté dans l'aide en ligne.
On 10 déc, 15:54, James Kanze <james.ka...@gmail.com> wrote:
Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
Pour apprendre les macros, il y a deux aspects :
- Le langage, là c'est du visual basic, c'est pas très beau, mais ça
s'apprend vite. Je n'ai pas contre jamais essayé de voir si on avait
ou pas accès à toutes l'API .NET directement (monter des boîtes de
dialogue...)
. Peut-être faut-il faire une extension pour ça ? En tout
cas on peut facilement appeler un exécutable externe, ou une DLL .NET.
- Le modèle objet de visual studio. Le point d'entrée est DTE, après,
tout est assez bien documenté dans l'aide en ligne.
On 10 déc, 15:54, James Kanze wrote:Plus intéressant serait de savoir où il a appris de faire des
macros VS, parce que moi, je suis prêt à investir un peu de
temps et d'effort pour les apprendre (vue que je risque de
travailler sous Windows pour pas mal du temps encore).
Pour apprendre les macros, il y a deux aspects :
- Le langage, là c'est du visual basic, c'est pas très beau, mais ça
s'apprend vite. Je n'ai pas contre jamais essayé de voir si on avait
ou pas accès à toutes l'API .NET directement (monter des boîtes de
dialogue...)
. Peut-être faut-il faire une extension pour ça ? En tout
cas on peut facilement appeler un exécutable externe, ou une DLL .NET.
- Le modèle objet de visual studio. Le point d'entrée est DTE, après,
tout est assez bien documenté dans l'aide en ligne.
Le 30-11-2009, AG a écrit :Je travaille dans une équipe de personnes pour lesquels le débugger
n'est pas l'outil qui tombe sous le sens lorsqu'il s'agit de trouver
les bugs des outils qu'ils ont développé.
Mais est-ce grave ? J'avoue ne quasiment jamais me servir
de débugger. Je travaille surtout en précondition/invariant (assert) +
tests unitaires, et éventuellement valgrind quand je soupsonne une
corruption mémoire.
Et une fois le bug identifié, à grand coups de cerr
+ assert.
D'autant que souvent, le bug n'apparait pas en mode débug ;-)
Marc Boyer
Le 30-11-2009, AG <heyji2@gmail.com> a écrit :
Je travaille dans une équipe de personnes pour lesquels le débugger
n'est pas l'outil qui tombe sous le sens lorsqu'il s'agit de trouver
les bugs des outils qu'ils ont développé.
Mais est-ce grave ? J'avoue ne quasiment jamais me servir
de débugger. Je travaille surtout en précondition/invariant (assert) +
tests unitaires, et éventuellement valgrind quand je soupsonne une
corruption mémoire.
Et une fois le bug identifié, à grand coups de cerr
+ assert.
D'autant que souvent, le bug n'apparait pas en mode débug ;-)
Marc Boyer
Le 30-11-2009, AG a écrit :Je travaille dans une équipe de personnes pour lesquels le débugger
n'est pas l'outil qui tombe sous le sens lorsqu'il s'agit de trouver
les bugs des outils qu'ils ont développé.
Mais est-ce grave ? J'avoue ne quasiment jamais me servir
de débugger. Je travaille surtout en précondition/invariant (assert) +
tests unitaires, et éventuellement valgrind quand je soupsonne une
corruption mémoire.
Et une fois le bug identifié, à grand coups de cerr
+ assert.
D'autant que souvent, le bug n'apparait pas en mode débug ;-)
Marc Boyer
quand je développe, je base toutes mes gestions d'erreur
sur des exceptions
quand je développe, je base toutes mes gestions d'erreur
sur des exceptions
quand je développe, je base toutes mes gestions d'erreur
sur des exceptions