Pour des raisons professionelles j'ai dû, et je dois
encore d'ailleurs, écrire de la documentation d'installation pour un
logiciel libre ausi bien sous Linux que sous Windows et ce, en Anglais et
en Français.
Etant d'un moralité condamnable et ayant le raisonnement qu'on me connait,
et comme je n'aime pas Windows (malgré le bien que beaucoup en pensent).
J'ai trouvé "dégoutant" de faire de la doc pour les Windows users, cela ne
ferait que les conforter dans leur "croyances" (que c'est bien de rester
sous Windows)...
Je me suis dit que je n'allais pas en plus acheter 2 Windows (un anglais
et un français) pour ça.
Je passe donc un coup de fil à mon frangin qui lui est spécialiste de
la bidouille Windowsienne et lui demande de me fournir ce qu'il faut.
Au bout de quelques heures j'ai un beau quadri boot sur mon PC de test
(Debian, Fedora, XP-Fr et XP-En).
A peine installé, je me dit que c'est une bonne idée de se mettre à jour,
je commence par XP-Fr.
for i in 1 to 5 do :
Windows update
rebooot
D'accord.
Je place maintenant le boot par défaut des windows sur celui English, un
coup de windows update et là: Invalid key product. Normal me dis-je, je
n'ai rien acheté. Bon au pire si il m'arrive quelquehose, je réinsalle.
La raçon de l'utilisation frauduleuse.
Je passe quand même un coup de fil à mon frère pour qu'il me change mon
product ID
for i in 1 to 24:
change_product_id
reboot
windows update
Il veut rien savoir: Product Key/Id invalid.
Donc je suis en train de tourner avec un XP/"SP je sais pas combien"
forcément dangereux. Je laisse faire.
Hier soir, j'éteints mon XP pour rebooter sous la Fedora pour faire un rpm.
J'allume l'autre PC (portable et tente un ssh: connection refused). Ah
tiens! problème au reboot? Je reviens sur la machine,
Eh ben non: "Please Wait, Installing update 1 of 9, windows will shut down
automatically".
Ah quand meme, il installe quand il veut!
Je me disais bien que vu le nombre de Windows "illégaux", ils n'allaient
pas prendre le risque de refuser les updates aux gens, surtout si ce sont
des "big holes".
Bon alors du coup, ce que je fais, c'est que je les laisse faire. Ils se
débrouillent finalement très bien tous seuls...
Si ma mémoire est bonne, RMS avait été sommé de virer ce truc de son Emacs pour cause d'indécence ou une chose de ce genre.
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Ça me fait penser aux emmerdements qu'avait eu Cordial parce que des utilisateurs de Word avaient constaté que parmi les synonymes suggérés pour "antistress" il y avait "anti-arabes" ou quelque chose comme ça.
Cordial, le logiciel grammaire avec une analyse linguistique sous-jacente ? Il était génial ce soft. Je l'avais lors de sa première sortie (en HD) et quand je recherchais où ils avaient mis le plombage, j'étais tombé en hexa sur une phrase "Vous devenez vraiment trop curieux !". J'ai jamais réussi à virer la protection d'ailleurs.
:-) Faut dire que c'est leur trésor... Dans les dernières versions il faut même donner un numéro de machine je crois pour qu'il soit activé. Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations d'analyseurs l'ont souvent classés premier.
Le problème en question (antiarable/antistress) venait d'utilisation de statistique ou un truc comme ça, qui rapprochait les deux formes sur je ne sais pas quel critère formel, mais ça a vite fait de faire un scandale et Dominique Laurent (l'auteur du soft) avait même dû se justifier sur les plateaux de télé si je me souviens bien. D'ailleurs c'est un emmerdement pour les éditeurs de ce genre de méprise ; je suis tombé sur ça justement hier (un chercheur du Natural language group de Microsoft) :
Si ma mémoire est bonne, RMS avait été sommé de virer ce truc de son
Emacs pour cause d'indécence ou une chose de ce genre.
En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.
Ça me fait penser aux emmerdements qu'avait eu Cordial parce que
des utilisateurs de Word avaient constaté que parmi les synonymes
suggérés pour "antistress" il y avait "anti-arabes" ou quelque
chose comme ça.
Cordial, le logiciel grammaire avec une analyse linguistique
sous-jacente ? Il était génial ce soft. Je l'avais lors de sa
première sortie (en HD) et quand je recherchais où ils avaient mis
le plombage, j'étais tombé en hexa sur une phrase "Vous devenez
vraiment trop curieux !". J'ai jamais réussi à virer la protection
d'ailleurs.
:-) Faut dire que c'est leur trésor... Dans les dernières versions il
faut même donner un numéro de machine je crois pour qu'il soit activé.
Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations
d'analyseurs l'ont souvent classés premier.
Le problème en question (antiarable/antistress) venait d'utilisation
de statistique ou un truc comme ça, qui rapprochait les deux formes
sur je ne sais pas quel critère formel, mais ça a vite fait de faire
un scandale et Dominique Laurent (l'auteur du soft) avait même dû se
justifier sur les plateaux de télé si je me souviens bien. D'ailleurs
c'est un emmerdement pour les éditeurs de ce genre de méprise ; je
suis tombé sur ça justement hier (un chercheur du Natural language
group de Microsoft) :
Si ma mémoire est bonne, RMS avait été sommé de virer ce truc de son Emacs pour cause d'indécence ou une chose de ce genre.
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Ça me fait penser aux emmerdements qu'avait eu Cordial parce que des utilisateurs de Word avaient constaté que parmi les synonymes suggérés pour "antistress" il y avait "anti-arabes" ou quelque chose comme ça.
Cordial, le logiciel grammaire avec une analyse linguistique sous-jacente ? Il était génial ce soft. Je l'avais lors de sa première sortie (en HD) et quand je recherchais où ils avaient mis le plombage, j'étais tombé en hexa sur une phrase "Vous devenez vraiment trop curieux !". J'ai jamais réussi à virer la protection d'ailleurs.
:-) Faut dire que c'est leur trésor... Dans les dernières versions il faut même donner un numéro de machine je crois pour qu'il soit activé. Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations d'analyseurs l'ont souvent classés premier.
Le problème en question (antiarable/antistress) venait d'utilisation de statistique ou un truc comme ça, qui rapprochait les deux formes sur je ne sais pas quel critère formel, mais ça a vite fait de faire un scandale et Dominique Laurent (l'auteur du soft) avait même dû se justifier sur les plateaux de télé si je me souviens bien. D'ailleurs c'est un emmerdement pour les éditeurs de ce genre de méprise ; je suis tombé sur ça justement hier (un chercheur du Natural language group de Microsoft) :
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
:-) Faut dire que c'est leur trésor... Dans les dernières versions il faut même donner un numéro de machine je crois pour qu'il soit activé. Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations d'analyseurs l'ont souvent classés premier.
Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc) peut exister en libre. J'avais un peu cherché en IA à partir d'un bouquin qui associait lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on trouvait aux puces un turbo-prolog de Borland ayant fait long feu et lent...mais lent!). Et entre les différentes versions de lisp (syntaxe d'Edinbourg etc.), c'était un peu prise de tête pour un résultat que tout le mondre prévoyait comme désastreux de toute façon.
Je ne m'en suis plus occupé depuis, mais passer de temps en temps un discours genre "entretien d'explicitation" (faire cracher les processus employés dans une activité) ou un entretien "biographique", dans ce type de moulinette, ça doit être sympa.
Quand au registre des aphasies, ça doit être le top !
costaclt
In article <ur7a3dw1o.fsf@nospam.com>, SL wrote:
En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
:-) Faut dire que c'est leur trésor... Dans les dernières versions il
faut même donner un numéro de machine je crois pour qu'il soit activé.
Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations
d'analyseurs l'ont souvent classés premier.
Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc) peut
exister en libre. J'avais un peu cherché en IA à partir d'un bouquin qui
associait lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais
déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on trouvait
aux puces un turbo-prolog de Borland ayant fait long feu et lent...mais
lent!). Et entre les différentes versions de lisp (syntaxe d'Edinbourg etc.),
c'était un peu prise de tête pour un résultat que tout le mondre prévoyait
comme désastreux de toute façon.
Je ne m'en suis plus occupé depuis, mais passer de temps en temps un discours
genre "entretien d'explicitation" (faire cracher les processus employés
dans une activité) ou un entretien "biographique", dans ce type de moulinette,
ça doit être sympa.
Quand au registre des aphasies, ça doit être le top !
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
:-) Faut dire que c'est leur trésor... Dans les dernières versions il faut même donner un numéro de machine je crois pour qu'il soit activé. Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations d'analyseurs l'ont souvent classés premier.
Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc) peut exister en libre. J'avais un peu cherché en IA à partir d'un bouquin qui associait lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on trouvait aux puces un turbo-prolog de Borland ayant fait long feu et lent...mais lent!). Et entre les différentes versions de lisp (syntaxe d'Edinbourg etc.), c'était un peu prise de tête pour un résultat que tout le mondre prévoyait comme désastreux de toute façon.
Je ne m'en suis plus occupé depuis, mais passer de temps en temps un discours genre "entretien d'explicitation" (faire cracher les processus employés dans une activité) ou un entretien "biographique", dans ce type de moulinette, ça doit être sympa.
Quand au registre des aphasies, ça doit être le top !
costaclt
nicolas vigier
On 2005-10-27, Manuel Leclerc wrote:
Bof, tu sais, M$, ils sont un peu cons.
Oui, on sait. A part ça, et ça n'a aucun rapport, est-ce que quelqu'un pourrait me dire qu'elle est exactement la version de FireFox livrée avec la Mandriva 2006 ?
On 2005-10-27, Manuel Leclerc <manuel.leclerc@alussinan.org> wrote:
Bof, tu sais, M$, ils sont un peu cons.
Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle est
exactement la version de FireFox livrée avec la
Mandriva 2006 ?
Oui, on sait. A part ça, et ça n'a aucun rapport, est-ce que quelqu'un pourrait me dire qu'elle est exactement la version de FireFox livrée avec la Mandriva 2006 ?
Oui, on sait. A part ça, et ça n'a aucun rapport, est-ce que quelqu'un pourrait me dire qu'elle est exactement la version de FireFox livrée avec la Mandriva 2006 ?
Merci. Mais la fondation signale que deux des correctifs de la 1.0.7 sont peut être exploitables et je ne trouve pas trace de correctifs Mandriva correspondants. C'est pas plutôt la 1.0.7 dans Mandriva 2006 ????
-- Due to its recent bankruptcy, we are removing this stock from our recommended buy list. --rumblin'rabbit's sig on /.
Manuel Leclerc wrote:
Bof, tu sais, M$, ils sont un peu cons.
Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle est
exactement la version de FireFox livrée avec la
Mandriva 2006 ?
Merci. Mais la fondation signale que deux des correctifs
de la 1.0.7 sont peut être exploitables et je ne trouve pas
trace de correctifs Mandriva correspondants. C'est pas plutôt
la 1.0.7 dans Mandriva 2006 ????
--
Due to its recent bankruptcy, we are removing this stock from
our recommended buy list.
--rumblin'rabbit's sig on /.
Oui, on sait. A part ça, et ça n'a aucun rapport, est-ce que quelqu'un pourrait me dire qu'elle est exactement la version de FireFox livrée avec la Mandriva 2006 ?
Merci. Mais la fondation signale que deux des correctifs de la 1.0.7 sont peut être exploitables et je ne trouve pas trace de correctifs Mandriva correspondants. C'est pas plutôt la 1.0.7 dans Mandriva 2006 ????
-- Due to its recent bankruptcy, we are removing this stock from our recommended buy list. --rumblin'rabbit's sig on /.
SL
In article , SL wrote:
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
:-) Faut dire que c'est leur trésor... Dans les dernières versions il faut même donner un numéro de machine je crois pour qu'il soit activé. Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations d'analyseurs l'ont souvent classés premier.
Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc) peut exister en libre.
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par exemple), vu que ce sont souvent des produits d'origine académiques.
J'avais un peu cherché en IA à partir d'un bouquin qui associait lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on trouvait aux puces un turbo-prolog de Borland ayant fait long feu et lent...mais lent!). Et entre les différentes versions de lisp (syntaxe d'Edinbourg etc.), c'était un peu prise de tête pour un résultat que tout le mondre prévoyait comme désastreux de toute façon.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance première cybernétique, IA première mouture en effet). Greimas n'est pas du tout une théorie formalisée, je ne vois pas tellement comment on peut espérer "l'implémenter" (?). Il a des concepts comme le carré sémiotiques, qui reprend des notions formelles ou logiques de contraires et contradictoires, mais sinon je ne vois pas tellement comment on peut espérer le formaliser. Greimas c'est quand même une couche de formalisme sur un substrat surrinterprétatif, un peu typique de cette époque (les "formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou de la psycho dégradé qui se réclament de Greimas. Le pauvre !
Je ne m'en suis plus occupé depuis, mais passer de temps en temps un discours genre "entretien d'explicitation" (faire cracher les processus employés dans une activité) ou un entretien "biographique", dans ce type de moulinette, ça doit être sympa.
Pour ce genre d'analyse, et les analyses lexicales ou sémantiques dont vous parliez plus haut, il y a aussi des logiciels libres ou plus ou moins libre. C'est très robustes, très (sur-)interprétable, et on perd rarement son temps. Par exemple de disponible gratuitement il y a Lexico3. Il doit y en avoir d'autre mais ils ne me viennent pas à l'esprit. Il y a en a beaucoup d'origine académique, pas vraiment libre mais distribués entre labo.
Les "entretiens d'explicitation", je ne savais pas ce que c'était. C'est quand on demande à un professionnel de raconter ce qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de travaux dasn cette veine, sur l'acquisition automatique (ou plutôt l'assistance à l'acquisition) de terminologie. Le plus connus c'est Syntex de Bourigault : ça repère les syntagmes (après analyse morphosyntaxique) dans les documents qu'on lui propose pour les proposer à un "terminologue". Ca assiste le débouillement d'un corpus disons.
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait avoir une application dans les entretiens d'embauche. Par exemple, si on demande à un candidat d'écrire deux pages sur un sujet bateau (les motivations pour ce poste, ce qui fait qu'il pense être compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum (disons une cinquantaine grand minimum) d'autres textes fait dans les mêmes conditions et dont on connait les propriétés, des représentatiosn factorielles peuvent montrer de façon extrêmement robustes où se situe l'individu, par rapport à la norme grammaticale, à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça une batterie de variables : longueur des phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on s'en fait une idée en quelque seconde, mais ça pourrait être un objectif intéressant d'avoir une mesure plus objective de cela.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur un texte assez attendu (du genre "qu'elle sont les compétences que vous penser avoir ?"), obtenir des facteurs qui donnent des indices sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas d'idée ou d'expériences existantes en tête.
Quand au registre des aphasies, ça doit être le top !
Ca je connais pas du tout, c'est pas mon secteur ; mais ça doit être intéressant.
In article <ur7a3dw1o.fsf@nospam.com>, SL wrote:
En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
:-) Faut dire que c'est leur trésor... Dans les dernières versions
il faut même donner un numéro de machine je crois pour qu'il soit
activé. Et c'est vrai que c'est un excellent soft. Les campagnes
d'évaluations d'analyseurs l'ont souvent classés premier.
Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc)
peut exister en libre.
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par
exemple), vu que ce sont souvent des produits d'origine académiques.
J'avais un peu cherché en IA à partir d'un bouquin qui associait
lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais
déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on
trouvait aux puces un turbo-prolog de Borland ayant fait long feu et
lent...mais lent!). Et entre les différentes versions de lisp
(syntaxe d'Edinbourg etc.), c'était un peu prise de tête pour un
résultat que tout le mondre prévoyait comme désastreux de toute
façon.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance
première cybernétique, IA première mouture en effet). Greimas n'est
pas du tout une théorie formalisée, je ne vois pas tellement comment
on peut espérer "l'implémenter" (?). Il a des concepts comme le carré
sémiotiques, qui reprend des notions formelles ou logiques de
contraires et contradictoires, mais sinon je ne vois pas tellement
comment on peut espérer le formaliser. Greimas c'est quand même une
couche de formalisme sur un substrat surrinterprétatif, un peu typique
de cette époque (les "formules" de Lacan...). Ce qui a l'air
terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou
de la psycho dégradé qui se réclament de Greimas. Le pauvre !
Je ne m'en suis plus occupé depuis, mais passer de temps en temps un
discours genre "entretien d'explicitation" (faire cracher les
processus employés dans une activité) ou un entretien
"biographique", dans ce type de moulinette, ça doit être sympa.
Pour ce genre d'analyse, et les analyses lexicales ou sémantiques dont
vous parliez plus haut, il y a aussi des logiciels libres ou plus ou
moins libre. C'est très robustes, très (sur-)interprétable, et on perd
rarement son temps. Par exemple de disponible gratuitement il y a
Lexico3. Il doit y en avoir d'autre mais ils ne me viennent pas à
l'esprit. Il y a en a beaucoup d'origine académique, pas vraiment
libre mais distribués entre labo.
Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de
travaux dasn cette veine, sur l'acquisition automatique (ou plutôt
l'assistance à l'acquisition) de terminologie. Le plus connus c'est
Syntex de Bourigault : ça repère les syntagmes (après analyse
morphosyntaxique) dans les documents qu'on lui propose pour les
proposer à un "terminologue". Ca assiste le débouillement d'un corpus
disons.
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple, si
on demande à un candidat d'écrire deux pages sur un sujet bateau (les
motivations pour ce poste, ce qui fait qu'il pense être compétent sur
ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum
(disons une cinquantaine grand minimum) d'autres textes fait dans les
mêmes conditions et dont on connait les propriétés, des
représentatiosn factorielles peuvent montrer de façon extrêmement
robustes où se situe l'individu, par rapport à la norme grammaticale,
à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça
une batterie de variables : longueur des phrases, nombre de
proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on
s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur
un texte assez attendu (du genre "qu'elle sont les compétences que
vous penser avoir ?"), obtenir des facteurs qui donnent des indices
sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas
d'idée ou d'expériences existantes en tête.
Quand au registre des aphasies, ça doit être le top !
Ca je connais pas du tout, c'est pas mon secteur ; mais ça doit être
intéressant.
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
:-) Faut dire que c'est leur trésor... Dans les dernières versions il faut même donner un numéro de machine je crois pour qu'il soit activé. Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations d'analyseurs l'ont souvent classés premier.
Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc) peut exister en libre.
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par exemple), vu que ce sont souvent des produits d'origine académiques.
J'avais un peu cherché en IA à partir d'un bouquin qui associait lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on trouvait aux puces un turbo-prolog de Borland ayant fait long feu et lent...mais lent!). Et entre les différentes versions de lisp (syntaxe d'Edinbourg etc.), c'était un peu prise de tête pour un résultat que tout le mondre prévoyait comme désastreux de toute façon.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance première cybernétique, IA première mouture en effet). Greimas n'est pas du tout une théorie formalisée, je ne vois pas tellement comment on peut espérer "l'implémenter" (?). Il a des concepts comme le carré sémiotiques, qui reprend des notions formelles ou logiques de contraires et contradictoires, mais sinon je ne vois pas tellement comment on peut espérer le formaliser. Greimas c'est quand même une couche de formalisme sur un substrat surrinterprétatif, un peu typique de cette époque (les "formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou de la psycho dégradé qui se réclament de Greimas. Le pauvre !
Je ne m'en suis plus occupé depuis, mais passer de temps en temps un discours genre "entretien d'explicitation" (faire cracher les processus employés dans une activité) ou un entretien "biographique", dans ce type de moulinette, ça doit être sympa.
Pour ce genre d'analyse, et les analyses lexicales ou sémantiques dont vous parliez plus haut, il y a aussi des logiciels libres ou plus ou moins libre. C'est très robustes, très (sur-)interprétable, et on perd rarement son temps. Par exemple de disponible gratuitement il y a Lexico3. Il doit y en avoir d'autre mais ils ne me viennent pas à l'esprit. Il y a en a beaucoup d'origine académique, pas vraiment libre mais distribués entre labo.
Les "entretiens d'explicitation", je ne savais pas ce que c'était. C'est quand on demande à un professionnel de raconter ce qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de travaux dasn cette veine, sur l'acquisition automatique (ou plutôt l'assistance à l'acquisition) de terminologie. Le plus connus c'est Syntex de Bourigault : ça repère les syntagmes (après analyse morphosyntaxique) dans les documents qu'on lui propose pour les proposer à un "terminologue". Ca assiste le débouillement d'un corpus disons.
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait avoir une application dans les entretiens d'embauche. Par exemple, si on demande à un candidat d'écrire deux pages sur un sujet bateau (les motivations pour ce poste, ce qui fait qu'il pense être compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum (disons une cinquantaine grand minimum) d'autres textes fait dans les mêmes conditions et dont on connait les propriétés, des représentatiosn factorielles peuvent montrer de façon extrêmement robustes où se situe l'individu, par rapport à la norme grammaticale, à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça une batterie de variables : longueur des phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on s'en fait une idée en quelque seconde, mais ça pourrait être un objectif intéressant d'avoir une mesure plus objective de cela.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur un texte assez attendu (du genre "qu'elle sont les compétences que vous penser avoir ?"), obtenir des facteurs qui donnent des indices sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas d'idée ou d'expériences existantes en tête.
Quand au registre des aphasies, ça doit être le top !
Ca je connais pas du tout, c'est pas mon secteur ; mais ça doit être intéressant.
SL
In article , SL wrote:
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
Ah oui ; du grand RMS j'ai l'impression : FUD à mort, posture de victime, mais pas la moindre trace de sérieux dans son interprétation juridique.
In article <ur7a3dw1o.fsf@nospam.com>, SL wrote:
En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
Ah oui ; du grand RMS j'ai l'impression : FUD à mort, posture de
victime, mais pas la moindre trace de sérieux dans son interprétation
juridique.
En tout cas il marche toujours chez moi, avec un emacs assez frais pourtant. Avec une recherche rapide j'ai pas trouvé.
Tu as un élément par RMS lui-même à :
www.gnu.org/philosophy/censoring-emacs.fr.html
Ah oui ; du grand RMS j'ai l'impression : FUD à mort, posture de victime, mais pas la moindre trace de sérieux dans son interprétation juridique.
Michel Billaud
SL writes:
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait avoir une application dans les entretiens d'embauche. Par exemple, si on demande à un candidat d'écrire deux pages sur un sujet bateau (les motivations pour ce poste, ce qui fait qu'il pense être compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum (disons une cinquantaine grand minimum) d'autres textes fait dans les mêmes conditions et dont on connait les propriétés, des représentatiosn factorielles peuvent montrer de façon extrêmement robustes où se situe l'individu, par rapport à la norme grammaticale, à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça une batterie de variables : longueur des phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on s'en fait une idée en quelque seconde, mais ça pourrait être un objectif intéressant d'avoir une mesure plus objective de cela.
Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la façon attendue. Le même individu peut donc avoir à faire des phrases très longues dans certains contextes (par exemple rédaction d'actes administratifs, avec des tas de propositions subordonnées) et sujet-verbe-complément dans d'autres.
Ca donnera un logiciel de FAO de plus (Foutaises Assistées par Ordinateur), dont le seul but sera de remplacer les appreciations franchement subjectives assumées du genre "j'aime mieux la lettre de motivation de Machin" par des mesquineries sournoise du genre sur le critére C3, X a 32,5 alors que Y a 35, mais comme sur C8 Y a 17 contre 22 pour X, je recommande plutot X.
MB -- Michel BILLAUD LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792 351, cours de la Libération http://www.labri.fr/~billaud 33405 Talence (FRANCE)
SL <nospam@nospam.com> writes:
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple, si
on demande à un candidat d'écrire deux pages sur un sujet bateau (les
motivations pour ce poste, ce qui fait qu'il pense être compétent sur
ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum
(disons une cinquantaine grand minimum) d'autres textes fait dans les
mêmes conditions et dont on connait les propriétés, des
représentatiosn factorielles peuvent montrer de façon extrêmement
robustes où se situe l'individu, par rapport à la norme grammaticale,
à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça
une batterie de variables : longueur des phrases, nombre de
proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on
s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.
Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la
façon attendue. Le même individu peut donc avoir à faire des phrases
très longues dans certains contextes (par exemple rédaction d'actes
administratifs, avec des tas de propositions subordonnées) et
sujet-verbe-complément dans d'autres.
Ca donnera un logiciel de FAO de plus (Foutaises Assistées par Ordinateur),
dont le seul but sera de remplacer les appreciations franchement subjectives
assumées du genre "j'aime mieux la lettre de motivation de Machin" par des
mesquineries sournoise du genre sur le critére C3, X a 32,5 alors que Y a 35,
mais comme sur C8 Y a 17 contre 22 pour X, je recommande plutot X.
MB
--
Michel BILLAUD billaud@labri.fr
LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792
351, cours de la Libération http://www.labri.fr/~billaud
33405 Talence (FRANCE)
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait avoir une application dans les entretiens d'embauche. Par exemple, si on demande à un candidat d'écrire deux pages sur un sujet bateau (les motivations pour ce poste, ce qui fait qu'il pense être compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum (disons une cinquantaine grand minimum) d'autres textes fait dans les mêmes conditions et dont on connait les propriétés, des représentatiosn factorielles peuvent montrer de façon extrêmement robustes où se situe l'individu, par rapport à la norme grammaticale, à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça une batterie de variables : longueur des phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on s'en fait une idée en quelque seconde, mais ça pourrait être un objectif intéressant d'avoir une mesure plus objective de cela.
Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la façon attendue. Le même individu peut donc avoir à faire des phrases très longues dans certains contextes (par exemple rédaction d'actes administratifs, avec des tas de propositions subordonnées) et sujet-verbe-complément dans d'autres.
Ca donnera un logiciel de FAO de plus (Foutaises Assistées par Ordinateur), dont le seul but sera de remplacer les appreciations franchement subjectives assumées du genre "j'aime mieux la lettre de motivation de Machin" par des mesquineries sournoise du genre sur le critére C3, X a 32,5 alors que Y a 35, mais comme sur C8 Y a 17 contre 22 pour X, je recommande plutot X.
MB -- Michel BILLAUD LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792 351, cours de la Libération http://www.labri.fr/~billaud 33405 Talence (FRANCE)
costaclt
In article , SL wrote:
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par exemple), vu que ce sont souvent des produits d'origine académiques.
Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des .deb à la clé :)
Pour le cas de Cordial (je n'ai eu que les deux premières versions), ce qui était agaçant, c'est que le dispositif ne coïncidait pas exactement avec la présentation scolaire de la syntaxe. Et ce n'était peut-être pas la faute de Cordial. Mais son emploi pouvait embrouiller les gens.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance première cybernétique, IA première mouture en effet). Greimas n'est pas du tout une théorie formalisée, je ne vois pas tellement comment on peut espérer "l'implémenter" (?). Il a des concepts comme le carré sémiotiques, qui reprend des notions formelles ou logiques de contraires et contradictoires,
J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez Lavoisier Tec Doc. Effectivement, il mettait au centre les carrés sémiotiques et les arbres. Je ne me souviens pas d'une formalisation sur le schéma narratif par exemple.
mais sinon je ne vois pas tellement comment on peut espérer le formaliser. Greimas c'est quand même une couche de formalisme sur un substrat surrinterprétatif, un peu typique de cette époque (les "formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou de la psycho dégradé qui se réclament de Greimas. Le pauvre !
Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute façon, on continue toujours à utiliser du prolog ou du lisp, ou si on est passé à une toute autre modélisation et d'autres langages.
Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch, Identités Visuelles, Sous les signes, la stratégie etc. J'espère qu'il ne faisait pas partie du clan "charlatans".
Les "entretiens d'explicitation", je ne savais pas ce que c'était. C'est quand on demande à un professionnel de raconter ce qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de travaux dasn cette veine, sur l'acquisition automatique (ou plutôt l'assistance à l'acquisition) de terminologie. Le plus connus c'est Syntex de Bourigault : ça repère les syntagmes (après analyse morphosyntaxique) dans les documents qu'on lui propose pour les proposer à un "terminologue". Ca assiste le débouillement d'un corpus disons.
En fait, normalement "l'entretien d'explicitation", c'est surtout faire cracher à un personne les procédures de travail. Comment elle fait ce qu'elle fait en gros. C'est assez lié au knowledge management ou simplement aux normes Iso.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur un texte assez attendu (du genre "qu'elle sont les compétences que vous penser avoir ?"), obtenir des facteurs qui donnent des indices sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas d'idée ou d'expériences existantes en tête.
On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique, il faudrait retaper le texte manuscrit, faire un scan, avoir de multiples ordinateurs disponibles en même temps (souvent, les gens sont recrutés en groupe lorsqu'il s'agit de bas niveaux). Le problème est déjà l'organisation matérielle. Du coup, l'expérience et l'expertise permet de résoudre ce type de problèmes très rapidement. Mais au détriment de la recherche et de l'élaboration d'hypothèses de travail nouvelles.
En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à 10 mn pour savoir ce qu'il y a à savoir. Les structures sont répétitives. Ensuite, il va falloir des mois, voire des années pour que le patient "comprenne" lui- même ce qu'on a décelé en cinq minutes.
En revanche, cela serait très utile pour les organisations qui empruntent à d'autres structures leur mode défensif. Quand à la psychiatrie infantile, vu la dysharmonie évolutive, les cas sont d'une extrème complexité et on peut être mené en bateau pendant de semaines, voire des mois. Des outils informatiques d'analyse du discours ne seraient pas du luxe.
costaclt
In article <usluhbg2y.fsf@nospam.com>, SL wrote:
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par
exemple), vu que ce sont souvent des produits d'origine académiques.
Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des .deb
à la clé :)
Pour le cas de Cordial (je n'ai eu que les deux premières versions), ce
qui était agaçant, c'est que le dispositif ne coïncidait pas exactement
avec la présentation scolaire de la syntaxe. Et ce n'était peut-être pas
la faute de Cordial. Mais son emploi pouvait embrouiller les gens.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance
première cybernétique, IA première mouture en effet). Greimas n'est
pas du tout une théorie formalisée, je ne vois pas tellement comment
on peut espérer "l'implémenter" (?). Il a des concepts comme le carré
sémiotiques, qui reprend des notions formelles ou logiques de
contraires et contradictoires,
J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez Lavoisier
Tec Doc. Effectivement, il mettait au centre les carrés sémiotiques et les
arbres. Je ne me souviens pas d'une formalisation sur le schéma narratif
par exemple.
mais sinon je ne vois pas tellement
comment on peut espérer le formaliser. Greimas c'est quand même une
couche de formalisme sur un substrat surrinterprétatif, un peu typique
de cette époque (les "formules" de Lacan...). Ce qui a l'air
terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou
de la psycho dégradé qui se réclament de Greimas. Le pauvre !
Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute façon,
on continue toujours à utiliser du prolog ou du lisp, ou si on est passé
à une toute autre modélisation et d'autres langages.
Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch, Identités
Visuelles, Sous les signes, la stratégie etc. J'espère qu'il ne faisait pas
partie du clan "charlatans".
Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de
travaux dasn cette veine, sur l'acquisition automatique (ou plutôt
l'assistance à l'acquisition) de terminologie. Le plus connus c'est
Syntex de Bourigault : ça repère les syntagmes (après analyse
morphosyntaxique) dans les documents qu'on lui propose pour les
proposer à un "terminologue". Ca assiste le débouillement d'un corpus
disons.
En fait, normalement "l'entretien d'explicitation", c'est surtout faire
cracher à un personne les procédures de travail. Comment elle fait ce
qu'elle fait en gros. C'est assez lié au knowledge management ou simplement
aux normes Iso.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur
un texte assez attendu (du genre "qu'elle sont les compétences que
vous penser avoir ?"), obtenir des facteurs qui donnent des indices
sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas
d'idée ou d'expériences existantes en tête.
On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique, il
faudrait retaper le texte manuscrit, faire un scan, avoir de multiples
ordinateurs disponibles en même temps (souvent, les gens sont recrutés
en groupe lorsqu'il s'agit de bas niveaux). Le problème est déjà
l'organisation matérielle. Du coup, l'expérience et l'expertise permet de
résoudre ce type de problèmes très rapidement. Mais au détriment de la
recherche et de l'élaboration d'hypothèses de travail nouvelles.
En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à 10 mn
pour savoir ce qu'il y a à savoir. Les structures sont répétitives. Ensuite,
il va falloir des mois, voire des années pour que le patient "comprenne" lui-
même ce qu'on a décelé en cinq minutes.
En revanche, cela serait très utile pour les organisations qui empruntent
à d'autres structures leur mode défensif. Quand à la psychiatrie infantile,
vu la dysharmonie évolutive, les cas sont d'une extrème complexité et on
peut être mené en bateau pendant de semaines, voire des mois. Des outils
informatiques d'analyse du discours ne seraient pas du luxe.
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par exemple), vu que ce sont souvent des produits d'origine académiques.
Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des .deb à la clé :)
Pour le cas de Cordial (je n'ai eu que les deux premières versions), ce qui était agaçant, c'est que le dispositif ne coïncidait pas exactement avec la présentation scolaire de la syntaxe. Et ce n'était peut-être pas la faute de Cordial. Mais son emploi pouvait embrouiller les gens.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance première cybernétique, IA première mouture en effet). Greimas n'est pas du tout une théorie formalisée, je ne vois pas tellement comment on peut espérer "l'implémenter" (?). Il a des concepts comme le carré sémiotiques, qui reprend des notions formelles ou logiques de contraires et contradictoires,
J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez Lavoisier Tec Doc. Effectivement, il mettait au centre les carrés sémiotiques et les arbres. Je ne me souviens pas d'une formalisation sur le schéma narratif par exemple.
mais sinon je ne vois pas tellement comment on peut espérer le formaliser. Greimas c'est quand même une couche de formalisme sur un substrat surrinterprétatif, un peu typique de cette époque (les "formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou de la psycho dégradé qui se réclament de Greimas. Le pauvre !
Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute façon, on continue toujours à utiliser du prolog ou du lisp, ou si on est passé à une toute autre modélisation et d'autres langages.
Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch, Identités Visuelles, Sous les signes, la stratégie etc. J'espère qu'il ne faisait pas partie du clan "charlatans".
Les "entretiens d'explicitation", je ne savais pas ce que c'était. C'est quand on demande à un professionnel de raconter ce qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de travaux dasn cette veine, sur l'acquisition automatique (ou plutôt l'assistance à l'acquisition) de terminologie. Le plus connus c'est Syntex de Bourigault : ça repère les syntagmes (après analyse morphosyntaxique) dans les documents qu'on lui propose pour les proposer à un "terminologue". Ca assiste le débouillement d'un corpus disons.
En fait, normalement "l'entretien d'explicitation", c'est surtout faire cracher à un personne les procédures de travail. Comment elle fait ce qu'elle fait en gros. C'est assez lié au knowledge management ou simplement aux normes Iso.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur un texte assez attendu (du genre "qu'elle sont les compétences que vous penser avoir ?"), obtenir des facteurs qui donnent des indices sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas d'idée ou d'expériences existantes en tête.
On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique, il faudrait retaper le texte manuscrit, faire un scan, avoir de multiples ordinateurs disponibles en même temps (souvent, les gens sont recrutés en groupe lorsqu'il s'agit de bas niveaux). Le problème est déjà l'organisation matérielle. Du coup, l'expérience et l'expertise permet de résoudre ce type de problèmes très rapidement. Mais au détriment de la recherche et de l'élaboration d'hypothèses de travail nouvelles.
En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à 10 mn pour savoir ce qu'il y a à savoir. Les structures sont répétitives. Ensuite, il va falloir des mois, voire des années pour que le patient "comprenne" lui- même ce qu'on a décelé en cinq minutes.
En revanche, cela serait très utile pour les organisations qui empruntent à d'autres structures leur mode défensif. Quand à la psychiatrie infantile, vu la dysharmonie évolutive, les cas sont d'une extrème complexité et on peut être mené en bateau pendant de semaines, voire des mois. Des outils informatiques d'analyse du discours ne seraient pas du luxe.
costaclt
costaclt
In article , Michel Billaud wrote:
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on s'en fait une idée en quelque seconde, mais ça pourrait être un objectif intéressant d'avoir une mesure plus objective de cela.
Tu penses à Bernstein et à ses codes ? Sur le public "jeunes dans la panade", c'est que du code restreint maintenant. Imiter Ppda et présenter un faux journal télévisé, ça ne marche plus. Ce n'est même plus un problème d'adaptation codes / situations, mais carrément un problème de fixation sur un seul code restreint. Enfin, ce n'est pas folichon...
costaclt
In article <7z64rc4wp2.fsf@serveur5.labri.fr>, Michel Billaud wrote:
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on
s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.
Tu penses à Bernstein et à ses codes ? Sur le public "jeunes dans la panade",
c'est que du code restreint maintenant. Imiter Ppda et présenter un faux
journal télévisé, ça ne marche plus. Ce n'est même plus un problème
d'adaptation codes / situations, mais carrément un problème de fixation
sur un seul code restreint. Enfin, ce n'est pas folichon...
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on s'en fait une idée en quelque seconde, mais ça pourrait être un objectif intéressant d'avoir une mesure plus objective de cela.
Tu penses à Bernstein et à ses codes ? Sur le public "jeunes dans la panade", c'est que du code restreint maintenant. Imiter Ppda et présenter un faux journal télévisé, ça ne marche plus. Ce n'est même plus un problème d'adaptation codes / situations, mais carrément un problème de fixation sur un seul code restreint. Enfin, ce n'est pas folichon...