SL writes:Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple,
si on demande à un candidat d'écrire deux pages sur un sujet bateau
(les motivations pour ce poste, ce qui fait qu'il pense être
compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un
nombre minimum (disons une cinquantaine grand minimum) d'autres
textes fait dans les mêmes conditions et dont on connait les
propriétés, des représentatiosn factorielles peuvent montrer de
façon extrêmement robustes où se situe l'individu, par rapport à la
norme grammaticale, à la richesse du vocabulaire, etc. On peut
tirer d'un texte comme ça une batterie de variables : longueur des
phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ;
on s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.
Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la
façon attendue. Le même individu peut donc avoir à faire des phrases
très longues dans certains contextes (par exemple rédaction d'actes
administratifs, avec des tas de propositions subordonnées) et
sujet-verbe-complément dans d'autres.
Ca donnera un logiciel de FAO de plus (Foutaises Assistées par
Ordinateur), dont le seul but sera de remplacer les appreciations
franchement subjectives assumées du genre "j'aime mieux la lettre de
motivation de Machin" par des mesquineries sournoise du genre sur le
critére C3, X a 32,5 alors que Y a 35, mais comme sur C8 Y a 17
contre 22 pour X, je recommande plutot X.
SL <nospam@nospam.com> writes:
Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple,
si on demande à un candidat d'écrire deux pages sur un sujet bateau
(les motivations pour ce poste, ce qui fait qu'il pense être
compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un
nombre minimum (disons une cinquantaine grand minimum) d'autres
textes fait dans les mêmes conditions et dont on connait les
propriétés, des représentatiosn factorielles peuvent montrer de
façon extrêmement robustes où se situe l'individu, par rapport à la
norme grammaticale, à la richesse du vocabulaire, etc. On peut
tirer d'un texte comme ça une batterie de variables : longueur des
phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ;
on s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.
Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la
façon attendue. Le même individu peut donc avoir à faire des phrases
très longues dans certains contextes (par exemple rédaction d'actes
administratifs, avec des tas de propositions subordonnées) et
sujet-verbe-complément dans d'autres.
Ca donnera un logiciel de FAO de plus (Foutaises Assistées par
Ordinateur), dont le seul but sera de remplacer les appreciations
franchement subjectives assumées du genre "j'aime mieux la lettre de
motivation de Machin" par des mesquineries sournoise du genre sur le
critére C3, X a 32,5 alors que Y a 35, mais comme sur C8 Y a 17
contre 22 pour X, je recommande plutot X.
SL writes:Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple,
si on demande à un candidat d'écrire deux pages sur un sujet bateau
(les motivations pour ce poste, ce qui fait qu'il pense être
compétent sur ce poste, etc.) et qu'on dispose par ailleurs d'un
nombre minimum (disons une cinquantaine grand minimum) d'autres
textes fait dans les mêmes conditions et dont on connait les
propriétés, des représentatiosn factorielles peuvent montrer de
façon extrêmement robustes où se situe l'individu, par rapport à la
norme grammaticale, à la richesse du vocabulaire, etc. On peut
tirer d'un texte comme ça une batterie de variables : longueur des
phrases, nombre de proposition par phrase, etc.
Jusque là ça montre uniquement le degré de maîtrise de la langue ;
on s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.
Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la
façon attendue. Le même individu peut donc avoir à faire des phrases
très longues dans certains contextes (par exemple rédaction d'actes
administratifs, avec des tas de propositions subordonnées) et
sujet-verbe-complément dans d'autres.
Ca donnera un logiciel de FAO de plus (Foutaises Assistées par
Ordinateur), dont le seul but sera de remplacer les appreciations
franchement subjectives assumées du genre "j'aime mieux la lettre de
motivation de Machin" par des mesquineries sournoise du genre sur le
critére C3, X a 32,5 alors que Y a 35, mais comme sur C8 Y a 17
contre 22 pour X, je recommande plutot X.
In article , SL wrote:Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT
par exemple), vu que ce sont souvent des produits d'origine
académiques.
Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des
.deb à la clé :)
Pour le cas de Cordial (je n'ai eu que les deux premières versions),
ce qui était agaçant, c'est que le dispositif ne coïncidait pas
exactement avec la présentation scolaire de la syntaxe. Et ce
n'était peut-être pas la faute de Cordial. Mais son emploi pouvait
embrouiller les gens.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu
ambiance première cybernétique, IA première mouture en
effet). Greimas n'est pas du tout une théorie formalisée, je ne
vois pas tellement comment on peut espérer "l'implémenter" (?). Il
a des concepts comme le carré sémiotiques, qui reprend des notions
formelles ou logiques de contraires et contradictoires,
J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez
Lavoisier Tec Doc.
mais sinon je ne vois pas tellement comment on peut espérer le
formaliser. Greimas c'est quand même une couche de formalisme sur
un substrat surrinterprétatif, un peu typique de cette époque (les
"formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre
de charlatant dans l'analyse de contenu ou de la psycho dégradé qui
se réclament de Greimas. Le pauvre !
Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute
façon, on continue toujours à utiliser du prolog ou du lisp, ou si
on est passé à une toute autre modélisation et d'autres langages.
Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch,
Identités Visuelles, Sous les signes, la stratégie etc. J'espère
qu'il ne faisait pas partie du clan "charlatans".
Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins
de travaux dasn cette veine, sur l'acquisition automatique (ou
plutôt l'assistance à l'acquisition) de terminologie. Le plus
connus c'est Syntex de Bourigault : ça repère les syntagmes (après
analyse morphosyntaxique) dans les documents qu'on lui propose pour
les proposer à un "terminologue". Ca assiste le débouillement d'un
corpus disons.
En fait, normalement "l'entretien d'explicitation", c'est surtout
faire cracher à un personne les procédures de travail. Comment elle
fait ce qu'elle fait en gros. C'est assez lié au knowledge
management ou simplement aux normes Iso.J'imagine qu'on doit pouvoir, en utilisant les variables lexicales
sur un texte assez attendu (du genre "qu'elle sont les compétences
que vous penser avoir ?"), obtenir des facteurs qui donnent des
indices sur des personnalités. Mais c'est de la pure spéculation,
je n'ai pas d'idée ou d'expériences existantes en tête.
On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique,
il faudrait retaper le texte manuscrit, faire un scan, avoir de
multiples ordinateurs disponibles en même temps (souvent, les gens
sont recrutés en groupe lorsqu'il s'agit de bas niveaux). Le
problème est déjà l'organisation matérielle. Du coup, l'expérience
et l'expertise permet de résoudre ce type de problèmes très
rapidement. Mais au détriment de la recherche et de l'élaboration
d'hypothèses de travail nouvelles.
En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à
10 mn pour savoir ce qu'il y a à savoir. Les structures sont
répétitives. Ensuite, il va falloir des mois, voire des années pour
que le patient "comprenne" lui- même ce qu'on a décelé en cinq
minutes.
En revanche, cela serait très utile pour les organisations qui
empruntent à d'autres structures leur mode défensif. Quand à la
psychiatrie infantile, vu la dysharmonie évolutive, les cas sont
d'une extrème complexité et on peut être mené en bateau pendant de
semaines, voire des mois. Des outils informatiques d'analyse du
discours ne seraient pas du luxe.
In article <usluhbg2y.fsf@nospam.com>, SL wrote:
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT
par exemple), vu que ce sont souvent des produits d'origine
académiques.
Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des
.deb à la clé :)
Pour le cas de Cordial (je n'ai eu que les deux premières versions),
ce qui était agaçant, c'est que le dispositif ne coïncidait pas
exactement avec la présentation scolaire de la syntaxe. Et ce
n'était peut-être pas la faute de Cordial. Mais son emploi pouvait
embrouiller les gens.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu
ambiance première cybernétique, IA première mouture en
effet). Greimas n'est pas du tout une théorie formalisée, je ne
vois pas tellement comment on peut espérer "l'implémenter" (?). Il
a des concepts comme le carré sémiotiques, qui reprend des notions
formelles ou logiques de contraires et contradictoires,
J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez
Lavoisier Tec Doc.
mais sinon je ne vois pas tellement comment on peut espérer le
formaliser. Greimas c'est quand même une couche de formalisme sur
un substrat surrinterprétatif, un peu typique de cette époque (les
"formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre
de charlatant dans l'analyse de contenu ou de la psycho dégradé qui
se réclament de Greimas. Le pauvre !
Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute
façon, on continue toujours à utiliser du prolog ou du lisp, ou si
on est passé à une toute autre modélisation et d'autres langages.
Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch,
Identités Visuelles, Sous les signes, la stratégie etc. J'espère
qu'il ne faisait pas partie du clan "charlatans".
Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins
de travaux dasn cette veine, sur l'acquisition automatique (ou
plutôt l'assistance à l'acquisition) de terminologie. Le plus
connus c'est Syntex de Bourigault : ça repère les syntagmes (après
analyse morphosyntaxique) dans les documents qu'on lui propose pour
les proposer à un "terminologue". Ca assiste le débouillement d'un
corpus disons.
En fait, normalement "l'entretien d'explicitation", c'est surtout
faire cracher à un personne les procédures de travail. Comment elle
fait ce qu'elle fait en gros. C'est assez lié au knowledge
management ou simplement aux normes Iso.
J'imagine qu'on doit pouvoir, en utilisant les variables lexicales
sur un texte assez attendu (du genre "qu'elle sont les compétences
que vous penser avoir ?"), obtenir des facteurs qui donnent des
indices sur des personnalités. Mais c'est de la pure spéculation,
je n'ai pas d'idée ou d'expériences existantes en tête.
On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique,
il faudrait retaper le texte manuscrit, faire un scan, avoir de
multiples ordinateurs disponibles en même temps (souvent, les gens
sont recrutés en groupe lorsqu'il s'agit de bas niveaux). Le
problème est déjà l'organisation matérielle. Du coup, l'expérience
et l'expertise permet de résoudre ce type de problèmes très
rapidement. Mais au détriment de la recherche et de l'élaboration
d'hypothèses de travail nouvelles.
En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à
10 mn pour savoir ce qu'il y a à savoir. Les structures sont
répétitives. Ensuite, il va falloir des mois, voire des années pour
que le patient "comprenne" lui- même ce qu'on a décelé en cinq
minutes.
En revanche, cela serait très utile pour les organisations qui
empruntent à d'autres structures leur mode défensif. Quand à la
psychiatrie infantile, vu la dysharmonie évolutive, les cas sont
d'une extrème complexité et on peut être mené en bateau pendant de
semaines, voire des mois. Des outils informatiques d'analyse du
discours ne seraient pas du luxe.
In article , SL wrote:Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT
par exemple), vu que ce sont souvent des produits d'origine
académiques.
Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des
.deb à la clé :)
Pour le cas de Cordial (je n'ai eu que les deux premières versions),
ce qui était agaçant, c'est que le dispositif ne coïncidait pas
exactement avec la présentation scolaire de la syntaxe. Et ce
n'était peut-être pas la faute de Cordial. Mais son emploi pouvait
embrouiller les gens.
Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu
ambiance première cybernétique, IA première mouture en
effet). Greimas n'est pas du tout une théorie formalisée, je ne
vois pas tellement comment on peut espérer "l'implémenter" (?). Il
a des concepts comme le carré sémiotiques, qui reprend des notions
formelles ou logiques de contraires et contradictoires,
J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez
Lavoisier Tec Doc.
mais sinon je ne vois pas tellement comment on peut espérer le
formaliser. Greimas c'est quand même une couche de formalisme sur
un substrat surrinterprétatif, un peu typique de cette époque (les
"formules" de Lacan...). Ce qui a l'air terrifiant c'est le nombre
de charlatant dans l'analyse de contenu ou de la psycho dégradé qui
se réclament de Greimas. Le pauvre !
Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute
façon, on continue toujours à utiliser du prolog ou du lisp, ou si
on est passé à une toute autre modélisation et d'autres langages.
Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch,
Identités Visuelles, Sous les signes, la stratégie etc. J'espère
qu'il ne faisait pas partie du clan "charlatans".
Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins
de travaux dasn cette veine, sur l'acquisition automatique (ou
plutôt l'assistance à l'acquisition) de terminologie. Le plus
connus c'est Syntex de Bourigault : ça repère les syntagmes (après
analyse morphosyntaxique) dans les documents qu'on lui propose pour
les proposer à un "terminologue". Ca assiste le débouillement d'un
corpus disons.
En fait, normalement "l'entretien d'explicitation", c'est surtout
faire cracher à un personne les procédures de travail. Comment elle
fait ce qu'elle fait en gros. C'est assez lié au knowledge
management ou simplement aux normes Iso.J'imagine qu'on doit pouvoir, en utilisant les variables lexicales
sur un texte assez attendu (du genre "qu'elle sont les compétences
que vous penser avoir ?"), obtenir des facteurs qui donnent des
indices sur des personnalités. Mais c'est de la pure spéculation,
je n'ai pas d'idée ou d'expériences existantes en tête.
On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique,
il faudrait retaper le texte manuscrit, faire un scan, avoir de
multiples ordinateurs disponibles en même temps (souvent, les gens
sont recrutés en groupe lorsqu'il s'agit de bas niveaux). Le
problème est déjà l'organisation matérielle. Du coup, l'expérience
et l'expertise permet de résoudre ce type de problèmes très
rapidement. Mais au détriment de la recherche et de l'élaboration
d'hypothèses de travail nouvelles.
En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à
10 mn pour savoir ce qu'il y a à savoir. Les structures sont
répétitives. Ensuite, il va falloir des mois, voire des années pour
que le patient "comprenne" lui- même ce qu'on a décelé en cinq
minutes.
En revanche, cela serait très utile pour les organisations qui
empruntent à d'autres structures leur mode défensif. Quand à la
psychiatrie infantile, vu la dysharmonie évolutive, les cas sont
d'une extrème complexité et on peut être mené en bateau pendant de
semaines, voire des mois. Des outils informatiques d'analyse du
discours ne seraient pas du luxe.
Invoquer Greimas pour des systèmes experts, c'est toute une
époque... :-)
Pour autant que je sache (c'est à dire pas grand chose) l'IA est
toujours associée à ces langages : ils correspondent toujours à ses
besoins ; c'est plutôt l'IA elle même, du fait de son projet
scientifique, qui ne peut plus faire grand chose
actuellement. L'"intelligence artificiel" stricto sensu peut encore
vaguement inspirer des projets encore aujourd'hui (au CEA par exemple
il y a avait un projet de modélisation d'un bébé artificiel il y a
peu), mais les réalisations concrètes que je vois ne font pas ces
hypothèses et ont des stragéties beaucoup plus utilitaristes.
Ca doit exister non ? Les outils d'analyse automatique de contenu sont
en tout cas répendu hors recherche par exemple il y a des boîtes
d'analyses de contenu, ou dans des boîtes de com', c'est bizarre que
ce n'est pas été adopté pour ces applications.
Invoquer Greimas pour des systèmes experts, c'est toute une
époque... :-)
Pour autant que je sache (c'est à dire pas grand chose) l'IA est
toujours associée à ces langages : ils correspondent toujours à ses
besoins ; c'est plutôt l'IA elle même, du fait de son projet
scientifique, qui ne peut plus faire grand chose
actuellement. L'"intelligence artificiel" stricto sensu peut encore
vaguement inspirer des projets encore aujourd'hui (au CEA par exemple
il y a avait un projet de modélisation d'un bébé artificiel il y a
peu), mais les réalisations concrètes que je vois ne font pas ces
hypothèses et ont des stragéties beaucoup plus utilitaristes.
Ca doit exister non ? Les outils d'analyse automatique de contenu sont
en tout cas répendu hors recherche par exemple il y a des boîtes
d'analyses de contenu, ou dans des boîtes de com', c'est bizarre que
ce n'est pas été adopté pour ces applications.
Invoquer Greimas pour des systèmes experts, c'est toute une
époque... :-)
Pour autant que je sache (c'est à dire pas grand chose) l'IA est
toujours associée à ces langages : ils correspondent toujours à ses
besoins ; c'est plutôt l'IA elle même, du fait de son projet
scientifique, qui ne peut plus faire grand chose
actuellement. L'"intelligence artificiel" stricto sensu peut encore
vaguement inspirer des projets encore aujourd'hui (au CEA par exemple
il y a avait un projet de modélisation d'un bébé artificiel il y a
peu), mais les réalisations concrètes que je vois ne font pas ces
hypothèses et ont des stragéties beaucoup plus utilitaristes.
Ca doit exister non ? Les outils d'analyse automatique de contenu sont
en tout cas répendu hors recherche par exemple il y a des boîtes
d'analyses de contenu, ou dans des boîtes de com', c'est bizarre que
ce n'est pas été adopté pour ces applications.
In article , SL wrote:Invoquer Greimas pour des systèmes experts, c'est toute une
époque... :-)
Pourtant, je viens de rechercher sur le web, ça n'a pas l'air d'avoir été
abandonné, loin de là.
Ce que j'en ai vu avait toujours un peu trop tendance à considérer
que c'était le réel qui posait problème et non les modèles.
La guerre des modèles est terrible. Mais, en gros, il y a convergence
sur la démarche lacanienne (même si elle prend une toute autre forme chez
tel ou tel auteur) : la relation première est d'abord imaginaire. Ou le
principe de la pré-éminence de l'intersubjectivité est acquis chez tout
le monde. C'est un malade précis avec un médecin précis, tous deux pris
dans leur totalité, qui forme la relation à modéliser. Tu parles
d'un boulot!
In article <upspkbra7.fsf@nospam.com>, SL wrote:
Invoquer Greimas pour des systèmes experts, c'est toute une
époque... :-)
Pourtant, je viens de rechercher sur le web, ça n'a pas l'air d'avoir été
abandonné, loin de là.
Ce que j'en ai vu avait toujours un peu trop tendance à considérer
que c'était le réel qui posait problème et non les modèles.
La guerre des modèles est terrible. Mais, en gros, il y a convergence
sur la démarche lacanienne (même si elle prend une toute autre forme chez
tel ou tel auteur) : la relation première est d'abord imaginaire. Ou le
principe de la pré-éminence de l'intersubjectivité est acquis chez tout
le monde. C'est un malade précis avec un médecin précis, tous deux pris
dans leur totalité, qui forme la relation à modéliser. Tu parles
d'un boulot!
In article , SL wrote:Invoquer Greimas pour des systèmes experts, c'est toute une
époque... :-)
Pourtant, je viens de rechercher sur le web, ça n'a pas l'air d'avoir été
abandonné, loin de là.
Ce que j'en ai vu avait toujours un peu trop tendance à considérer
que c'était le réel qui posait problème et non les modèles.
La guerre des modèles est terrible. Mais, en gros, il y a convergence
sur la démarche lacanienne (même si elle prend une toute autre forme chez
tel ou tel auteur) : la relation première est d'abord imaginaire. Ou le
principe de la pré-éminence de l'intersubjectivité est acquis chez tout
le monde. C'est un malade précis avec un médecin précis, tous deux pris
dans leur totalité, qui forme la relation à modéliser. Tu parles
d'un boulot!
Les systèmes experts c'était surtout les années 80 non ?
Les systèmes experts c'était surtout les années 80 non ?
Les systèmes experts c'était surtout les années 80 non ?
Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle
Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle
Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle
Et c'est censé démontrer quoi? Qu'il est difficile de maintenir à jour
des XP piratés? Ben c'est le but que recherche Microsoft, non?
Tu viens de découvrir une triste vérité: un programme commercial
fonctionne mieux quand il s'agit d'une version légalement achetée.
Et c'est censé démontrer quoi? Qu'il est difficile de maintenir à jour
des XP piratés? Ben c'est le but que recherche Microsoft, non?
Tu viens de découvrir une triste vérité: un programme commercial
fonctionne mieux quand il s'agit d'une version légalement achetée.
Et c'est censé démontrer quoi? Qu'il est difficile de maintenir à jour
des XP piratés? Ben c'est le but que recherche Microsoft, non?
Tu viens de découvrir une triste vérité: un programme commercial
fonctionne mieux quand il s'agit d'une version légalement achetée.
Jerome Lambert wrote:Et c'est censé démontrer quoi? Qu'il est difficile de maintenir à jour
des XP piratés? Ben c'est le but que recherche Microsoft, non?
Tu viens de découvrir une triste vérité: un programme commercial
fonctionne mieux quand il s'agit d'une version légalement achetée.
ROFTL !!
Tu crois vraiment que ça change quoi que ce soit ?
Qu'ils ont ajouté
quelques bugs pour la version enregistrée (full features) ?
Jerome Lambert wrote:
Et c'est censé démontrer quoi? Qu'il est difficile de maintenir à jour
des XP piratés? Ben c'est le but que recherche Microsoft, non?
Tu viens de découvrir une triste vérité: un programme commercial
fonctionne mieux quand il s'agit d'une version légalement achetée.
ROFTL !!
Tu crois vraiment que ça change quoi que ce soit ?
Qu'ils ont ajouté
quelques bugs pour la version enregistrée (full features) ?
Jerome Lambert wrote:Et c'est censé démontrer quoi? Qu'il est difficile de maintenir à jour
des XP piratés? Ben c'est le but que recherche Microsoft, non?
Tu viens de découvrir une triste vérité: un programme commercial
fonctionne mieux quand il s'agit d'une version légalement achetée.
ROFTL !!
Tu crois vraiment que ça change quoi que ce soit ?
Qu'ils ont ajouté
quelques bugs pour la version enregistrée (full features) ?
Je ne vois pas le rapport. On parle de difficulté de mise à jour, pas
des bugs de XP...
Je ne vois pas le rapport. On parle de difficulté de mise à jour, pas
des bugs de XP...
Je ne vois pas le rapport. On parle de difficulté de mise à jour, pas
des bugs de XP...
On Wed, 02 Nov 2005 23:41:23 +0100, Jerome Lambert wrote:Je ne vois pas le rapport. On parle de difficulté de mise à jour, pas
des bugs de XP...
Les mises à jour peuvent introduire des bugs subtils et volontaire.
On peut très bien imaginer que pour les XP piratés, il introduisent
quelques bugs de fonctionnement.
Je sais, je sais, le rapport avec Linux n'est pas palpable, mais il fut un
temps ou "mauvaise foi envers windows" était assimilée à "Linuxien".
On Wed, 02 Nov 2005 23:41:23 +0100, Jerome Lambert wrote:
Je ne vois pas le rapport. On parle de difficulté de mise à jour, pas
des bugs de XP...
Les mises à jour peuvent introduire des bugs subtils et volontaire.
On peut très bien imaginer que pour les XP piratés, il introduisent
quelques bugs de fonctionnement.
Je sais, je sais, le rapport avec Linux n'est pas palpable, mais il fut un
temps ou "mauvaise foi envers windows" était assimilée à "Linuxien".
On Wed, 02 Nov 2005 23:41:23 +0100, Jerome Lambert wrote:Je ne vois pas le rapport. On parle de difficulté de mise à jour, pas
des bugs de XP...
Les mises à jour peuvent introduire des bugs subtils et volontaire.
On peut très bien imaginer que pour les XP piratés, il introduisent
quelques bugs de fonctionnement.
Je sais, je sais, le rapport avec Linux n'est pas palpable, mais il fut un
temps ou "mauvaise foi envers windows" était assimilée à "Linuxien".