OVH Cloud OVH Cloud

On verra qui tiendra

53 réponses
Avatar
R12y
Bonjour,

Mouarf...

Pour des raisons professionelles j'ai dû, et je dois
encore d'ailleurs, écrire de la documentation d'installation pour un
logiciel libre ausi bien sous Linux que sous Windows et ce, en Anglais et
en Français.

Etant d'un moralité condamnable et ayant le raisonnement qu'on me connait,
et comme je n'aime pas Windows (malgré le bien que beaucoup en pensent).
J'ai trouvé "dégoutant" de faire de la doc pour les Windows users, cela ne
ferait que les conforter dans leur "croyances" (que c'est bien de rester
sous Windows)...
Je me suis dit que je n'allais pas en plus acheter 2 Windows (un anglais
et un français) pour ça.
Je passe donc un coup de fil à mon frangin qui lui est spécialiste de
la bidouille Windowsienne et lui demande de me fournir ce qu'il faut.
Au bout de quelques heures j'ai un beau quadri boot sur mon PC de test
(Debian, Fedora, XP-Fr et XP-En).
A peine installé, je me dit que c'est une bonne idée de se mettre à jour,
je commence par XP-Fr.

for i in 1 to 5 do :
Windows update
rebooot

D'accord.

Je place maintenant le boot par défaut des windows sur celui English, un
coup de windows update et là: Invalid key product. Normal me dis-je, je
n'ai rien acheté. Bon au pire si il m'arrive quelquehose, je réinsalle.
La raçon de l'utilisation frauduleuse.
Je passe quand même un coup de fil à mon frère pour qu'il me change mon
product ID

for i in 1 to 24:
change_product_id
reboot
windows update

Il veut rien savoir: Product Key/Id invalid.
Donc je suis en train de tourner avec un XP/"SP je sais pas combien"
forcément dangereux. Je laisse faire.

Hier soir, j'éteints mon XP pour rebooter sous la Fedora pour faire un rpm.
J'allume l'autre PC (portable et tente un ssh: connection refused). Ah
tiens! problème au reboot? Je reviens sur la machine,
Eh ben non: "Please Wait, Installing update 1 of 9, windows will shut down
automatically".
Ah quand meme, il installe quand il veut!
Je me disais bien que vu le nombre de Windows "illégaux", ils n'allaient
pas prendre le risque de refuser les updates aux gens, surtout si ce sont
des "big holes".
Bon alors du coup, ce que je fais, c'est que je les laisse faire. Ils se
débrouillent finalement très bien tous seuls...

--
Rakotomandimby Mihamina,
http://aspo.rktmb.org/activites/infogerance
Serveurs* sous Debian, Fedora...
(*) Serveurs!?: http://fr.search.yahoo.com/search?p=serveurs+dedies

10 réponses

2 3 4 5 6
Avatar
SL
In article , SL wrote:
C'est quoi cette histoire ?


Si ma mémoire est bonne, RMS avait été sommé de virer ce truc de son
Emacs pour cause d'indécence ou une chose de ce genre.


En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.

Ça me fait penser aux emmerdements qu'avait eu Cordial parce que
des utilisateurs de Word avaient constaté que parmi les synonymes
suggérés pour "antistress" il y avait "anti-arabes" ou quelque
chose comme ça.


Cordial, le logiciel grammaire avec une analyse linguistique
sous-jacente ? Il était génial ce soft. Je l'avais lors de sa
première sortie (en HD) et quand je recherchais où ils avaient mis
le plombage, j'étais tombé en hexa sur une phrase "Vous devenez
vraiment trop curieux !". J'ai jamais réussi à virer la protection
d'ailleurs.


:-) Faut dire que c'est leur trésor... Dans les dernières versions il
faut même donner un numéro de machine je crois pour qu'il soit activé.
Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations
d'analyseurs l'ont souvent classés premier.

Le problème en question (antiarable/antistress) venait d'utilisation
de statistique ou un truc comme ça, qui rapprochait les deux formes
sur je ne sais pas quel critère formel, mais ça a vite fait de faire
un scandale et Dominique Laurent (l'auteur du soft) avait même dû se
justifier sur les plateaux de télé si je me souviens bien. D'ailleurs
c'est un emmerdement pour les éditeurs de ce genre de méprise ; je
suis tombé sur ça justement hier (un chercheur du Natural language
group de Microsoft) :

http://aixtal.blogspot.com/2005/10/ortograf-repart-chez-microsoft.html#c112965393026904248


Avatar
costaclt
In article , SL wrote:
En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.


Tu as un élément par RMS lui-même à :

www.gnu.org/philosophy/censoring-emacs.fr.html

:-) Faut dire que c'est leur trésor... Dans les dernières versions il
faut même donner un numéro de machine je crois pour qu'il soit activé.
Et c'est vrai que c'est un excellent soft. Les campagnes d'évaluations
d'analyseurs l'ont souvent classés premier.


Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc) peut
exister en libre. J'avais un peu cherché en IA à partir d'un bouquin qui
associait lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais
déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on trouvait
aux puces un turbo-prolog de Borland ayant fait long feu et lent...mais
lent!). Et entre les différentes versions de lisp (syntaxe d'Edinbourg etc.),
c'était un peu prise de tête pour un résultat que tout le mondre prévoyait
comme désastreux de toute façon.

Je ne m'en suis plus occupé depuis, mais passer de temps en temps un discours
genre "entretien d'explicitation" (faire cracher les processus employés
dans une activité) ou un entretien "biographique", dans ce type de moulinette,
ça doit être sympa.

Quand au registre des aphasies, ça doit être le top !

costaclt

Avatar
nicolas vigier
On 2005-10-27, Manuel Leclerc wrote:

Bof, tu sais, M$, ils sont un peu cons.


Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle est
exactement la version de FireFox livrée avec la
Mandriva 2006 ?


http://distrowatch.com/table.php?distribution=mandriva

FireFox 1.0.6.

--
- http://n0x.org/


Avatar
professeur Méphisto (Christian)
Thierry Boudet a écrit :

http://62.212.109.174/lol.gif


Ça dépend... est-ce qu'"IL" le mange après ?

Avatar
Manuel Leclerc

Manuel Leclerc wrote:


Bof, tu sais, M$, ils sont un peu cons.


Oui, on sait. A part ça, et ça n'a aucun rapport,
est-ce que quelqu'un pourrait me dire qu'elle est
exactement la version de FireFox livrée avec la
Mandriva 2006 ?


http://distrowatch.com/table.php?distribution=mandriva

FireFox 1.0.6.


Merci. Mais la fondation signale que deux des correctifs
de la 1.0.7 sont peut être exploitables et je ne trouve pas
trace de correctifs Mandriva correspondants. C'est pas plutôt
la 1.0.7 dans Mandriva 2006 ????

--
Due to its recent bankruptcy, we are removing this stock from
our recommended buy list.
--rumblin'rabbit's sig on /.



Avatar
SL
In article , SL wrote:

En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.


Tu as un élément par RMS lui-même à :

www.gnu.org/philosophy/censoring-emacs.fr.html

:-) Faut dire que c'est leur trésor... Dans les dernières versions
il faut même donner un numéro de machine je crois pour qu'il soit
activé. Et c'est vrai que c'est un excellent soft. Les campagnes
d'évaluations d'analyseurs l'ont souvent classés premier.


Je ne sais pas si un truc pareil (analyse lexicale, sémantique etc)
peut exister en libre.


Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par
exemple), vu que ce sont souvent des produits d'origine académiques.

J'avais un peu cherché en IA à partir d'un bouquin qui associait
lisp/prolog et les analyses sémiotiques d'Aljerdas Greimas. Mais
déjà le prolog vendu par la fac de luminy coûtait la peau du cul (on
trouvait aux puces un turbo-prolog de Borland ayant fait long feu et
lent...mais lent!). Et entre les différentes versions de lisp
(syntaxe d'Edinbourg etc.), c'était un peu prise de tête pour un
résultat que tout le mondre prévoyait comme désastreux de toute
façon.


Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance
première cybernétique, IA première mouture en effet). Greimas n'est
pas du tout une théorie formalisée, je ne vois pas tellement comment
on peut espérer "l'implémenter" (?). Il a des concepts comme le carré
sémiotiques, qui reprend des notions formelles ou logiques de
contraires et contradictoires, mais sinon je ne vois pas tellement
comment on peut espérer le formaliser. Greimas c'est quand même une
couche de formalisme sur un substrat surrinterprétatif, un peu typique
de cette époque (les "formules" de Lacan...). Ce qui a l'air
terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou
de la psycho dégradé qui se réclament de Greimas. Le pauvre !

Je ne m'en suis plus occupé depuis, mais passer de temps en temps un
discours genre "entretien d'explicitation" (faire cracher les
processus employés dans une activité) ou un entretien
"biographique", dans ce type de moulinette, ça doit être sympa.


Pour ce genre d'analyse, et les analyses lexicales ou sémantiques dont
vous parliez plus haut, il y a aussi des logiciels libres ou plus ou
moins libre. C'est très robustes, très (sur-)interprétable, et on perd
rarement son temps. Par exemple de disponible gratuitement il y a
Lexico3. Il doit y en avoir d'autre mais ils ne me viennent pas à
l'esprit. Il y a en a beaucoup d'origine académique, pas vraiment
libre mais distribués entre labo.

Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de
travaux dasn cette veine, sur l'acquisition automatique (ou plutôt
l'assistance à l'acquisition) de terminologie. Le plus connus c'est
Syntex de Bourigault : ça repère les syntagmes (après analyse
morphosyntaxique) dans les documents qu'on lui propose pour les
proposer à un "terminologue". Ca assiste le débouillement d'un corpus
disons.

Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple, si
on demande à un candidat d'écrire deux pages sur un sujet bateau (les
motivations pour ce poste, ce qui fait qu'il pense être compétent sur
ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum
(disons une cinquantaine grand minimum) d'autres textes fait dans les
mêmes conditions et dont on connait les propriétés, des
représentatiosn factorielles peuvent montrer de façon extrêmement
robustes où se situe l'individu, par rapport à la norme grammaticale,
à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça
une batterie de variables : longueur des phrases, nombre de
proposition par phrase, etc.

Jusque là ça montre uniquement le degré de maîtrise de la langue ; on
s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.

J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur
un texte assez attendu (du genre "qu'elle sont les compétences que
vous penser avoir ?"), obtenir des facteurs qui donnent des indices
sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas
d'idée ou d'expériences existantes en tête.

Quand au registre des aphasies, ça doit être le top !


Ca je connais pas du tout, c'est pas mon secteur ; mais ça doit être
intéressant.


Avatar
SL
In article , SL wrote:

En tout cas il marche toujours chez moi, avec un emacs assez frais
pourtant. Avec une recherche rapide j'ai pas trouvé.


Tu as un élément par RMS lui-même à :

www.gnu.org/philosophy/censoring-emacs.fr.html


Ah oui ; du grand RMS j'ai l'impression : FUD à mort, posture de
victime, mais pas la moindre trace de sérieux dans son interprétation
juridique.


Avatar
Michel Billaud
SL writes:

Par parenthèse, des tests avec ce genre de méthodologie ça pourrait
avoir une application dans les entretiens d'embauche. Par exemple, si
on demande à un candidat d'écrire deux pages sur un sujet bateau (les
motivations pour ce poste, ce qui fait qu'il pense être compétent sur
ce poste, etc.) et qu'on dispose par ailleurs d'un nombre minimum
(disons une cinquantaine grand minimum) d'autres textes fait dans les
mêmes conditions et dont on connait les propriétés, des
représentatiosn factorielles peuvent montrer de façon extrêmement
robustes où se situe l'individu, par rapport à la norme grammaticale,
à la richesse du vocabulaire, etc. On peut tirer d'un texte comme ça
une batterie de variables : longueur des phrases, nombre de
proposition par phrase, etc.

Jusque là ça montre uniquement le degré de maîtrise de la langue ; on
s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.


Pas forcément. La maîtrise de la langue, c'est de s'exprimer de la
façon attendue. Le même individu peut donc avoir à faire des phrases
très longues dans certains contextes (par exemple rédaction d'actes
administratifs, avec des tas de propositions subordonnées) et
sujet-verbe-complément dans d'autres.

Ca donnera un logiciel de FAO de plus (Foutaises Assistées par Ordinateur),
dont le seul but sera de remplacer les appreciations franchement subjectives
assumées du genre "j'aime mieux la lettre de motivation de Machin" par des
mesquineries sournoise du genre sur le critére C3, X a 32,5 alors que Y a 35,
mais comme sur C8 Y a 17 contre 22 pour X, je recommande plutot X.

MB
--
Michel BILLAUD
LABRI-Université Bordeaux I tel 05 4000 6922 / 05 5684 5792
351, cours de la Libération http://www.labri.fr/~billaud
33405 Talence (FRANCE)

Avatar
costaclt
In article , SL wrote:
Cordial c'est plutôt de l'analyse morphosyntaxique. Il y a des
analyseurs morphosyntaxiques sous licence libre (TreeTagger, TnT par
exemple), vu que ce sont souvent des produits d'origine académiques.


Tiens je vais rechercher TreeTagger et Tnt. J'espère qu'il y a des .deb
à la clé :)

Pour le cas de Cordial (je n'ai eu que les deux premières versions), ce
qui était agaçant, c'est que le dispositif ne coïncidait pas exactement
avec la présentation scolaire de la syntaxe. Et ce n'était peut-être pas
la faute de Cordial. Mais son emploi pouvait embrouiller les gens.


Ouf, en effet :-) Si ça peut vous rassurer, ce genre de projet naïf
n'ont plus tellement d'actualité scientifique (ça fait un peu ambiance
première cybernétique, IA première mouture en effet). Greimas n'est
pas du tout une théorie formalisée, je ne vois pas tellement comment
on peut espérer "l'implémenter" (?). Il a des concepts comme le carré
sémiotiques, qui reprend des notions formelles ou logiques de
contraires et contradictoires,


J'étais parti d'un bouquin de JL Ermine, Systèmes Experts chez Lavoisier
Tec Doc. Effectivement, il mettait au centre les carrés sémiotiques et les
arbres. Je ne me souviens pas d'une formalisation sur le schéma narratif
par exemple.


mais sinon je ne vois pas tellement
comment on peut espérer le formaliser. Greimas c'est quand même une
couche de formalisme sur un substrat surrinterprétatif, un peu typique
de cette époque (les "formules" de Lacan...). Ce qui a l'air
terrifiant c'est le nombre de charlatant dans l'analyse de contenu ou
de la psycho dégradé qui se réclament de Greimas. Le pauvre !


Je ne sais pas ce que peux faire l'IA actuellement. Et si de toute façon,
on continue toujours à utiliser du prolog ou du lisp, ou si on est passé
à une toute autre modélisation et d'autres langages.

Parmi les suiveurs de Greimas, je me suis bien amusé avec JM Floch, Identités
Visuelles, Sous les signes, la stratégie etc. J'espère qu'il ne faisait pas
partie du clan "charlatans".


Les "entretiens d'explicitation", je ne savais pas ce que
c'était. C'est quand on demande à un professionnel de raconter ce
qu'il fait pour récupérer le vocabulaire spécialisé ? Il y a pleins de
travaux dasn cette veine, sur l'acquisition automatique (ou plutôt
l'assistance à l'acquisition) de terminologie. Le plus connus c'est
Syntex de Bourigault : ça repère les syntagmes (après analyse
morphosyntaxique) dans les documents qu'on lui propose pour les
proposer à un "terminologue". Ca assiste le débouillement d'un corpus
disons.


En fait, normalement "l'entretien d'explicitation", c'est surtout faire
cracher à un personne les procédures de travail. Comment elle fait ce
qu'elle fait en gros. C'est assez lié au knowledge management ou simplement
aux normes Iso.


J'imagine qu'on doit pouvoir, en utilisant les variables lexicales sur
un texte assez attendu (du genre "qu'elle sont les compétences que
vous penser avoir ?"), obtenir des facteurs qui donnent des indices
sur des personnalités. Mais c'est de la pure spéculation, je n'ai pas
d'idée ou d'expériences existantes en tête.


On ne le fait pas pour plusieurs raisons. Sur l'aspect pragmatique, il
faudrait retaper le texte manuscrit, faire un scan, avoir de multiples
ordinateurs disponibles en même temps (souvent, les gens sont recrutés
en groupe lorsqu'il s'agit de bas niveaux). Le problème est déjà
l'organisation matérielle. Du coup, l'expérience et l'expertise permet de
résoudre ce type de problèmes très rapidement. Mais au détriment de la
recherche et de l'élaboration d'hypothèses de travail nouvelles.

En fait, c'est comme un entretien psychiatrique. Il faut en gros 5 à 10 mn
pour savoir ce qu'il y a à savoir. Les structures sont répétitives. Ensuite,
il va falloir des mois, voire des années pour que le patient "comprenne" lui-
même ce qu'on a décelé en cinq minutes.

En revanche, cela serait très utile pour les organisations qui empruntent
à d'autres structures leur mode défensif. Quand à la psychiatrie infantile,
vu la dysharmonie évolutive, les cas sont d'une extrème complexité et on
peut être mené en bateau pendant de semaines, voire des mois. Des outils
informatiques d'analyse du discours ne seraient pas du luxe.

costaclt

Avatar
costaclt
In article , Michel Billaud wrote:
Jusque là ça montre uniquement le degré de maîtrise de la langue ; on
s'en fait une idée en quelque seconde, mais ça pourrait être un
objectif intéressant d'avoir une mesure plus objective de cela.



Tu penses à Bernstein et à ses codes ? Sur le public "jeunes dans la panade",
c'est que du code restreint maintenant. Imiter Ppda et présenter un faux
journal télévisé, ça ne marche plus. Ce n'est même plus un problème
d'adaptation codes / situations, mais carrément un problème de fixation
sur un seul code restreint. Enfin, ce n'est pas folichon...

costaclt


2 3 4 5 6