On 15 mai, 19:10, Denis Beauregard <denis.b-at-
wrote:Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites utilisés
(dans le cas d'un compteur installé sur plusieurs sites), changement de
la clientèle (dans le cas d'un logiciel installé dans un navigateur,
comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent toutes
à peu près les mêmes tendances, on peut avoir une certaine confiance
dans ces tendances.
Dans le cas d'Alexa, on observe aussi une variation importante quand le
rang est le plus faible, car on arrive à un faible échantillonnage, ce
qui est le cas de Linux. ON peut supposer que cela s'applique aussi
aux mesures sur le nombre de visiteurs avec Linux, le % étant parfois
en bas de la précision qu'on aurait devant de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
Or on ne l'observe pas chez Net Applications,
même pour Linux. Leur base statistique semble donc suffisamment large.
On 15 mai, 19:10, Denis Beauregard <denis.b-at-
francogene.com.inva...@nospam.com.invalid> wrote:
Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites utilisés
(dans le cas d'un compteur installé sur plusieurs sites), changement de
la clientèle (dans le cas d'un logiciel installé dans un navigateur,
comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent toutes
à peu près les mêmes tendances, on peut avoir une certaine confiance
dans ces tendances.
Dans le cas d'Alexa, on observe aussi une variation importante quand le
rang est le plus faible, car on arrive à un faible échantillonnage, ce
qui est le cas de Linux. ON peut supposer que cela s'applique aussi
aux mesures sur le nombre de visiteurs avec Linux, le % étant parfois
en bas de la précision qu'on aurait devant de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
Or on ne l'observe pas chez Net Applications,
même pour Linux. Leur base statistique semble donc suffisamment large.
On 15 mai, 19:10, Denis Beauregard <denis.b-at-
wrote:Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites utilisés
(dans le cas d'un compteur installé sur plusieurs sites), changement de
la clientèle (dans le cas d'un logiciel installé dans un navigateur,
comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent toutes
à peu près les mêmes tendances, on peut avoir une certaine confiance
dans ces tendances.
Dans le cas d'Alexa, on observe aussi une variation importante quand le
rang est le plus faible, car on arrive à un faible échantillonnage, ce
qui est le cas de Linux. ON peut supposer que cela s'applique aussi
aux mesures sur le nombre de visiteurs avec Linux, le % étant parfois
en bas de la précision qu'on aurait devant de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
Or on ne l'observe pas chez Net Applications,
même pour Linux. Leur base statistique semble donc suffisamment large.
On Fri, 16 May 2008 05:01:03 -0700, pehache-tolai wrote:On 15 mai, 19:10, Denis Beauregard <denis.b-at-
wrote:Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites utilisés
(dans le cas d'un compteur installé sur plusieurs sites), changement de
la clientèle (dans le cas d'un logiciel installé dans un navigateur,
comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent toutes
à peu près les mêmes tendances, on peut avoir une certaine confiance
dans ces tendances.
Tout-à-fait.
On peut raisonnablement penser que leurs méthodes ont toutes le même
biais, par exemple.
Dans le cas d'Alexa, on observe aussi une variation importante quand le
rang est le plus faible, car on arrive à un faible échantillonnage, ce
qui est le cas de Linux. ON peut supposer que cela s'applique aussi
aux mesures sur le nombre de visiteurs avec Linux, le % étant parfois
en bas de la précision qu'on aurait devant de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
En vertu de quoi?
Or on ne l'observe pas chez Net Applications,
même pour Linux. Leur base statistique semble donc suffisamment large.
Vous concluez celà parce qu'il n'y a pas de "variations erratiques"?
Rien de convaincant dans tout ça.
On Fri, 16 May 2008 05:01:03 -0700, pehache-tolai wrote:
On 15 mai, 19:10, Denis Beauregard <denis.b-at-
francogene.com.inva...@nospam.com.invalid> wrote:
Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites utilisés
(dans le cas d'un compteur installé sur plusieurs sites), changement de
la clientèle (dans le cas d'un logiciel installé dans un navigateur,
comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent toutes
à peu près les mêmes tendances, on peut avoir une certaine confiance
dans ces tendances.
Tout-à-fait.
On peut raisonnablement penser que leurs méthodes ont toutes le même
biais, par exemple.
Dans le cas d'Alexa, on observe aussi une variation importante quand le
rang est le plus faible, car on arrive à un faible échantillonnage, ce
qui est le cas de Linux. ON peut supposer que cela s'applique aussi
aux mesures sur le nombre de visiteurs avec Linux, le % étant parfois
en bas de la précision qu'on aurait devant de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
En vertu de quoi?
Or on ne l'observe pas chez Net Applications,
même pour Linux. Leur base statistique semble donc suffisamment large.
Vous concluez celà parce qu'il n'y a pas de "variations erratiques"?
Rien de convaincant dans tout ça.
On Fri, 16 May 2008 05:01:03 -0700, pehache-tolai wrote:On 15 mai, 19:10, Denis Beauregard <denis.b-at-
wrote:Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites utilisés
(dans le cas d'un compteur installé sur plusieurs sites), changement de
la clientèle (dans le cas d'un logiciel installé dans un navigateur,
comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent toutes
à peu près les mêmes tendances, on peut avoir une certaine confiance
dans ces tendances.
Tout-à-fait.
On peut raisonnablement penser que leurs méthodes ont toutes le même
biais, par exemple.
Dans le cas d'Alexa, on observe aussi une variation importante quand le
rang est le plus faible, car on arrive à un faible échantillonnage, ce
qui est le cas de Linux. ON peut supposer que cela s'applique aussi
aux mesures sur le nombre de visiteurs avec Linux, le % étant parfois
en bas de la précision qu'on aurait devant de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
En vertu de quoi?
Or on ne l'observe pas chez Net Applications,
même pour Linux. Leur base statistique semble donc suffisamment large.
Vous concluez celà parce qu'il n'y a pas de "variations erratiques"?
Rien de convaincant dans tout ça.
Le 16 May 2008 21:40:33 GMT, Ed écrivait dans
fr.comp.os.linux.debats:On Fri, 16 May 2008 05:01:03 -0700, pehache-tolai wrote:On 15 mai, 19:10, Denis Beauregard <denis.b-at-
wrote:Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites
utilisés (dans le cas d'un compteur installé sur plusieurs sites),
changement de la clientèle (dans le cas d'un logiciel installé dans
un navigateur, comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent
toutes à peu près les mêmes tendances, on peut avoir une certaine
confiance dans ces tendances.
Tout-à-fait.
On peut raisonnablement penser que leurs méthodes ont toutes le même
biais, par exemple.
Dans le cas de Alexa, l'ancienne méthode consistait à avoir une seule
catégorie de sites. Le 123 456e site était alors celui de ce rang dans
l'ensemble des sites. La nouvelle méthode consiste à tenir compte du
pays. Le site google du Chili par exemple sera positionné non pas par
rapport à tous les sites, mais par rapport aux autres du Chili. Un site
qui était 300 000e pouvait donc descendre à la position 1 000 000e,
toutes choses étant égales sauf la méthode de calcul. Le biais est donc
différent ici.
Donc, si la mesure tente de corriger la dérive à cause de populations
différentes, il y aura un biais. Ainsi, si on a une base de barres
comme Alexa ou Google et qu'on veut gonfler les chiffres parce qu'il y a
moins d'usagers en proportion dans certains pays, le biais sera
différent par rapport à l'ancienne méthode qui n'en tenait pas compte.
Dans le cas d'Alexa, on observe aussi une variation importante quand
le rang est le plus faible, car on arrive à un faible
échantillonnage, ce qui est le cas de Linux. ON peut supposer que
cela s'applique aussi aux mesures sur le nombre de visiteurs avec
Linux, le % étant parfois en bas de la précision qu'on aurait devant
de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
En vertu de quoi?
Concept élémentaire de statistiques. Si on a par exemple 1000 individus
dans un sondage, on a disons 3% d'erreur 19 fois sur 20 (c'est un
exemple fictif, je n'ai pas les valeurs exactes). Si on a 100
individus, l'erreur est beaucoup plus élevée. Si on a 1000 visiteurs
par jour et que 3% utilisent Linux, la mesure a 3% d'erreur et les
fluctuations sont d'abord l'effet du hasard. Il faut alors augmenter le
nombre d'échantillons (1000 par jour deviennent 30 000 par mois, ce qui
a un % d'erreur plus bas).
Or on ne l'observe pas chez Net Applications, même pour Linux. Leur
base statistique semble donc suffisamment large.
Vous concluez celà parce qu'il n'y a pas de "variations erratiques"?
C'est un concept élémentaire de statistiques. La précision dépend du
nombre d'échantillons.Rien de convaincant dans tout ça.
Mais oui.
Le 16 May 2008 21:40:33 GMT, Ed <ed@invalid.invalid> écrivait dans
fr.comp.os.linux.debats:
On Fri, 16 May 2008 05:01:03 -0700, pehache-tolai wrote:
On 15 mai, 19:10, Denis Beauregard <denis.b-at-
francogene.com.inva...@nospam.com.invalid> wrote:
Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites
utilisés (dans le cas d'un compteur installé sur plusieurs sites),
changement de la clientèle (dans le cas d'un logiciel installé dans
un navigateur, comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent
toutes à peu près les mêmes tendances, on peut avoir une certaine
confiance dans ces tendances.
Tout-à-fait.
On peut raisonnablement penser que leurs méthodes ont toutes le même
biais, par exemple.
Dans le cas de Alexa, l'ancienne méthode consistait à avoir une seule
catégorie de sites. Le 123 456e site était alors celui de ce rang dans
l'ensemble des sites. La nouvelle méthode consiste à tenir compte du
pays. Le site google du Chili par exemple sera positionné non pas par
rapport à tous les sites, mais par rapport aux autres du Chili. Un site
qui était 300 000e pouvait donc descendre à la position 1 000 000e,
toutes choses étant égales sauf la méthode de calcul. Le biais est donc
différent ici.
Donc, si la mesure tente de corriger la dérive à cause de populations
différentes, il y aura un biais. Ainsi, si on a une base de barres
comme Alexa ou Google et qu'on veut gonfler les chiffres parce qu'il y a
moins d'usagers en proportion dans certains pays, le biais sera
différent par rapport à l'ancienne méthode qui n'en tenait pas compte.
Dans le cas d'Alexa, on observe aussi une variation importante quand
le rang est le plus faible, car on arrive à un faible
échantillonnage, ce qui est le cas de Linux. ON peut supposer que
cela s'applique aussi aux mesures sur le nombre de visiteurs avec
Linux, le % étant parfois en bas de la précision qu'on aurait devant
de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
En vertu de quoi?
Concept élémentaire de statistiques. Si on a par exemple 1000 individus
dans un sondage, on a disons 3% d'erreur 19 fois sur 20 (c'est un
exemple fictif, je n'ai pas les valeurs exactes). Si on a 100
individus, l'erreur est beaucoup plus élevée. Si on a 1000 visiteurs
par jour et que 3% utilisent Linux, la mesure a 3% d'erreur et les
fluctuations sont d'abord l'effet du hasard. Il faut alors augmenter le
nombre d'échantillons (1000 par jour deviennent 30 000 par mois, ce qui
a un % d'erreur plus bas).
Or on ne l'observe pas chez Net Applications, même pour Linux. Leur
base statistique semble donc suffisamment large.
Vous concluez celà parce qu'il n'y a pas de "variations erratiques"?
C'est un concept élémentaire de statistiques. La précision dépend du
nombre d'échantillons.
Rien de convaincant dans tout ça.
Mais oui.
Le 16 May 2008 21:40:33 GMT, Ed écrivait dans
fr.comp.os.linux.debats:On Fri, 16 May 2008 05:01:03 -0700, pehache-tolai wrote:On 15 mai, 19:10, Denis Beauregard <denis.b-at-
wrote:Autant pour les valeurs à un instant T on peut facilement trouver
plusieurs arguments qui accréditent la possibilité de biais, autant
pour les évolutions dans le temps je ne vois pas bien quels seraient
les arguments.
Changement de méthode de calcul, changement du nombre de sites
utilisés (dans le cas d'un compteur installé sur plusieurs sites),
changement de la clientèle (dans le cas d'un logiciel installé dans
un navigateur, comme Alexa).
D'accord sur le fond. Mais quand des stats indépendantes les unes des
autres (Net Applications, w3schools, w3counter, xiti...) donnent
toutes à peu près les mêmes tendances, on peut avoir une certaine
confiance dans ces tendances.
Tout-à-fait.
On peut raisonnablement penser que leurs méthodes ont toutes le même
biais, par exemple.
Dans le cas de Alexa, l'ancienne méthode consistait à avoir une seule
catégorie de sites. Le 123 456e site était alors celui de ce rang dans
l'ensemble des sites. La nouvelle méthode consiste à tenir compte du
pays. Le site google du Chili par exemple sera positionné non pas par
rapport à tous les sites, mais par rapport aux autres du Chili. Un site
qui était 300 000e pouvait donc descendre à la position 1 000 000e,
toutes choses étant égales sauf la méthode de calcul. Le biais est donc
différent ici.
Donc, si la mesure tente de corriger la dérive à cause de populations
différentes, il y aura un biais. Ainsi, si on a une base de barres
comme Alexa ou Google et qu'on veut gonfler les chiffres parce qu'il y a
moins d'usagers en proportion dans certains pays, le biais sera
différent par rapport à l'ancienne méthode qui n'en tenait pas compte.
Dans le cas d'Alexa, on observe aussi une variation importante quand
le rang est le plus faible, car on arrive à un faible
échantillonnage, ce qui est le cas de Linux. ON peut supposer que
cela s'applique aussi aux mesures sur le nombre de visiteurs avec
Linux, le % étant parfois en bas de la précision qu'on aurait devant
de telles statistiques.
Encore d'accord. Mais quand on est en bas (ou en-dessous) de la
précision des stats, cela se traduit par des variations erratiques des
valeurs de mois en mois.
En vertu de quoi?
Concept élémentaire de statistiques. Si on a par exemple 1000 individus
dans un sondage, on a disons 3% d'erreur 19 fois sur 20 (c'est un
exemple fictif, je n'ai pas les valeurs exactes). Si on a 100
individus, l'erreur est beaucoup plus élevée. Si on a 1000 visiteurs
par jour et que 3% utilisent Linux, la mesure a 3% d'erreur et les
fluctuations sont d'abord l'effet du hasard. Il faut alors augmenter le
nombre d'échantillons (1000 par jour deviennent 30 000 par mois, ce qui
a un % d'erreur plus bas).
Or on ne l'observe pas chez Net Applications, même pour Linux. Leur
base statistique semble donc suffisamment large.
Vous concluez celà parce qu'il n'y a pas de "variations erratiques"?
C'est un concept élémentaire de statistiques. La précision dépend du
nombre d'échantillons.Rien de convaincant dans tout ça.
Mais oui.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda, ce
serait sans trop d'hésitation MacOS X.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda, ce
serait sans trop d'hésitation MacOS X.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda, ce
serait sans trop d'hésitation MacOS X.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda, ce
serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça se
trouve du côté de la license.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda, ce
serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça se
trouve du côté de la license.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda, ce
serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça se
trouve du côté de la license.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
"Nicolas S." a écrit dans le message de
news:Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Je n'utilise pas la license, mais l'ordi.
"Nicolas S." <ni.s-factice@laposte.net> a écrit dans le message de
news: slrng39hi0.uus.ni.s-factice@ultras.lan
Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Je n'utilise pas la license, mais l'ordi.
"Nicolas S." a écrit dans le message de
news:Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Je n'utilise pas la license, mais l'ordi.
Tu veux dire par là que Windows et Linux ne sont pas faits pour les
mêmes publics ?
Tu veux dire par là que Windows et Linux ne sont pas faits pour les
mêmes publics ?
Tu veux dire par là que Windows et Linux ne sont pas faits pour les
mêmes publics ?
pehache-tolai a écrit :Tu veux dire par là que Windows et Linux ne sont pas faits pour les
mêmes publics ?
C'est une évidence : l'un est un système d'exploitation polyvalent e t
l'autre une mauvaise console de jeu...
pehache-tolai <pehach...@gmail.com> a écrit :
Tu veux dire par là que Windows et Linux ne sont pas faits pour les
mêmes publics ?
C'est une évidence : l'un est un système d'exploitation polyvalent e t
l'autre une mauvaise console de jeu...
pehache-tolai a écrit :Tu veux dire par là que Windows et Linux ne sont pas faits pour les
mêmes publics ?
C'est une évidence : l'un est un système d'exploitation polyvalent e t
l'autre une mauvaise console de jeu...
"Nicolas S." a écrit dans le message de
news: slrng39hi0.uus.ni.s-fact__BEGIN_MASK_n#9g02mG7!__...__END_MASK_i?a6 3jfAD$Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Je n'utilise pas la license, mais l'ordi.
Nous utilisons tout le monde dans lequel nous déployons ces systèmes l ibres ou propriétaires.
Nous utilisons tous le monde dans lequel nous confions ou non la maîtris e de l'information à Microsoft (ou d'autres).
"Nicolas S." <ni.s-fact...@laposte.net> a écrit dans le message de
news: slrng39hi0.uus.ni.s-fact__BEGIN_MASK_n#9g02mG7!__...__END_MASK_i?a6 3jfAD$z__@ultras.lan
Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Je n'utilise pas la license, mais l'ordi.
Nous utilisons tout le monde dans lequel nous déployons ces systèmes l ibres ou propriétaires.
Nous utilisons tous le monde dans lequel nous confions ou non la maîtris e de l'information à Microsoft (ou d'autres).
"Nicolas S." a écrit dans le message de
news: slrng39hi0.uus.ni.s-fact__BEGIN_MASK_n#9g02mG7!__...__END_MASK_i?a6 3jfAD$Si je devais recommander aujourd'hui un OS à un utilisateur lambda,
ce serait sans trop d'hésitation MacOS X.
C'est parce que tu n'as pas encore compris l'essentiel. Un indice: ça
se trouve du côté de la license.
Je n'utilise pas la license, mais l'ordi.
Nous utilisons tout le monde dans lequel nous déployons ces systèmes l ibres ou propriétaires.
Nous utilisons tous le monde dans lequel nous confions ou non la maîtris e de l'information à Microsoft (ou d'autres).