Je ne conteste pas qu'il est plus simple de développer sur un système
datant d'il y'a 40 ans et qui évolue peu en trainant la même architecture
Je n'arrive pas à trouver de mise à jour windows
pour mes machines Sparc64. Est-ce normal ?
C'est parce que SPARC, ça date de quarante ans ? ;-)
Je ne conteste pas qu'il est plus simple de développer sur un système
datant d'il y'a 40 ans et qui évolue peu en trainant la même architecture
Je n'arrive pas à trouver de mise à jour windows
pour mes machines Sparc64. Est-ce normal ?
C'est parce que SPARC, ça date de quarante ans ? ;-)
Je ne conteste pas qu'il est plus simple de développer sur un système
datant d'il y'a 40 ans et qui évolue peu en trainant la même architecture
Je n'arrive pas à trouver de mise à jour windows
pour mes machines Sparc64. Est-ce normal ?
C'est parce que SPARC, ça date de quarante ans ? ;-)
J'en reviens pas : tu n'as TOUJOURS pas appris à killfiler une
adresse email plutôt qu'un pseudo ?!?
Parce qu'il y a des imbéciles qui usurpent les adresses mails.
J'en reviens pas : tu n'as TOUJOURS pas appris à killfiler une
adresse email plutôt qu'un pseudo ?!?
Parce qu'il y a des imbéciles qui usurpent les adresses mails.
J'en reviens pas : tu n'as TOUJOURS pas appris à killfiler une
adresse email plutôt qu'un pseudo ?!?
Parce qu'il y a des imbéciles qui usurpent les adresses mails.
Sois un peu moins prude, il y a Windows pour faire toutes les choses
hors boulot, et le terminal X intégré pour le boulot. Tu penses bien
que s'ils veulent tous leur poste sous Windows il y a une raison,
qui ne peut en aucun cas être une raison rationnelle.
Euh... Quelle raison ??
Le démineur...
Si tu savais le nombre de types qui me demandent de
désactiver tous les trucs inutiles dont les jeux sur les postes de
travail...
Sois un peu moins prude, il y a Windows pour faire toutes les choses
hors boulot, et le terminal X intégré pour le boulot. Tu penses bien
que s'ils veulent tous leur poste sous Windows il y a une raison,
qui ne peut en aucun cas être une raison rationnelle.
Euh... Quelle raison ??
Le démineur...
Si tu savais le nombre de types qui me demandent de
désactiver tous les trucs inutiles dont les jeux sur les postes de
travail...
Sois un peu moins prude, il y a Windows pour faire toutes les choses
hors boulot, et le terminal X intégré pour le boulot. Tu penses bien
que s'ils veulent tous leur poste sous Windows il y a une raison,
qui ne peut en aucun cas être une raison rationnelle.
Euh... Quelle raison ??
Le démineur...
Si tu savais le nombre de types qui me demandent de
désactiver tous les trucs inutiles dont les jeux sur les postes de
travail...
On 03/28/2011 12:46 AM, pehache-olino wrote:Euh... Quelle raison ??
"Le singe prèfère la voiture rouge"
On 03/28/2011 12:46 AM, pehache-olino wrote:
Euh... Quelle raison ??
"Le singe prèfère la voiture rouge"
On 03/28/2011 12:46 AM, pehache-olino wrote:Euh... Quelle raison ??
"Le singe prèfère la voiture rouge"
Oui oui, on sait, tous des nuls.
Non, seulement la plupart des prestataires qui ne pourraient être
engagés par une boîte tellement ils sont mauvais.
fichier.
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.
Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.
Je sais que tu as la plus grosse (banque de données), comme d'hab'
Absolument pas.
Chacun travaille comme il l'entend, mais pour dimensionner les
choses dans un cas particulier mieux vaut s'intéresser
prioritairement à ce cas particulier.
C'est exactement à l'image de tes interventions. Dimensionner pour
un cas particulier (lorsqu'il est moins contraignant que le cas
général) est une immense bêtise. Au premier changement, on paie le
prix fort.
Mais chacun fait ce qu'il veut.
Oui oui, on sait, tous des nuls.
Non, seulement la plupart des prestataires qui ne pourraient être
engagés par une boîte tellement ils sont mauvais.
fichier.
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.
Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.
Je sais que tu as la plus grosse (banque de données), comme d'hab'
Absolument pas.
Chacun travaille comme il l'entend, mais pour dimensionner les
choses dans un cas particulier mieux vaut s'intéresser
prioritairement à ce cas particulier.
C'est exactement à l'image de tes interventions. Dimensionner pour
un cas particulier (lorsqu'il est moins contraignant que le cas
général) est une immense bêtise. Au premier changement, on paie le
prix fort.
Mais chacun fait ce qu'il veut.
Oui oui, on sait, tous des nuls.
Non, seulement la plupart des prestataires qui ne pourraient être
engagés par une boîte tellement ils sont mauvais.
fichier.
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.
Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.
Je sais que tu as la plus grosse (banque de données), comme d'hab'
Absolument pas.
Chacun travaille comme il l'entend, mais pour dimensionner les
choses dans un cas particulier mieux vaut s'intéresser
prioritairement à ce cas particulier.
C'est exactement à l'image de tes interventions. Dimensionner pour
un cas particulier (lorsqu'il est moins contraignant que le cas
général) est une immense bêtise. Au premier changement, on paie le
prix fort.
Mais chacun fait ce qu'il veut.
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins
bien sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.
Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.
Et ça concerne juste le coté client ton dévellopement ? ou t'as aussi
qqchose sur le serveur distant ?
Ça concerne les deux bouts. Le but est de n'envoyer que le strict
nécessaire sur le lien (et qui plus est compressé). Et ce n'est
possible que parce qu'on sait a priori ce qu'on va lire
contrairement à un bout de code générique. Au final, les 10 Go de
chaque enregistrement passaient sur le réseau mais ne monopolisaient
pas les ressources.Et tu rapatrie sur le poste client les 10 Go, ou tu traite ça sur le
serveur et tu récupére juste un résultat pas trop volumineux au bout
dela ligne 10base2 ?
Le serveur était un serveur de fichiers avec un protocole maison
(qui aurait été je pense très mauvais avec des fichiers classiques).
Chaque fichier mettait deux jours à être traité sur mon XP900, ce
qui fait un débit moyen tout à fait supportable sur un 10Base2 (et
le CPU était à fond, preuve que le point bloquant était le CPU et
non le réseau qui était occupé au plus à 20% par la machine en
question).
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins
bien sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.
Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.
Et ça concerne juste le coté client ton dévellopement ? ou t'as aussi
qqchose sur le serveur distant ?
Ça concerne les deux bouts. Le but est de n'envoyer que le strict
nécessaire sur le lien (et qui plus est compressé). Et ce n'est
possible que parce qu'on sait a priori ce qu'on va lire
contrairement à un bout de code générique. Au final, les 10 Go de
chaque enregistrement passaient sur le réseau mais ne monopolisaient
pas les ressources.
Et tu rapatrie sur le poste client les 10 Go, ou tu traite ça sur le
serveur et tu récupére juste un résultat pas trop volumineux au bout
dela ligne 10base2 ?
Le serveur était un serveur de fichiers avec un protocole maison
(qui aurait été je pense très mauvais avec des fichiers classiques).
Chaque fichier mettait deux jours à être traité sur mon XP900, ce
qui fait un débit moyen tout à fait supportable sur un 10Base2 (et
le CPU était à fond, preuve que le point bloquant était le CPU et
non le réseau qui était occupé au plus à 20% par la machine en
question).
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins
bien sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.
Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.
Et ça concerne juste le coté client ton dévellopement ? ou t'as aussi
qqchose sur le serveur distant ?
Ça concerne les deux bouts. Le but est de n'envoyer que le strict
nécessaire sur le lien (et qui plus est compressé). Et ce n'est
possible que parce qu'on sait a priori ce qu'on va lire
contrairement à un bout de code générique. Au final, les 10 Go de
chaque enregistrement passaient sur le réseau mais ne monopolisaient
pas les ressources.Et tu rapatrie sur le poste client les 10 Go, ou tu traite ça sur le
serveur et tu récupére juste un résultat pas trop volumineux au bout
dela ligne 10base2 ?
Le serveur était un serveur de fichiers avec un protocole maison
(qui aurait été je pense très mauvais avec des fichiers classiques).
Chaque fichier mettait deux jours à être traité sur mon XP900, ce
qui fait un débit moyen tout à fait supportable sur un 10Base2 (et
le CPU était à fond, preuve que le point bloquant était le CPU et
non le réseau qui était occupé au plus à 20% par la machine en
question).
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais.
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais.
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais.
Sauf qu'avec la même carte et sur le même PC, je joue en résolution
maximale en 400FPS à UT sous Linux tout effet Compiz du bureau activé
en direct rendering et transparence, quand je ne peux pas faire
tourner
Aero même en mode dégradé et que UT se traîne en résolution minimale
à à peine 33FPS sous Windows… Cherchez l'erreur…
Je pense que l'erreur c'est toi. Même soft, pilotes de CG non écrits
par MS, il n'y a aucune raison sérieuse qu'il y ait de telles
différences.
Sauf qu'avec la même carte et sur le même PC, je joue en résolution
maximale en 400FPS à UT sous Linux tout effet Compiz du bureau activé
en direct rendering et transparence, quand je ne peux pas faire
tourner
Aero même en mode dégradé et que UT se traîne en résolution minimale
à à peine 33FPS sous Windows… Cherchez l'erreur…
Je pense que l'erreur c'est toi. Même soft, pilotes de CG non écrits
par MS, il n'y a aucune raison sérieuse qu'il y ait de telles
différences.
Sauf qu'avec la même carte et sur le même PC, je joue en résolution
maximale en 400FPS à UT sous Linux tout effet Compiz du bureau activé
en direct rendering et transparence, quand je ne peux pas faire
tourner
Aero même en mode dégradé et que UT se traîne en résolution minimale
à à peine 33FPS sous Windows… Cherchez l'erreur…
Je pense que l'erreur c'est toi. Même soft, pilotes de CG non écrits
par MS, il n'y a aucune raison sérieuse qu'il y ait de telles
différences.
"JKB" a écrit dans le message de news:
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais.
Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.
"JKB" <jkb@koenigsberg.invalid> a écrit dans le message de news:
slrnip0e7q.q13.jkb@rayleigh.systella.fr
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais.
Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.
"JKB" a écrit dans le message de news:
A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.
Tu ne devrais parler que de ce que tu connais.
Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.
Le Wed, 30 Mar 2011 19:25:22 +0200,
pehache-olino écrivait :
> "JKB" a écrit dans le message de news:
>>>
>>> A qui vas-tu essayer de faire croire que lire 10Go à travers un
>>> réseau 10base2 ne saturait pas le réseau en question ? A moins bien
>>> sûr de lire les 10Go en 10 jours.
>>
>> Tu ne devrais parler que de ce que tu connais.
>
> Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.
Relis-moi attentivement. Je t'ai indiqué qu'on a commencé à
implanter un protocole maison parce que justement avec ce qui
existait (NFS entre autre), ça _saturait_ le réseau alors même que
la machine qui traitait ces informations en deux jours était la même !
Je dois te le refaire en couleur ou tu as compris ?
Allez, pour toi, je recommence : toutes choses égales par ailleurs,
protocole standard = merdouilles et cassage de gueule du réseau.
Protocole maison = fonctionnement du réseau normal.
Qu'est-ce que tu ne comprends pas ?
les débilos qui ont décrété qu'il fallait tout éteindre pendant le w.e.!!
Le Wed, 30 Mar 2011 19:25:22 +0200,
pehache-olino <pehache.7@gmail.com> écrivait :
> "JKB" <jkb@koenigsberg.invalid> a écrit dans le message de news:
>>>
>>> A qui vas-tu essayer de faire croire que lire 10Go à travers un
>>> réseau 10base2 ne saturait pas le réseau en question ? A moins bien
>>> sûr de lire les 10Go en 10 jours.
>>
>> Tu ne devrais parler que de ce que tu connais.
>
> Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.
Relis-moi attentivement. Je t'ai indiqué qu'on a commencé à
implanter un protocole maison parce que justement avec ce qui
existait (NFS entre autre), ça _saturait_ le réseau alors même que
la machine qui traitait ces informations en deux jours était la même !
Je dois te le refaire en couleur ou tu as compris ?
Allez, pour toi, je recommence : toutes choses égales par ailleurs,
protocole standard = merdouilles et cassage de gueule du réseau.
Protocole maison = fonctionnement du réseau normal.
Qu'est-ce que tu ne comprends pas ?
les débilos qui ont décrété qu'il fallait tout éteindre pendant le w.e.!!
Le Wed, 30 Mar 2011 19:25:22 +0200,
pehache-olino écrivait :
> "JKB" a écrit dans le message de news:
>>>
>>> A qui vas-tu essayer de faire croire que lire 10Go à travers un
>>> réseau 10base2 ne saturait pas le réseau en question ? A moins bien
>>> sûr de lire les 10Go en 10 jours.
>>
>> Tu ne devrais parler que de ce que tu connais.
>
> Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.
Relis-moi attentivement. Je t'ai indiqué qu'on a commencé à
implanter un protocole maison parce que justement avec ce qui
existait (NFS entre autre), ça _saturait_ le réseau alors même que
la machine qui traitait ces informations en deux jours était la même !
Je dois te le refaire en couleur ou tu as compris ?
Allez, pour toi, je recommence : toutes choses égales par ailleurs,
protocole standard = merdouilles et cassage de gueule du réseau.
Protocole maison = fonctionnement du réseau normal.
Qu'est-ce que tu ne comprends pas ?
les débilos qui ont décrété qu'il fallait tout éteindre pendant le w.e.!!