Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

Oracle n'a pas cru dans le LL, et financièrement !

132 réponses
Avatar
ptilou
Bonjour,

Il semblerait que les divers rodomontade du LL ne l'affecte pas
financi=E8rement ...
( En gros le LL reste universitaire ! )

http://www.investir.fr/infos-conseils-boursiers/infos-conseils-valeurs/info=
s/oracle-chiffre-d-affaires-en-hausse-et-dividende-accru-de-20-331886.php

Ptilou

10 réponses

Avatar
Tonton Th
On 03/30/2011 09:16 AM, JKB wrote:

Je ne conteste pas qu'il est plus simple de développer sur un système
datant d'il y'a 40 ans et qui évolue peu en trainant la même architecture



Je n'arrive pas à trouver de mise à jour windows
pour mes machines Sparc64. Est-ce normal ?



C'est parce que SPARC, ça date de quarante ans ? ;-)



D'après le man de time, oui :

time() returns the time since the Epoch (00:00:00 UTC, January 1,
1970), measured in seconds.



--
Ma coiffeuse est formidable - http://sonia.buvette.org/
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


J'en reviens pas : tu n'as TOUJOURS pas appris à killfiler une
adresse email plutôt qu'un pseudo ?!?



Parce qu'il y a des imbéciles qui usurpent les adresses mails.



Ah... Et ils n'usurpent pas les pseudos ?

--
pehache
http://pehache.free.fr
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


Sois un peu moins prude, il y a Windows pour faire toutes les choses
hors boulot, et le terminal X intégré pour le boulot. Tu penses bien
que s'ils veulent tous leur poste sous Windows il y a une raison,
qui ne peut en aucun cas être une raison rationnelle.



Euh... Quelle raison ??



Le démineur...



N'importe quoi.

Si tu savais le nombre de types qui me demandent de
désactiver tous les trucs inutiles dont les jeux sur les postes de
travail...



C'est ça ton boulot.


--
pehache
http://pehache.free.fr
Avatar
pehache-olino
"Tonton Th" a écrit dans le message de news:
4d905504$0$32187$
On 03/28/2011 12:46 AM, pehache-olino wrote:

Euh... Quelle raison ??



"Le singe prèfère la voiture rouge"



Avec Compiz ?

--
pehache
http://pehache.free.fr
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


Oui oui, on sait, tous des nuls.



Non, seulement la plupart des prestataires qui ne pourraient être
engagés par une boîte tellement ils sont mauvais.



C'est idiot, ils travaillent bien dans "une boîte".

fichier.



A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.



Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.

Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.



Comme toujours, tu n'as qu'une idée en tête dans les discussions, c'est de
tartiner tout ce que tu as (soit-disant) fait dans ta longue vie, même si ça
n'a strictement rien à voir avec la choucroute.

Tu viens nous saoûler avec une histoire d'accès aléatoires dans un fichier
qui doit transiter en 2 jours par le réseau, alors que le problème que je
décris est la lecture séquentielle d'un fichier par une appli interactive et
donc qui doit transiter le plus vite possible.

Bref, hors-sujet.


Je sais que tu as la plus grosse (banque de données), comme d'hab'



Absolument pas.




Mais si, ne sois pas si modeste.


Chacun travaille comme il l'entend, mais pour dimensionner les
choses dans un cas particulier mieux vaut s'intéresser
prioritairement à ce cas particulier.



C'est exactement à l'image de tes interventions. Dimensionner pour
un cas particulier (lorsqu'il est moins contraignant que le cas
général) est une immense bêtise. Au premier changement, on paie le
prix fort.

Mais chacun fait ce qu'il veut.



Quand on suit un modèle de fonctionnement depuis 30 ans on peut
raisonnablement estimer qu'il sera toujours valide dans les 3 ans à venir et
mettre en oeuvre les solutions en conséquence.

--
pehache
http://pehache.free.fr
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins
bien sûr de lire les 10Go en 10 jours.



Tu ne devrais parler que de ce que tu connais. Je vais juste te
donner un exemple parce que tu aimes bien les cas particuliers et
que tu ne comprends rien au sport.

Windows ou Unix ou ce que tu veux en NFS, en samba ou avec toutes
les fonctions génériques d'accès à distance que tu peux imaginer :
lorsque tu lis un bout de fichier, tu lis aussi ce qui suit (pour
des histoires de performances de lecture sur le périphérique distant
qui ne sont pas idiotes dans le cas général). Lorsque tu as besoin
d'un accès aléatoire sur des gros fichiers, c'est pourtant idiot et
tu as intérêt d'utiliser ton propre protocole. Pour ta gouverne, le
truc n'a pas été écrit seulement par moi, mais par une ribambelle de
gens tout à fait compétents de chez Thomson CSF. Pour ta gouverne
aussi, le protocole en question utilise de la compression et est
_toujours_ utilisé actuellement tant il est efficace. J'admets
encore qu'un type comme toi me traite d'incapable, ça me fait juste
rigoler au vu de tes interventions ici. Mais là, tu es aussi en
train de traiter d'incapables des types qui pourraient t'en
remontrer.



Et ça concerne juste le coté client ton dévellopement ? ou t'as aussi
qqchose sur le serveur distant ?



Ça concerne les deux bouts. Le but est de n'envoyer que le strict
nécessaire sur le lien (et qui plus est compressé). Et ce n'est
possible que parce qu'on sait a priori ce qu'on va lire
contrairement à un bout de code générique. Au final, les 10 Go de
chaque enregistrement passaient sur le réseau mais ne monopolisaient
pas les ressources.

Et tu rapatrie sur le poste client les 10 Go, ou tu traite ça sur le
serveur et tu récupére juste un résultat pas trop volumineux au bout
dela ligne 10base2 ?



Le serveur était un serveur de fichiers avec un protocole maison
(qui aurait été je pense très mauvais avec des fichiers classiques).
Chaque fichier mettait deux jours à être traité sur mon XP900, ce
qui fait un débit moyen tout à fait supportable sur un 10Base2 (et
le CPU était à fond, preuve que le point bloquant était le CPU et
non le réseau qui était occupé au plus à 20% par la machine en
question).




Donc strictement rien à voir avec le cas que je décris. Chez nous ce n'est
pas le CPU des stations qui est le bottleneck, c'est le réseau.

Parce bon, même un fichier de 1 pétaoctect ne saturera pas le réseau si tu
le fais passer en 100 ans.

--
pehache
http://pehache.free.fr
Avatar
pehache-olino
"JKB" a écrit dans le message de news:


A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.



Tu ne devrais parler que de ce que tu connais.



Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.

--
pehache
http://pehache.free.fr
Avatar
pehache-olino
"pehache-olino" a écrit dans le message de news:


Sauf qu'avec la même carte et sur le même PC, je joue en résolution
maximale en 400FPS à UT sous Linux tout effet Compiz du bureau activé
en direct rendering et transparence, quand je ne peux pas faire
tourner
Aero même en mode dégradé et que UT se traîne en résolution minimale
à à peine 33FPS sous Windows… Cherchez l'erreur…



Je pense que l'erreur c'est toi. Même soft, pilotes de CG non écrits
par MS, il n'y a aucune raison sérieuse qu'il y ait de telles
différences.



http://www.phoronix.com/scan.php?page=article&item=ubuntu_win7_ogl&num=1


--
pehache
http://pehache.free.fr
Avatar
JKB
Le Wed, 30 Mar 2011 19:25:22 +0200,
pehache-olino écrivait :
"JKB" a écrit dans le message de news:


A qui vas-tu essayer de faire croire que lire 10Go à travers un
réseau 10base2 ne saturait pas le réseau en question ? A moins bien
sûr de lire les 10Go en 10 jours.



Tu ne devrais parler que de ce que tu connais.



Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.



Relis-moi attentivement. Je t'ai indiqué qu'on a commencé à
implanter un protocole maison parce que justement avec ce qui
existait (NFS entre autre), ça _saturait_ le réseau alors même que
la machine qui traitait ces informations en deux jours était la même !

Je dois te le refaire en couleur ou tu as compris ?

Allez, pour toi, je recommence : toutes choses égales par ailleurs,
protocole standard = merdouilles et cassage de gueule du réseau.
Protocole maison = fonctionnement du réseau normal.

Qu'est-ce que tu ne comprends pas ?

JKB

--
Si votre demande me parvient sur carte perforée, je titiouaillerai très
volontiers une réponse...
=> http://grincheux.de-charybde-en-scylla.fr
Avatar
Hugolino
Le 30-03-2011, JKB a écrit :
Le Wed, 30 Mar 2011 19:25:22 +0200,
pehache-olino écrivait :
> "JKB" a écrit dans le message de news:
>>>
>>> A qui vas-tu essayer de faire croire que lire 10Go à travers un
>>> réseau 10base2 ne saturait pas le réseau en question ? A moins bien
>>> sûr de lire les 10Go en 10 jours.
>>
>> Tu ne devrais parler que de ce que tu connais.
>
> Mort de rire. Plus bas on apprend que ton fichier passe... en 2 jours.

Relis-moi attentivement. Je t'ai indiqué qu'on a commencé à
implanter un protocole maison parce que justement avec ce qui
existait (NFS entre autre), ça _saturait_ le réseau alors même que
la machine qui traitait ces informations en deux jours était la même !

Je dois te le refaire en couleur ou tu as compris ?

Allez, pour toi, je recommence : toutes choses égales par ailleurs,
protocole standard = merdouilles et cassage de gueule du réseau.
Protocole maison = fonctionnement du réseau normal.

Qu'est-ce que tu ne comprends pas ?



Je crois qu'il ne comprend pas que la machine qui lit et traite le
fichier ne peut pas le faire plus rapidement qu'en deux jours et qu'il
pense que c'est ton protocole maison qui est incapable de transmettre 10
Go en moins de 2 jours.

Enfin, je dis ça mais j'en suis pas sûr, ça fait un moment que j'ai
arrêté d'essayer de comprendre les méandres embrumés de sa cervelle ;-)


--
les débilos qui ont décrété qu'il fallait tout éteindre pendant le w.e.!!


define(`Y2K_Auto_Purge_Queue',`True')dnl
define(`Y2K_Auto_Murge_Admin',`True')dnl
Hugo (né il y a 1 480 944 846 secondes)