'Jour
Je lis des fichiers de nature quelconques ouverts en mode binaire. La
taille des fichiers est très variable, de quelques kilo octets à plusieurs
centaines de meg octets. Cela m'interdit de lire en une seule fois le
fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer
par le swap! Quels critéres de choix?
Merci de vos avis.
@+
Cette action est irreversible, confirmez la suppression du commentaire ?
Signaler le commentaire
Veuillez sélectionner un problème
Nudité
Violence
Harcèlement
Fraude
Vente illégale
Discours haineux
Terrorisme
Autre
Bismark Prods
chez moi on prend le taille du bloc de cluster multiplier par 1,5 !
donc pour un cluster à 1024 ca donne : 1536
"Sundowne" a écrit dans le message de news:
'Jour Je lis des fichiers de nature quelconques ouverts en mode binaire. La taille des fichiers est très variable, de quelques kilo octets à plusieurs centaines de meg octets. Cela m'interdit de lire en une seule fois le fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car
le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir
le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide
et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer par le swap! Quels critéres de choix? Merci de vos avis. @+
chez moi on prend le taille du bloc de cluster multiplier par 1,5 !
donc pour un cluster à 1024 ca donne : 1536
"Sundowne" <sundowne@wanadoo.fr> a écrit dans le message de
news:u1l9vSGVDHA.2508@TK2MSFTNGP12.phx.gbl...
'Jour
Je lis des fichiers de nature quelconques ouverts en mode binaire. La
taille des fichiers est très variable, de quelques kilo octets à plusieurs
centaines de meg octets. Cela m'interdit de lire en une seule fois le
fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car
le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir
le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide
et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer
par le swap! Quels critéres de choix?
Merci de vos avis.
@+
chez moi on prend le taille du bloc de cluster multiplier par 1,5 !
donc pour un cluster à 1024 ca donne : 1536
"Sundowne" a écrit dans le message de news:
'Jour Je lis des fichiers de nature quelconques ouverts en mode binaire. La taille des fichiers est très variable, de quelques kilo octets à plusieurs centaines de meg octets. Cela m'interdit de lire en une seule fois le fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car
le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir
le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide
et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer par le swap! Quels critéres de choix? Merci de vos avis. @+
Bismark Prods
parce que c'est le calcul -1 de celui qu'on fait pour attribuer la memoire virtuelle sous windows
"Ledev" a écrit dans le message de news:%
Bismark Prods wrote: > chez moi on prend le taille du bloc de cluster multiplier par 1,5 ! > > donc pour un cluster à 1024 ca donne : 1536
Pourquoi par 1,5?
a+
parce que c'est le calcul -1 de celui qu'on fait pour attribuer la memoire
virtuelle sous windows
"Ledev" <Bozodev@hotmail.com> a écrit dans le message de
news:%2339HAmGVDHA.2544@tk2msftngp13.phx.gbl...
Bismark Prods wrote:
> chez moi on prend le taille du bloc de cluster multiplier par 1,5 !
>
> donc pour un cluster à 1024 ca donne : 1536
En aucun cas, c'est un calcul forgé sur l'expérimentation et les aventures occasionnées au fil des ans
"Ledev" a écrit dans le message de news:uYT$
Bismark Prods wrote: > parce que c'est le calcul -1 de celui qu'on fait pour attribuer la > memoire virtuelle sous windows
Ah ok, mais c'est vous qui avez fait le réglage, ou c'est la valeur que prend Windows par défaut?
a+
Sundowne
'Jour Et merci à tous de vos conseils @+
"Sundowne" a écrit dans le message de news:
'Jour Je lis des fichiers de nature quelconques ouverts en mode binaire. La taille des fichiers est très variable, de quelques kilo octets à plusieurs centaines de meg octets. Cela m'interdit de lire en une seule fois le fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car
le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir
le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide
et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer par le swap! Quels critéres de choix? Merci de vos avis. @+
'Jour
Et merci à tous de vos conseils
@+
"Sundowne" <sundowne@wanadoo.fr> a écrit dans le message de
news:u1l9vSGVDHA.2508@TK2MSFTNGP12.phx.gbl...
'Jour
Je lis des fichiers de nature quelconques ouverts en mode binaire. La
taille des fichiers est très variable, de quelques kilo octets à plusieurs
centaines de meg octets. Cela m'interdit de lire en une seule fois le
fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car
le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir
le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide
et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer
par le swap! Quels critéres de choix?
Merci de vos avis.
@+
'Jour Je lis des fichiers de nature quelconques ouverts en mode binaire. La taille des fichiers est très variable, de quelques kilo octets à plusieurs centaines de meg octets. Cela m'interdit de lire en une seule fois le fichier. Je ne suis pas du tout gêné de lire le fichier par morceaux car
le
traitement que je fais s'en accomode parfaitement. D'où, comment choisir
le
chunksize ? D'un côté plus il est grand et plus le traitement sera rapide
et
de l'autre la ram est ce qu'elle est , et je ne tiens pas du tout à passer par le swap! Quels critéres de choix? Merci de vos avis. @+