1- Comment va évoluer le temps de lecture ou écriture des données?
En cherchant, je vois que le temps d'accès à la RAM est de l'ordre de 10
nano seconde, au disque dur de 10 milli seconde. Un facteur un million se
dessine donc: il est trop important. Pour mon application, je peux tolérer
un facteur 10000. Or, quand je fais hdparm -t /dev/hda sur mon ordi, il me
donne 22 MB/sec: cela représente une lecture bien plus rapide que 10 milli
seconde pour accéder à chaque bit; pourquoi? A quoi correspondent ces
temps?
Où trouver de la doc didactique sur le fonctionnement du disque dur?
Par exemple, si j'essaie de copier un fichier de quelques centaines de Mo
sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs dizaines de
secondes; mais là il lit et écrit; comment cela évolue-t-il si je ne fais
que charger le contenu d'un gros fichier dans la RAM?
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux?
A priori aucun intérêt à compresser les données?
1- Comment va évoluer le temps de lecture ou écriture des données?
En cherchant, je vois que le temps d'accès à la RAM est de l'ordre de 10
nano seconde, au disque dur de 10 milli seconde. Un facteur un million se
dessine donc: il est trop important. Pour mon application, je peux tolérer
un facteur 10000. Or, quand je fais hdparm -t /dev/hda sur mon ordi, il me
donne 22 MB/sec: cela représente une lecture bien plus rapide que 10 milli
seconde pour accéder à chaque bit; pourquoi? A quoi correspondent ces
temps?
Où trouver de la doc didactique sur le fonctionnement du disque dur?
Par exemple, si j'essaie de copier un fichier de quelques centaines de Mo
sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs dizaines de
secondes; mais là il lit et écrit; comment cela évolue-t-il si je ne fais
que charger le contenu d'un gros fichier dans la RAM?
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux?
A priori aucun intérêt à compresser les données?
1- Comment va évoluer le temps de lecture ou écriture des données?
En cherchant, je vois que le temps d'accès à la RAM est de l'ordre de 10
nano seconde, au disque dur de 10 milli seconde. Un facteur un million se
dessine donc: il est trop important. Pour mon application, je peux tolérer
un facteur 10000. Or, quand je fais hdparm -t /dev/hda sur mon ordi, il me
donne 22 MB/sec: cela représente une lecture bien plus rapide que 10 milli
seconde pour accéder à chaque bit; pourquoi? A quoi correspondent ces
temps?
Où trouver de la doc didactique sur le fonctionnement du disque dur?
Par exemple, si j'essaie de copier un fichier de quelques centaines de Mo
sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs dizaines de
secondes; mais là il lit et écrit; comment cela évolue-t-il si je ne fais
que charger le contenu d'un gros fichier dans la RAM?
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux?
A priori aucun intérêt à compresser les données?
1- Comment va évoluer le temps de lecture ou écriture des données? En
cherchant, je vois que le temps d'accès à la RAM est de l'ordre de 10 nano
seconde, au disque dur de 10 milli seconde. Un facteur un million se
dessine donc: il est trop important. Pour mon application, je peux tolérer
un facteur 10000. Or, quand je fais hdparm -t /dev/hda sur mon ordi, il me
donne 22 MB/sec: cela représente une lecture bien plus rapide que 10 milli
seconde pour accéder à chaque bit; pourquoi?
Par exemple, si j'essaie de copier un fichier de quelques centaines de Mo
sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs dizaines de
secondes;
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux? A
priori aucun intérêt à compresser les données?
1- Comment va évoluer le temps de lecture ou écriture des données? En
cherchant, je vois que le temps d'accès à la RAM est de l'ordre de 10 nano
seconde, au disque dur de 10 milli seconde. Un facteur un million se
dessine donc: il est trop important. Pour mon application, je peux tolérer
un facteur 10000. Or, quand je fais hdparm -t /dev/hda sur mon ordi, il me
donne 22 MB/sec: cela représente une lecture bien plus rapide que 10 milli
seconde pour accéder à chaque bit; pourquoi?
Par exemple, si j'essaie de copier un fichier de quelques centaines de Mo
sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs dizaines de
secondes;
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux? A
priori aucun intérêt à compresser les données?
1- Comment va évoluer le temps de lecture ou écriture des données? En
cherchant, je vois que le temps d'accès à la RAM est de l'ordre de 10 nano
seconde, au disque dur de 10 milli seconde. Un facteur un million se
dessine donc: il est trop important. Pour mon application, je peux tolérer
un facteur 10000. Or, quand je fais hdparm -t /dev/hda sur mon ordi, il me
donne 22 MB/sec: cela représente une lecture bien plus rapide que 10 milli
seconde pour accéder à chaque bit; pourquoi?
Par exemple, si j'essaie de copier un fichier de quelques centaines de Mo
sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs dizaines de
secondes;
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux? A
priori aucun intérêt à compresser les données?
Si tu lis 1 Ko, puis tu l'écris, puis tu lis à nouveau 1 Ko, etc., ça
prendra énormément de temps (et fera beaucoup de bruits), à cause des
200 000 déplacements des têtes (de la zone à lire à la zone
d'écriture, et vice-versa).
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Si tu lis 1 Ko, puis tu l'écris, puis tu lis à nouveau 1 Ko, etc., ça
prendra énormément de temps (et fera beaucoup de bruits), à cause des
200 000 déplacements des têtes (de la zone à lire à la zone
d'écriture, et vice-versa).
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Si tu lis 1 Ko, puis tu l'écris, puis tu lis à nouveau 1 Ko, etc., ça
prendra énormément de temps (et fera beaucoup de bruits), à cause des
200 000 déplacements des têtes (de la zone à lire à la zone
d'écriture, et vice-versa).
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Mouais, sachant que l'os et le disque lui-même font du read-ahead et gardent
le résultat dans un cache, ça ne doit pas se sentir tant que ça, si?
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
Mouais, sachant que l'os et le disque lui-même font du read-ahead et gardent
le résultat dans un cache, ça ne doit pas se sentir tant que ça, si?
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
Mouais, sachant que l'os et le disque lui-même font du read-ahead et gardent
le résultat dans un cache, ça ne doit pas se sentir tant que ça, si?
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
Étant donné que le domaine "freeee_._frspaM" n'existe pas, je
t'encourage vivement à rajouter ".invalid" à la fin. Merci d'avance.
Si tu veux lire un bloc contigu de N octets, le temps nécessaire sera
la somme du temps d'accès au premier octet (i.e. le temps de
positionnement des têtes au bon endroit) + le temps de lecture réel de
ces N octets sur le disque dur.
En d'autres termes, lire 1000 octets disséminés un peu partout sur le
disque prendra beaucoup plus de temps que lire 1000 octets contigus.
Étant donné que le domaine "freeee_._frspaM" n'existe pas, je
t'encourage vivement à rajouter ".invalid" à la fin. Merci d'avance.
Si tu veux lire un bloc contigu de N octets, le temps nécessaire sera
la somme du temps d'accès au premier octet (i.e. le temps de
positionnement des têtes au bon endroit) + le temps de lecture réel de
ces N octets sur le disque dur.
En d'autres termes, lire 1000 octets disséminés un peu partout sur le
disque prendra beaucoup plus de temps que lire 1000 octets contigus.
Étant donné que le domaine "freeee_._frspaM" n'existe pas, je
t'encourage vivement à rajouter ".invalid" à la fin. Merci d'avance.
Si tu veux lire un bloc contigu de N octets, le temps nécessaire sera
la somme du temps d'accès au premier octet (i.e. le temps de
positionnement des têtes au bon endroit) + le temps de lecture réel de
ces N octets sur le disque dur.
En d'autres termes, lire 1000 octets disséminés un peu partout sur le
disque prendra beaucoup plus de temps que lire 1000 octets contigus.
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
S'il s'agit de faire d'énormes calculs, une machine un peu récente est
de mise. Et comme le moindre petit Sempron fonctionne en 64 bits, ça
devrait être jouable.
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
S'il s'agit de faire d'énormes calculs, une machine un peu récente est
de mise. Et comme le moindre petit Sempron fonctionne en 64 bits, ça
devrait être jouable.
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
S'il s'agit de faire d'énormes calculs, une machine un peu récente est
de mise. Et comme le moindre petit Sempron fonctionne en 64 bits, ça
devrait être jouable.
Bonjour à tous,
J'ai codé un programme qui réalise des calculs qui demandent beaucoup de RAM
(environ 500 Mo).
Je compte améliorer le programme, mais alors j'ai besoin de 100 Go de RAM
(oui!). Ce n'est pas possible. J'envisage donc de stocker mes données sur
le disque dur; plusieurs question en découlent:
1- Comment va évoluer le temps de lecture ou écriture des données?
En cherchant, je vois que le temps d'accès à la RAM est de l'ordre
de 10 nano seconde, au disque dur de 10 milli seconde. Un facteur un
million se dessine donc: il est trop important. Pour mon
application, je peux tolérer un facteur 10000. Or, quand je fais
hdparm -t /dev/hda sur mon ordi, il me donne 22 MB/sec: cela
représente une lecture bien plus rapide que 10 milli seconde pour
accéder à chaque bit; pourquoi? A quoi correspondent ces temps?
Où trouver de la doc didactique sur le fonctionnement du disque dur?
Par exemple, si j'essaie de copier un fichier de quelques centaines
de Mo sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs
dizaines de secondes; mais là il lit et écrit; comment cela
évolue-t-il si je ne fais que charger le contenu d'un gros fichier
dans la RAM?
Bref, je suis dépassé, et j'ai du mal à trouver de la
doc sérieuse sur internet (mais sûrement que je cherche mal).
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux? A
priori aucun intérêt à compresser les données?
Bref je suis preneur de tout conseil.
Bonjour à tous,
J'ai codé un programme qui réalise des calculs qui demandent beaucoup de RAM
(environ 500 Mo).
Je compte améliorer le programme, mais alors j'ai besoin de 100 Go de RAM
(oui!). Ce n'est pas possible. J'envisage donc de stocker mes données sur
le disque dur; plusieurs question en découlent:
1- Comment va évoluer le temps de lecture ou écriture des données?
En cherchant, je vois que le temps d'accès à la RAM est de l'ordre
de 10 nano seconde, au disque dur de 10 milli seconde. Un facteur un
million se dessine donc: il est trop important. Pour mon
application, je peux tolérer un facteur 10000. Or, quand je fais
hdparm -t /dev/hda sur mon ordi, il me donne 22 MB/sec: cela
représente une lecture bien plus rapide que 10 milli seconde pour
accéder à chaque bit; pourquoi? A quoi correspondent ces temps?
Où trouver de la doc didactique sur le fonctionnement du disque dur?
Par exemple, si j'essaie de copier un fichier de quelques centaines
de Mo sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs
dizaines de secondes; mais là il lit et écrit; comment cela
évolue-t-il si je ne fais que charger le contenu d'un gros fichier
dans la RAM?
Bref, je suis dépassé, et j'ai du mal à trouver de la
doc sérieuse sur internet (mais sûrement que je cherche mal).
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux? A
priori aucun intérêt à compresser les données?
Bref je suis preneur de tout conseil.
Bonjour à tous,
J'ai codé un programme qui réalise des calculs qui demandent beaucoup de RAM
(environ 500 Mo).
Je compte améliorer le programme, mais alors j'ai besoin de 100 Go de RAM
(oui!). Ce n'est pas possible. J'envisage donc de stocker mes données sur
le disque dur; plusieurs question en découlent:
1- Comment va évoluer le temps de lecture ou écriture des données?
En cherchant, je vois que le temps d'accès à la RAM est de l'ordre
de 10 nano seconde, au disque dur de 10 milli seconde. Un facteur un
million se dessine donc: il est trop important. Pour mon
application, je peux tolérer un facteur 10000. Or, quand je fais
hdparm -t /dev/hda sur mon ordi, il me donne 22 MB/sec: cela
représente une lecture bien plus rapide que 10 milli seconde pour
accéder à chaque bit; pourquoi? A quoi correspondent ces temps?
Où trouver de la doc didactique sur le fonctionnement du disque dur?
Par exemple, si j'essaie de copier un fichier de quelques centaines
de Mo sur mon disque ($ cp foo.avi bar.avi), cela prend plusieurs
dizaines de secondes; mais là il lit et écrit; comment cela
évolue-t-il si je ne fais que charger le contenu d'un gros fichier
dans la RAM?
Bref, je suis dépassé, et j'ai du mal à trouver de la
doc sérieuse sur internet (mais sûrement que je cherche mal).
2- Pour stocker ces données dans des fichiers, avez-vous une expérience à
faire partager? Existe-t-il des bibliothèques spéciales sous Linux? A
priori aucun intérêt à compresser les données?
Bref je suis preneur de tout conseil.
Fabien LE LEZ wrote:Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
Ok, je vais essayer; j'ai effectivement à disposition une machine 64 bits.
Pourquoi la taille du swap est limitée en 32 bits à 4 Go, et pas en 64
bits?
Fabien LE LEZ wrote:
Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
Ok, je vais essayer; j'ai effectivement à disposition une machine 64 bits.
Pourquoi la taille du swap est limitée en 32 bits à 4 Go, et pas en 64
bits?
Fabien LE LEZ wrote:Alloue donc une partition de swap de 100 Go, et vois ce que ça donne.
Il faut une machine 64 bits pour ça
Ok, je vais essayer; j'ai effectivement à disposition une machine 64 bits.
Pourquoi la taille du swap est limitée en 32 bits à 4 Go, et pas en 64
bits?
Ok, je vais essayer; j'ai effectivement à disposition une machine 64 bits.
Pourquoi la taille du swap est limitée en 32 bits à 4 Go, et pas en 64
bits?
Ok, je vais essayer; j'ai effectivement à disposition une machine 64 bits.
Pourquoi la taille du swap est limitée en 32 bits à 4 Go, et pas en 64
bits?
Ok, je vais essayer; j'ai effectivement à disposition une machine 64 bits.
Pourquoi la taille du swap est limitée en 32 bits à 4 Go, et pas en 64
bits?
J'ai codé un programme qui réalise des calculs qui demandent beaucoup de RAM
(environ 500 Mo).
Je compte améliorer le programme, mais alors j'ai besoin de 100 Go de RAM
(oui!). Ce n'est pas possible. J'envisage donc de stocker mes données sur
le disque dur;
J'ai codé un programme qui réalise des calculs qui demandent beaucoup de RAM
(environ 500 Mo).
Je compte améliorer le programme, mais alors j'ai besoin de 100 Go de RAM
(oui!). Ce n'est pas possible. J'envisage donc de stocker mes données sur
le disque dur;
J'ai codé un programme qui réalise des calculs qui demandent beaucoup de RAM
(environ 500 Mo).
Je compte améliorer le programme, mais alors j'ai besoin de 100 Go de RAM
(oui!). Ce n'est pas possible. J'envisage donc de stocker mes données sur
le disque dur;