J'ai créé un pool '/tank' et je recopie mon /usr dedans :
tar cf - -C /usr . | tar xpvf - -C /tank
Là ça panique *systématiquement* au bout d'un moment avec vm_fault sur
un free() dans ZFS.
J'ai fait quelque chose de mal au niveau tuning ? À priori c'est
différent du problème s'il n'y a pas assez de mémoire pour le noyau
(j'ai 2 Go de RAM).
J'ai créé un pool '/tank' et je recopie mon /usr dedans : tar cf - -C /usr . | tar xpvf - -C /tank
Là ça panique *systématiquement* au bout d'un moment avec vm_fault sur un free() dans ZFS.
J'ai fait quelque chose de mal au niveau tuning ? À priori c'est différent du problème s'il n'y a pas assez de mémoire pour le noyau (j'ai 2 Go de RAM).
Merci.
moi j'ai ça (même config i386/2Go mais 7.2-Stable) : zfs_load="YES"
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
J'ai créé un pool '/tank' et je recopie mon /usr dedans :
tar cf - -C /usr . | tar xpvf - -C /tank
Là ça panique *systématiquement* au bout d'un moment avec vm_fault sur
un free() dans ZFS.
J'ai fait quelque chose de mal au niveau tuning ? À priori c'est
différent du problème s'il n'y a pas assez de mémoire pour le noyau
(j'ai 2 Go de RAM).
Merci.
moi j'ai ça (même config i386/2Go mais 7.2-Stable) :
zfs_load="YES"
# pour Zfs
vm.kmem_size_min="1400M"
vm.kmem_size="1500M"
vm.kmem_size_max="1800M"
J'ai créé un pool '/tank' et je recopie mon /usr dedans : tar cf - -C /usr . | tar xpvf - -C /tank
Là ça panique *systématiquement* au bout d'un moment avec vm_fault sur un free() dans ZFS.
J'ai fait quelque chose de mal au niveau tuning ? À priori c'est différent du problème s'il n'y a pas assez de mémoire pour le noyau (j'ai 2 Go de RAM).
Merci.
moi j'ai ça (même config i386/2Go mais 7.2-Stable) : zfs_load="YES"
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
moi j'ai ça (même config i386/2Go mais 7.2-Stable) : zfs_load="YES"
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec : kmem_suballoc : bad status return of 3
Thierry Herbelot
Patrick Lamaizière wrote:
Thierry Herbelot :
moi j'ai ça (même config i386/2Go mais 7.2-Stable) : zfs_load="YES"
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec : kmem_suballoc : bad status return of 3
ça fonctionne sans sourciller depuis ~6 mois.
le panic que tu vois sent bon la vieille régression des familles (as-tu remonté une trace DDB sur la mailing list de -current ?). je crois que je vais rester encore un peu sur 7-Stable ....
TfH
Patrick Lamaizière wrote:
Thierry Herbelot :
moi j'ai ça (même config i386/2Go mais 7.2-Stable) :
zfs_load="YES"
# pour Zfs
vm.kmem_size_min="1400M"
vm.kmem_size="1500M"
vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec :
kmem_suballoc : bad status return of 3
ça fonctionne sans sourciller depuis ~6 mois.
le panic que tu vois sent bon la vieille régression des familles (as-tu
remonté une trace DDB sur la mailing list de -current ?). je crois que je
vais rester encore un peu sur 7-Stable ....
moi j'ai ça (même config i386/2Go mais 7.2-Stable) : zfs_load="YES"
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec : kmem_suballoc : bad status return of 3
ça fonctionne sans sourciller depuis ~6 mois.
le panic que tu vois sent bon la vieille régression des familles (as-tu remonté une trace DDB sur la mailing list de -current ?). je crois que je vais rester encore un peu sur 7-Stable ....
TfH
Patrick Lamaizière
Thierry Herbelot :
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec : kmem_suballoc : bad status return of 3
ça fonctionne sans sourciller depuis ~6 mois.
Pour ZFS J'ai trouvé pourquoi, le problème survient si les superpages sont activées. Sans ça a l'air stable (remarque le fait de paniquer systématiquement dénote aussi une certaine stabilité...).
Enfin bon j'ai pu faire tourner mon tar en boucle plusieurs heures sans soucis, alors qu'avec les superpages activées ça panique dans les 5 minutes.
J'ai pas encore regardé le problème du kmem_suballoc.
Thierry Herbelot :
# pour Zfs
vm.kmem_size_min="1400M"
vm.kmem_size="1500M"
vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec :
kmem_suballoc : bad status return of 3
ça fonctionne sans sourciller depuis ~6 mois.
Pour ZFS J'ai trouvé pourquoi, le problème survient si les superpages
sont activées. Sans ça a l'air stable (remarque le fait de paniquer
systématiquement dénote aussi une certaine stabilité...).
Enfin bon j'ai pu faire tourner mon tar en boucle plusieurs heures
sans soucis, alors qu'avec les superpages activées ça panique dans les 5
minutes.
J'ai pas encore regardé le problème du kmem_suballoc.
# pour Zfs vm.kmem_size_min="1400M" vm.kmem_size="1500M" vm.kmem_size_max="1800M"
Et ça fonctionne ? Si je dépasse 512 M ça panique dés le boot avec : kmem_suballoc : bad status return of 3
ça fonctionne sans sourciller depuis ~6 mois.
Pour ZFS J'ai trouvé pourquoi, le problème survient si les superpages sont activées. Sans ça a l'air stable (remarque le fait de paniquer systématiquement dénote aussi une certaine stabilité...).
Enfin bon j'ai pu faire tourner mon tar en boucle plusieurs heures sans soucis, alors qu'avec les superpages activées ça panique dans les 5 minutes.
J'ai pas encore regardé le problème du kmem_suballoc.