Là, je fais référence à des temps constatés lors de l'exploitation d'une
base mysql via OpenOffice.org BASE. Un fichier csv de 65,000 lignes
demande à peu près 3 minutes pour s'intégrer à ma base mysql par copié/
collé. Ensuite je fais l'ajout de la deuxième partie, et çà prend à peu
près le même temps. Par contre, si je fais la manip, non plus via
OO_Base, mais directement sous MySQL, via une ligne de commande que j'ai
adaptée d'après une doc trouvée par Google Search, çà ne prend pas 3
minutes, mais seulement 0.15 sec, comme affiché à la fin du processus.
Revenons à OO Base. Si j'ouvre la table, ce qui s'affiche à l'écran
précise : line 1 of 50. Il n'y a en effet que 50 lignes affichées. Si je
fais 'suite', il s'affiche davantage, mais après 2 ou 3 pression sur la
touche PAGE_DOWN, il y a un délai d'attente avant que ne s'affiche la
suivante. Reste la possibilité de cliquer sur le bouton '>>|' (dernière
fiche). Lorsque je clique là dessus, j'attends environ 3 minutes s'il
s'agit d'une table de 65,000 lignes, environ 6 minutes pour mon fichier
entier (115568 lignes), avant d'arriver à la dernière ligne. Pendant le
temps d'attente, je ne vois rien se passer, le bouton '>>|' a disparu, et
un 'top' dans un terminal m'indique que 99% de la CPU et 60% de la
mémoire sont accaparés par OpenOffice. A la fin du processus, le bouton
réapparaît, et je me retrouve avec un tableau indiquant, non plus 'line 1
of 50', mais 'line 115568 of 115568'. Ensuite, si je clique sur '|<<', le
retour à la ligne 1 est quasiment instantané, idem pour le retour à la
dernière ligne. Et, désormais, au lieu d'afficher 'line 1 of 50', çà
affiche 'line 1 of 115568'. Une fois ce premier parcours achevé, les va
et vient entre la première et la dernière ligne sont quasiment
instantanés.
Là, je fais référence à des temps constatés lors de l'exploitation d'une
base mysql via OpenOffice.org BASE. Un fichier csv de 65,000 lignes
demande à peu près 3 minutes pour s'intégrer à ma base mysql par copié/
collé. Ensuite je fais l'ajout de la deuxième partie, et çà prend à peu
près le même temps. Par contre, si je fais la manip, non plus via
OO_Base, mais directement sous MySQL, via une ligne de commande que j'ai
adaptée d'après une doc trouvée par Google Search, çà ne prend pas 3
minutes, mais seulement 0.15 sec, comme affiché à la fin du processus.
Revenons à OO Base. Si j'ouvre la table, ce qui s'affiche à l'écran
précise : line 1 of 50. Il n'y a en effet que 50 lignes affichées. Si je
fais 'suite', il s'affiche davantage, mais après 2 ou 3 pression sur la
touche PAGE_DOWN, il y a un délai d'attente avant que ne s'affiche la
suivante. Reste la possibilité de cliquer sur le bouton '>>|' (dernière
fiche). Lorsque je clique là dessus, j'attends environ 3 minutes s'il
s'agit d'une table de 65,000 lignes, environ 6 minutes pour mon fichier
entier (115568 lignes), avant d'arriver à la dernière ligne. Pendant le
temps d'attente, je ne vois rien se passer, le bouton '>>|' a disparu, et
un 'top' dans un terminal m'indique que 99% de la CPU et 60% de la
mémoire sont accaparés par OpenOffice. A la fin du processus, le bouton
réapparaît, et je me retrouve avec un tableau indiquant, non plus 'line 1
of 50', mais 'line 115568 of 115568'. Ensuite, si je clique sur '|<<', le
retour à la ligne 1 est quasiment instantané, idem pour le retour à la
dernière ligne. Et, désormais, au lieu d'afficher 'line 1 of 50', çà
affiche 'line 1 of 115568'. Une fois ce premier parcours achevé, les va
et vient entre la première et la dernière ligne sont quasiment
instantanés.
Là, je fais référence à des temps constatés lors de l'exploitation d'une
base mysql via OpenOffice.org BASE. Un fichier csv de 65,000 lignes
demande à peu près 3 minutes pour s'intégrer à ma base mysql par copié/
collé. Ensuite je fais l'ajout de la deuxième partie, et çà prend à peu
près le même temps. Par contre, si je fais la manip, non plus via
OO_Base, mais directement sous MySQL, via une ligne de commande que j'ai
adaptée d'après une doc trouvée par Google Search, çà ne prend pas 3
minutes, mais seulement 0.15 sec, comme affiché à la fin du processus.
Revenons à OO Base. Si j'ouvre la table, ce qui s'affiche à l'écran
précise : line 1 of 50. Il n'y a en effet que 50 lignes affichées. Si je
fais 'suite', il s'affiche davantage, mais après 2 ou 3 pression sur la
touche PAGE_DOWN, il y a un délai d'attente avant que ne s'affiche la
suivante. Reste la possibilité de cliquer sur le bouton '>>|' (dernière
fiche). Lorsque je clique là dessus, j'attends environ 3 minutes s'il
s'agit d'une table de 65,000 lignes, environ 6 minutes pour mon fichier
entier (115568 lignes), avant d'arriver à la dernière ligne. Pendant le
temps d'attente, je ne vois rien se passer, le bouton '>>|' a disparu, et
un 'top' dans un terminal m'indique que 99% de la CPU et 60% de la
mémoire sont accaparés par OpenOffice. A la fin du processus, le bouton
réapparaît, et je me retrouve avec un tableau indiquant, non plus 'line 1
of 50', mais 'line 115568 of 115568'. Ensuite, si je clique sur '|<<', le
retour à la ligne 1 est quasiment instantané, idem pour le retour à la
dernière ligne. Et, désormais, au lieu d'afficher 'line 1 of 50', çà
affiche 'line 1 of 115568'. Une fois ce premier parcours achevé, les va
et vient entre la première et la dernière ligne sont quasiment
instantanés.
Mais la sauvegarde des exécutables ne se fait q'une fois lors de chaque
mise à jour importante, pas quotidiennement non ?
Si on veut vraiment ce genre de sauvegardes il vaut mieux : - soit
avoir de la réplication, et comme ca on peut arrêter l'esclave quand on
veut pour faire la sauvegarde à cet endroit (étant donné que la
présence de l'esclave est déjà une sauvegarde en soi, en tout cas au
niveau de la défaillance du serveur principal, pas au niveau d'un
DELETE FROM mal utilisé)
Oui cela pose tout de même la question du temps d'arrête de l'esclave et
de tout ce qu'il va devoir "rattrapper après la sauvegarde".
Si la
sauvegarde est très longue il faut plusieurs esclaves si l'on veut
cumuler redondance et sauvegarde.
Oui pour ce qui est du format tu touches juste, mais pour de gros
volumes de données j'ai des souvenirs de temps de reconstruction
tellement horriblement longs (non comparable à une restitution
d'arborescence, postulant qu'on restaure l'arbo dans un environnement
compatible) que j'avais un peu mis de côté cette solution.
En fait il ne semble pas y avoir de solution imparable si je te suis
bien... répliction + sauvegarde d'arborescence avec les binaires qui
vont bien + dump si on veut avoir toutes les chances ça fait beaucoup !
Et comme toujours ce n'est qu'au moment de restaurer qu'on s'apperçoit
que rien ne marche... ;-)
Mais la sauvegarde des exécutables ne se fait q'une fois lors de chaque
mise à jour importante, pas quotidiennement non ?
Si on veut vraiment ce genre de sauvegardes il vaut mieux : - soit
avoir de la réplication, et comme ca on peut arrêter l'esclave quand on
veut pour faire la sauvegarde à cet endroit (étant donné que la
présence de l'esclave est déjà une sauvegarde en soi, en tout cas au
niveau de la défaillance du serveur principal, pas au niveau d'un
DELETE FROM mal utilisé)
Oui cela pose tout de même la question du temps d'arrête de l'esclave et
de tout ce qu'il va devoir "rattrapper après la sauvegarde".
Si la
sauvegarde est très longue il faut plusieurs esclaves si l'on veut
cumuler redondance et sauvegarde.
Oui pour ce qui est du format tu touches juste, mais pour de gros
volumes de données j'ai des souvenirs de temps de reconstruction
tellement horriblement longs (non comparable à une restitution
d'arborescence, postulant qu'on restaure l'arbo dans un environnement
compatible) que j'avais un peu mis de côté cette solution.
En fait il ne semble pas y avoir de solution imparable si je te suis
bien... répliction + sauvegarde d'arborescence avec les binaires qui
vont bien + dump si on veut avoir toutes les chances ça fait beaucoup !
Et comme toujours ce n'est qu'au moment de restaurer qu'on s'apperçoit
que rien ne marche... ;-)
Mais la sauvegarde des exécutables ne se fait q'une fois lors de chaque
mise à jour importante, pas quotidiennement non ?
Si on veut vraiment ce genre de sauvegardes il vaut mieux : - soit
avoir de la réplication, et comme ca on peut arrêter l'esclave quand on
veut pour faire la sauvegarde à cet endroit (étant donné que la
présence de l'esclave est déjà une sauvegarde en soi, en tout cas au
niveau de la défaillance du serveur principal, pas au niveau d'un
DELETE FROM mal utilisé)
Oui cela pose tout de même la question du temps d'arrête de l'esclave et
de tout ce qu'il va devoir "rattrapper après la sauvegarde".
Si la
sauvegarde est très longue il faut plusieurs esclaves si l'on veut
cumuler redondance et sauvegarde.
Oui pour ce qui est du format tu touches juste, mais pour de gros
volumes de données j'ai des souvenirs de temps de reconstruction
tellement horriblement longs (non comparable à une restitution
d'arborescence, postulant qu'on restaure l'arbo dans un environnement
compatible) que j'avais un peu mis de côté cette solution.
En fait il ne semble pas y avoir de solution imparable si je te suis
bien... répliction + sauvegarde d'arborescence avec les binaires qui
vont bien + dump si on veut avoir toutes les chances ça fait beaucoup !
Et comme toujours ce n'est qu'au moment de restaurer qu'on s'apperçoit
que rien ne marche... ;-)
Le Fri, 09 Oct 2009 14:44:57 +0200, Alarch a écrit:
Mieux vaut donc sauvegarder tout à chaque fois, avec un outil comme
rsnapshot par exemple, qui utilise des liens durs, x copies du même
fichier ne prendront que la place d'une instance.
Oui pour ce qui est du format tu touches juste, mais pour de gros
volumes de données j'ai des souvenirs de temps de reconstruction
tellement horriblement longs (non comparable à une restitution
d'arborescence, postulant qu'on restaure l'arbo dans un environnement
compatible) que j'avais un peu mis de côté cette solution.
PostgreSQL peut exporter dans un format compressé et faire l'importation
en parallélisant sur plusieurs processeurs.
Il faut bien spécifier le besoin : veut-on se prémunir d'une défaillance
matérielle du serveur ou d'un malencontrueux DROP DATABASE ? Quelle
granularité pour les sauvegardes, quelle périodicité, etc.
Ca fait beaucoup de paramètres, et la "bonne" solution dépend de ceux-ci.
Après effectivement une vraie bonne sauvegarde n'est qu'une sauvegarde
réellement testée en pratique, ce qui n'arrive pas toujours, enfin pas au
bon moment :-(.
Le Fri, 09 Oct 2009 14:44:57 +0200, Alarch a écrit:
Mieux vaut donc sauvegarder tout à chaque fois, avec un outil comme
rsnapshot par exemple, qui utilise des liens durs, x copies du même
fichier ne prendront que la place d'une instance.
Oui pour ce qui est du format tu touches juste, mais pour de gros
volumes de données j'ai des souvenirs de temps de reconstruction
tellement horriblement longs (non comparable à une restitution
d'arborescence, postulant qu'on restaure l'arbo dans un environnement
compatible) que j'avais un peu mis de côté cette solution.
PostgreSQL peut exporter dans un format compressé et faire l'importation
en parallélisant sur plusieurs processeurs.
Il faut bien spécifier le besoin : veut-on se prémunir d'une défaillance
matérielle du serveur ou d'un malencontrueux DROP DATABASE ? Quelle
granularité pour les sauvegardes, quelle périodicité, etc.
Ca fait beaucoup de paramètres, et la "bonne" solution dépend de ceux-ci.
Après effectivement une vraie bonne sauvegarde n'est qu'une sauvegarde
réellement testée en pratique, ce qui n'arrive pas toujours, enfin pas au
bon moment :-(.
Le Fri, 09 Oct 2009 14:44:57 +0200, Alarch a écrit:
Mieux vaut donc sauvegarder tout à chaque fois, avec un outil comme
rsnapshot par exemple, qui utilise des liens durs, x copies du même
fichier ne prendront que la place d'une instance.
Oui pour ce qui est du format tu touches juste, mais pour de gros
volumes de données j'ai des souvenirs de temps de reconstruction
tellement horriblement longs (non comparable à une restitution
d'arborescence, postulant qu'on restaure l'arbo dans un environnement
compatible) que j'avais un peu mis de côté cette solution.
PostgreSQL peut exporter dans un format compressé et faire l'importation
en parallélisant sur plusieurs processeurs.
Il faut bien spécifier le besoin : veut-on se prémunir d'une défaillance
matérielle du serveur ou d'un malencontrueux DROP DATABASE ? Quelle
granularité pour les sauvegardes, quelle périodicité, etc.
Ca fait beaucoup de paramètres, et la "bonne" solution dépend de ceux-ci.
Après effectivement une vraie bonne sauvegarde n'est qu'une sauvegarde
réellement testée en pratique, ce qui n'arrive pas toujours, enfin pas au
bon moment :-(.
Ah ? pourquoi ? si la base est arrêtée c'est à mon avis la meilleure idée.
Oui répliquer, mais il n'est pas certain que ça revienne moins cher.
Sauf si l'on a des volumes de données énormes, mais dans ce cas là de toute
façon on ne pourra jamais réellement sauvegarder une base énorme qui
travaille beaucoup, dans un cas de ce genre il faut avoir plusieurs
serveurs de réplication, dans des sites différents avec la sécurité qui va
avec et cet ensemble de serveur constitue la sauvegarde.
Qu'est-ce qui te fait dire que ton dump est plus fiable que ma copie
d'arborescence ? Du moment bien entendu que les précautions sont prises
pour soit verrouiller la base soit l'arrêter pour la recopie
d'arborescence ?
D'ailleurs ça me fait penser, je n'ai pas regardé ça de près, mais qu'il me
semble que maintenant sur MySQL on peut avoir des logs binaires qui peuvent
être utilisés en cas de crash de la base. Est-ce que ce type de logs
pourrait être utilisés de façon analogue à un dump ?
Ah ? pourquoi ? si la base est arrêtée c'est à mon avis la meilleure idée.
Oui répliquer, mais il n'est pas certain que ça revienne moins cher.
Sauf si l'on a des volumes de données énormes, mais dans ce cas là de toute
façon on ne pourra jamais réellement sauvegarder une base énorme qui
travaille beaucoup, dans un cas de ce genre il faut avoir plusieurs
serveurs de réplication, dans des sites différents avec la sécurité qui va
avec et cet ensemble de serveur constitue la sauvegarde.
Qu'est-ce qui te fait dire que ton dump est plus fiable que ma copie
d'arborescence ? Du moment bien entendu que les précautions sont prises
pour soit verrouiller la base soit l'arrêter pour la recopie
d'arborescence ?
D'ailleurs ça me fait penser, je n'ai pas regardé ça de près, mais qu'il me
semble que maintenant sur MySQL on peut avoir des logs binaires qui peuvent
être utilisés en cas de crash de la base. Est-ce que ce type de logs
pourrait être utilisés de façon analogue à un dump ?
Ah ? pourquoi ? si la base est arrêtée c'est à mon avis la meilleure idée.
Oui répliquer, mais il n'est pas certain que ça revienne moins cher.
Sauf si l'on a des volumes de données énormes, mais dans ce cas là de toute
façon on ne pourra jamais réellement sauvegarder une base énorme qui
travaille beaucoup, dans un cas de ce genre il faut avoir plusieurs
serveurs de réplication, dans des sites différents avec la sécurité qui va
avec et cet ensemble de serveur constitue la sauvegarde.
Qu'est-ce qui te fait dire que ton dump est plus fiable que ma copie
d'arborescence ? Du moment bien entendu que les précautions sont prises
pour soit verrouiller la base soit l'arrêter pour la recopie
d'arborescence ?
D'ailleurs ça me fait penser, je n'ai pas regardé ça de près, mais qu'il me
semble que maintenant sur MySQL on peut avoir des logs binaires qui peuvent
être utilisés en cas de crash de la base. Est-ce que ce type de logs
pourrait être utilisés de façon analogue à un dump ?
Alarch wrote:
Cependan, pour éviter de dire n'importe quoi, je suis aller
farfouiller le code de MySQL. D'après ma lecture, il semblerait que le
problème est géré en forçant les int à etre little endian.
Finalement, avec MySQL, on peut sauvegarder la base à l'arrache.
Oui répliquer, mais il n'est pas certain que ça revienne moins cher.
Perdre toutes ces données parce que les sauvegardes ne sont plus
exploitables peut ce révéler inestimable. C'est pourquoi j me montre
aussi méfiant.
Sauf si l'on a des volumes de données énormes, mais dans ce cas là de
toute façon on ne pourra jamais réellement sauvegarder une base énorme
qui travaille beaucoup, dans un cas de ce genre il faut avoir plusieurs
serveurs de réplication, dans des sites différents avec la sécurité qui
va avec et cet ensemble de serveur constitue la sauvegarde.
La raison principale est liée à l'interopérabilité des données. Un
fichier texte est plus interopérable qu'une série de fichiers binaires
propre à un logiciel, fusse-t-il libre.
Alarch wrote:
Cependan, pour éviter de dire n'importe quoi, je suis aller
farfouiller le code de MySQL. D'après ma lecture, il semblerait que le
problème est géré en forçant les int à etre little endian.
Finalement, avec MySQL, on peut sauvegarder la base à l'arrache.
Oui répliquer, mais il n'est pas certain que ça revienne moins cher.
Perdre toutes ces données parce que les sauvegardes ne sont plus
exploitables peut ce révéler inestimable. C'est pourquoi j me montre
aussi méfiant.
Sauf si l'on a des volumes de données énormes, mais dans ce cas là de
toute façon on ne pourra jamais réellement sauvegarder une base énorme
qui travaille beaucoup, dans un cas de ce genre il faut avoir plusieurs
serveurs de réplication, dans des sites différents avec la sécurité qui
va avec et cet ensemble de serveur constitue la sauvegarde.
La raison principale est liée à l'interopérabilité des données. Un
fichier texte est plus interopérable qu'une série de fichiers binaires
propre à un logiciel, fusse-t-il libre.
Alarch wrote:
Cependan, pour éviter de dire n'importe quoi, je suis aller
farfouiller le code de MySQL. D'après ma lecture, il semblerait que le
problème est géré en forçant les int à etre little endian.
Finalement, avec MySQL, on peut sauvegarder la base à l'arrache.
Oui répliquer, mais il n'est pas certain que ça revienne moins cher.
Perdre toutes ces données parce que les sauvegardes ne sont plus
exploitables peut ce révéler inestimable. C'est pourquoi j me montre
aussi méfiant.
Sauf si l'on a des volumes de données énormes, mais dans ce cas là de
toute façon on ne pourra jamais réellement sauvegarder une base énorme
qui travaille beaucoup, dans un cas de ce genre il faut avoir plusieurs
serveurs de réplication, dans des sites différents avec la sécurité qui
va avec et cet ensemble de serveur constitue la sauvegarde.
La raison principale est liée à l'interopérabilité des données. Un
fichier texte est plus interopérable qu'une série de fichiers binaires
propre à un logiciel, fusse-t-il libre.
Question un peu hors sujet, en dehors des systèmes IBM ou des processeurs
motorola, il y a actuellement des machines courantes qui utilisent le big
endian ?
Question un peu hors sujet, en dehors des systèmes IBM ou des processeurs
motorola, il y a actuellement des machines courantes qui utilisent le big
endian ?
Question un peu hors sujet, en dehors des systèmes IBM ou des processeurs
motorola, il y a actuellement des machines courantes qui utilisent le big
endian ?
Bernard wrote:
D'abord, cette base MySQL, comment en fait on des sauvegardes ?
Et bien la sauvegarde de MySQL dépend de plusieurs choses. Si tu peux à
un moment de la journée arrêter ta base, alors tu as au moins deux
solutions : faire une recopie avec cp et les options d'archives qui vont
bien (man cp) ou mieux un rsync avec les bonnes options (man rsync), de
/var/lib/mysql/labase/ sur un répertoire de sauvegarde de ton choix
(éventuellement distant sur un serveur de sauvegarde).
Si tu ne peux jamais l'arrêter il faut faire ce qu'on appelle une
"sauvegarde à chaud".
Car si tu te contentais de recopier simplement l'arborescence de
/var/lib/mysql/mabase pendant qu'elle tourne, tu as un pourcentage de
chance frôlant le 100% si ta base est très sollicitée en écriture, de te
retrouver avec un état incohérent à l'arrivée (imagine que tu aies un
insert dans une table, lié avec un insert dans une autre, manque de
chance tu recopies la seconde table avant l'insert et la seconde ensuite
avec l'insert, à l'arrivée ta base est inutilisable ou à tout le moins
incohérente.
Sinon bien entendu il reste toujours les solutions de "dump", perso je
n'aime pas trop ça mais bon. L'idée est de recopier les données de la
base dans un fichier texte, souvent sous forme d'instructions SQL
d'insert pour pouvoir recréer les bases et y réinjecter les données en
restauration. Beaucoup plus long que de faire un rsync sur une
arborescence à mon goût.
Bernard wrote:
D'abord, cette base MySQL, comment en fait on des sauvegardes ?
Et bien la sauvegarde de MySQL dépend de plusieurs choses. Si tu peux à
un moment de la journée arrêter ta base, alors tu as au moins deux
solutions : faire une recopie avec cp et les options d'archives qui vont
bien (man cp) ou mieux un rsync avec les bonnes options (man rsync), de
/var/lib/mysql/labase/ sur un répertoire de sauvegarde de ton choix
(éventuellement distant sur un serveur de sauvegarde).
Si tu ne peux jamais l'arrêter il faut faire ce qu'on appelle une
"sauvegarde à chaud".
Car si tu te contentais de recopier simplement l'arborescence de
/var/lib/mysql/mabase pendant qu'elle tourne, tu as un pourcentage de
chance frôlant le 100% si ta base est très sollicitée en écriture, de te
retrouver avec un état incohérent à l'arrivée (imagine que tu aies un
insert dans une table, lié avec un insert dans une autre, manque de
chance tu recopies la seconde table avant l'insert et la seconde ensuite
avec l'insert, à l'arrivée ta base est inutilisable ou à tout le moins
incohérente.
Sinon bien entendu il reste toujours les solutions de "dump", perso je
n'aime pas trop ça mais bon. L'idée est de recopier les données de la
base dans un fichier texte, souvent sous forme d'instructions SQL
d'insert pour pouvoir recréer les bases et y réinjecter les données en
restauration. Beaucoup plus long que de faire un rsync sur une
arborescence à mon goût.
Bernard wrote:
D'abord, cette base MySQL, comment en fait on des sauvegardes ?
Et bien la sauvegarde de MySQL dépend de plusieurs choses. Si tu peux à
un moment de la journée arrêter ta base, alors tu as au moins deux
solutions : faire une recopie avec cp et les options d'archives qui vont
bien (man cp) ou mieux un rsync avec les bonnes options (man rsync), de
/var/lib/mysql/labase/ sur un répertoire de sauvegarde de ton choix
(éventuellement distant sur un serveur de sauvegarde).
Si tu ne peux jamais l'arrêter il faut faire ce qu'on appelle une
"sauvegarde à chaud".
Car si tu te contentais de recopier simplement l'arborescence de
/var/lib/mysql/mabase pendant qu'elle tourne, tu as un pourcentage de
chance frôlant le 100% si ta base est très sollicitée en écriture, de te
retrouver avec un état incohérent à l'arrivée (imagine que tu aies un
insert dans une table, lié avec un insert dans une autre, manque de
chance tu recopies la seconde table avant l'insert et la seconde ensuite
avec l'insert, à l'arrivée ta base est inutilisable ou à tout le moins
incohérente.
Sinon bien entendu il reste toujours les solutions de "dump", perso je
n'aime pas trop ça mais bon. L'idée est de recopier les données de la
base dans un fichier texte, souvent sous forme d'instructions SQL
d'insert pour pouvoir recréer les bases et y réinjecter les données en
restauration. Beaucoup plus long que de faire un rsync sur une
arborescence à mon goût.
Mais je me pose la question suivante : quels sont les risques de faire
un dump alors que le serveur tourne ?
Mais je me pose la question suivante : quels sont les risques de faire
un dump alors que le serveur tourne ?
Mais je me pose la question suivante : quels sont les risques de faire
un dump alors que le serveur tourne ?