OVH Cloud OVH Cloud

copie de serveur à serveur

13 réponses
Avatar
berthelagrandepatte
Bonjour

Nous avons deux sites reliés via une LS donc débit très limité. Un dossier
sur un des serveurs du site central doit etre accessible pour tout le monde
en lecture seule. Le Pb vient du site distant puisque l'affichage du contenu
de ce dossier est très lent a cause de cette LS. L'idée est de copier le
dossier du site central vers le site distant et ensuite au travers d'un
script qui s'executera la nuit, controler le contenu de chaque dossier de
chaques sites pour verifier si des mises a jour ou ajout de fichiers ont été
éffectué puis mettre à jour le site qui ne l'est pas.

Est ce possible de realiser ce type de script ??

Toutes les idées sont bonnes, n'hesitez pas.

Merci

3 réponses

1 2
Avatar
Jacques Barathon [MS]
D'après la doc, /ZB permet en cas d'erreur de reprendre au niveau du paquet
qui a eu une erreur, au lieu de devoir reprendre au début du fichier. Ca
peut être utile si par exemple tu copies un fichier de 2Go et qu'il échoue à
80%, ça peut foutre en l'air ton planning s'il faut repartir de zéro. Par
contre, la doc précise bien que ce mode oblige robocopy a faire du travail
supplémentaire et donc ralentit le process de copie.

Dans tous les cas, /ZB ou pas, robocopy ne s'interrompt pas en cas d'erreur.
Il réessaye le même fichier et s'il échoue il passe au fichier suivant.
D'ailleurs, il est possible de contrôler le nombre de tentatives ainsi que
le délai entre deux tentatives avec les options /R et /W, par exemple:

/R:10 pour 10 tentatives avant de passer au fichier suivant
/W:1 pour attendre 1 seconde entre deux tentatives

Jacques

"Do Re Mi chel La Si Do" wrote in message
news:%
Re


Juste un détail, pour terminer :

J'avais cru comprendre que /ZB correpondait au /C de xcopy, et pouvait
éviter d'avoir la copie bloquée (en attente) lors d'un bête problème
d'accès (par exemple).

Ce commutateur peut ainsi permettre d'effectuer des siestes sereines et
tranquilles (chose que je vais tester dans quelques minutes, si le client
ne s'en aperçoit pas...)


@-salutations

Michel Claveau





Avatar
Nago
Pourquoi ne pas créer un dossier partage en NFS ?

La réplication se fera automatiquement aux heures que tu le décides.

Nag


"berthelagrandepatte" a
écrit dans le message de news:

Bonjour

Nous avons deux sites reliés via une LS donc débit très limité. Un dossier
sur un des serveurs du site central doit etre accessible pour tout le
monde
en lecture seule. Le Pb vient du site distant puisque l'affichage du
contenu
de ce dossier est très lent a cause de cette LS. L'idée est de copier le
dossier du site central vers le site distant et ensuite au travers d'un
script qui s'executera la nuit, controler le contenu de chaque dossier de
chaques sites pour verifier si des mises a jour ou ajout de fichiers ont
été
éffectué puis mettre à jour le site qui ne l'est pas.

Est ce possible de realiser ce type de script ??

Toutes les idées sont bonnes, n'hesitez pas.

Merci


Avatar
Nago
DFS en fait je voulais dire
"Nago" a écrit dans le message de news:
dknsud$dif$
Pourquoi ne pas créer un dossier partage en NFS ?

La réplication se fera automatiquement aux heures que tu le décides.

Nag


"berthelagrandepatte" a
écrit dans le message de news:

Bonjour

Nous avons deux sites reliés via une LS donc débit très limité. Un
dossier
sur un des serveurs du site central doit etre accessible pour tout le
monde
en lecture seule. Le Pb vient du site distant puisque l'affichage du
contenu
de ce dossier est très lent a cause de cette LS. L'idée est de copier le
dossier du site central vers le site distant et ensuite au travers d'un
script qui s'executera la nuit, controler le contenu de chaque dossier de
chaques sites pour verifier si des mises a jour ou ajout de fichiers ont
été
éffectué puis mettre à jour le site qui ne l'est pas.

Est ce possible de realiser ce type de script ??

Toutes les idées sont bonnes, n'hesitez pas.

Merci






1 2