rsync bloqu=c3=a9 sur un montage cifs

4 réponses
Avatar
Samy Mezani
Bonjour,

J'effectue quotidiennement des sauvegardes automatiques d'un répertoire
sur un montage cifs avec rsync (2 répertoires sur un NAS nommés ci-après
destination1 et destination2).

Or l'accès à ce partage a dû être interrompu il y a quelques jours.

dmesg | grep -i cifs
[928596.483038] CIFS VFS: sends on sock 00000000eabab429 stuck for 15
seconds
[928596.483091] CIFS VFS: Error -11 sending data on socket to server
[928611.842812] CIFS VFS: sends on sock 00000000eabab429 stuck for 15
seconds
[928611.842859] CIFS VFS: Error -11 sending data on socket to server
[928627.202640] CIFS VFS: sends on sock 00000000eabab429 stuck for 15
seconds
[928627.202690] CIFS VFS: Error -11 sending data on socket to server
[928642.562396] CIFS VFS: sends on sock 00000000eabab429 stuck for 15
seconds
[928642.562443] CIFS VFS: Error -11 sending data on socket to server
[928693.800067] CIFS VFS: cifs_invalidate_mapping: could not invalidate
inode 0000000032ccb70f
[2340379.438596] CIFS VFS: Server 192.168.1.3 has not responded in 180
seconds. Reconnecting...
[2340380.462594] CIFS VFS: Server 192.168.1.3 has not responded in 180
seconds. Reconnecting...
[2340380.462596] CIFS VFS: Server 192.168.1.3 has not responded in 180
seconds. Reconnecting...
[2340380.462695] CIFS VFS: Server 192.168.1.3 has not responded in 180
seconds. Reconnecting...
[2600595.771503] CIFS VFS: Close unmatched open



Depuis, rsync est bloqué et il me crée chaque jour de nouveaux processus
qui restent bloqués !

J'ai tenté de tuer ces processus de façon assez brutale :
kill $(pgrep -f rsync) # pas d'effet
puis
kill -9 $(pgrep -f rsync) # idem

Je me retrouve encore avec tous ces processus :

1199 ? D 0:06 rsync [-mes_paramètres source2 destination2]
1200 ? Z 0:00 [rsync] <defunct>
3372 ? D 0:01 rsync [-mes_paramètres source2 destination2]
3373 ? Z 0:00 [rsync] <defunct>
5278 ? D 0:00 rsync [-mes_paramètres source1 destination1]
5279 ? Z 0:00 [rsync] <defunct>
7142 ? D 0:11 rsync [-mes_paramètres source2 destination2]
7143 ? Z 0:00 [rsync] <defunct>
8670 ? D 19:06 rsync [-mes_paramètres source2 destination2]
8671 ? Z 0:03 [rsync] <defunct>
10401 ? D 0:29 rsync [-mes_paramètres source2 destination2]
10402 ? Z 0:01 [rsync] <defunct>
18307 ? D 0:02 rsync [-mes_paramètres source1 destination1]
18308 ? Z 0:00 [rsync] <defunct>
19543 ? D 9:59 rsync [-mes_paramètres source2 destination2]
19544 ? Z 0:02 [rsync] <defunct>
22885 ? D 0:00 rsync [-mes_paramètres source1 destination1]
22886 ? Z 0:00 [rsync] <defunct>
25231 ? D 0:00 rsync [-mes_paramètres source1 destination1]
25232 ? Z 0:00 [rsync] <defunct>
26455 ? D 0:00 rsync [-mes_paramètres source1 destination1]
26456 ? Z 0:00 [rsync] <defunct>
26832 ? D 0:00 rsync [-mes_paramètres source1 destination1]
26833 ? Z 0:00 [rsync] <defunct>
30054 ? D 0:40 rsync [-mes_paramètres source2 destination2]
30055 ? Z 0:02 [rsync] <defunct>
30422 ? D 0:19 rsync [-mes_paramètres source2 destination2]
30423 ? Z 0:01 [rsync] <defunct>
31032 ? D 0:04 rsync [-mes_paramètres source2 destination2]
31033 ? Z 0:00 [rsync] <defunct>

L'accès à ce montage est désormais bloqué :
- ls destination1 n'aboutit pas (ne me rend pas le prompt)
- umount destination1 fait de même

Je ne peux pas redémarrer ce poste car il s'agit d'un serveur situé dans
un local inaccessible pour l'instant et un petit souci matériel au
démarrage oblige à le redémarrer sur place une 2e fois (je perds l'accès
SSH).

Comment arrêter rsync et essayer de démonter/remonter ce partage ?

Merci

Samy

4 réponses

Avatar
Sébastien NOBILI
Le 2020-04-30 18:40, Samy Mezani a écrit :
L'accès à ce montage est désormais bloqué :
- ls destination1 n'aboutit pas (ne me rend pas le prompt)
- umount destination1 fait de même

Ça explique aussi les rsync qui s'empilent et ne peuvent pas être tués.
Est-ce qu'un démontage "lazy" fonctionne ?
umount -l /mount/point
Sébastien
Avatar
Christophe
Hello,
Le 30/04/2020 à 19:08, Sébastien NOBILI a écrit :
Le 2020-04-30 18:40, Samy Mezani a écrit :
L'accès à ce montage est désormais bloqué :
- ls destination1 n'aboutit pas (ne me rend pas le prompt)
- umount destination1 fait de même

Ça explique aussi les rsync qui s'empilent et ne peuvent pas être tués.
Est-ce qu'un démontage "lazy" fonctionne ?
    umount -l /mount/point

Yep, j'approuve, et si ça suffit pas :
umount -f -l /mount/point
Ca m'a sorti de quelques situations similaires avec des montages NFS.
(j'ignorais par contre que SMB/CIFS était sujet à ce genre de problèmes).
Christophe.
Avatar
Samy Mezani
Bonsoir,
Le 30/04/2020 à 21:46, Christophe a écrit :
Hello,
Le 30/04/2020 à 19:08, Sébastien NOBILI a écrit :
Est-ce qu'un démontage "lazy" fonctionne ?
    umount -l /mount/point

Yep, j'approuve, et si ça suffit pas :
umount -f -l /mount/point

Effectivement, merci, ça démonte correctement mes points de montage.
Mais j'ai toujours mes processus rsync D et Z que je n'arrive pas à tuer.
J'ai des processus mount et umount qui sont toujours là également, suite
à des tentatives de démontage/remontage infructueux.
Comment les tuer ?
Samy
Avatar
Samy Mezani
Bonjour,
Le 01/05/2020 à 11:53, Pierre Malard a écrit :
Pourquoi s’emm… à essayer de faire un rsync d’un FS Unix depuis un
poste Unix sur un FS certainement Unix (Ext, XFS, …) qui est certainement
également un poste tournant sous Unix en effectuant un montage CIFS ????

Cette remarque est tout à fait justifiée et je me suis même demandé
comment j'en étais arrivé là ! ;-)
En fait, il s'agit d'une sauvegarde sur un NAS Synology dont le partage
CIFS est activé de longue date pour des postes Windows. Donc pour éviter
de créer d'autres partages, j'ai utilisé l'existant. Ce n'est pas
parfait, mais je ne voulais pas au départ activer SSH sur ce NAS, car je
maîtrisais peu le système Linux sur ce matériel (pas de /home, gestion
des paquets différente, etc.)
Mais maintenant que j'ai activé SSH avec succès, effectivement ça peut
tout changer. Ça date de hier soir seulement, mais à voir si j'ai le
temps de revoir mes scripts.
Et sinon, j'ai toujours mes processus rsync D et Z... Ce qui n'a pas
empêché ma sauvegarde automatique aujourd'hui.
Merci en tous cas
Samy