Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

calcul de débit réseau

30 réponses
Avatar
Nicolas-Michel_REMOVE
Bonjour

Je voudrais voir quel débit j'ai en lecture sur un serveur.
Ceci en faisant abstraction de ce qui s'y connecte.
Mais en incluant l'accès disque, le serveur lui-même, la connextion
réseau et si possible le protocole.


J'ai tenté ceci :

time scp -qr folder_source autreServer.ici.ch:/dev/null/

Mais ça me dit :
scp: /dev/null/: Not a directory

Alors j'ai fait ça :
find source -type f -exec cat {} \; | ssh -l user server.ici.ch "dd
of=/dev/null" ; date

Qui semble fonctionner.

Mais ça prends pas en compte le protocole.
Conaissez vous un truc pour tester le débit en différents protocoles ?
(afp, cifs, rsync/ssh, scp, ...)


Merci d'avance :)


--
Nicolas Michel

10 réponses

1 2 3
Avatar
romer
Paul Gaborit wrote:

Le seul test "réaliste" est la mesure de l'activité réelle. Et cette
mesure peut changer selon les conditions.


Pour quelques tests, je prends ma montre qui a une trotteuse et divise
la taille du fichier par le temps - ça donne une idée aussi précise que
d'autres méthodes :-)
--
A+

Romer

Avatar
Eric Levenez
Le 05/06/08 15:27, dans <1ii2edt.zyoyxq1esgiztN%, « Jayce
Piel » a écrit :

Heu... 100baseT, c'est du 100Mb/s soit 12,5Mo/s.


Le débit est de 11,9 Mo/s avec M=2^20 (et non M^6)

Mais en pratique, même en full duplex avec des switchs, le débit brute doit
plafonner à 80 ou 85 % de la bande passante pour IP soit 9 à 10 Mo/s. Il
faut ensuite enlever le pourcentage pour l'encapsulation du protocole (5 %
pour FTP/TCP/IP par exemple).

--
Éric Lévénez -- <http://www.levenez.com/>
Unix is not only an OS, it's a way of life.

Avatar
Nicolas-Michel_REMOVE
Eric Levenez wrote:

Tout (ou presque) est fichier sur Unix. Le socket peut être un fichier,
comme /dev/null est un fichier ou comme un répertoire est un fichier. Mais
il y a plein de types de fichiers et les fichier "normaux", ne sont qu'un
type parmi d'autres.


Ok, c'est juste, en plus je le savais.
Mais ça ne m'est revenu qu'après avoir posté.

C'est donc du utile applicatif, pas du débit brute.


Si par brute tu veux dire "raw", genre dd if=/dev/rdisk0, alors oui ça
m'intéresse aussi.

De combien le protocole modifie la performance ?


Cela dépend fortement du protocole.


Patpro dit que non.
Moi je voudrais pouvoir pour me faire une idée.

Tout cela dépend aussi de ce que l'on sauvegarde et comment. Un gros fichier
de 1 Go ira plus vite sur une connexion qu'une multitude de fichiers de la
même taille globale.


Bien évidement.

Argh, bon sang, il faut être root pour envoyer du taff sur /dev/null
C'est pour ça que ça ne voulait pas <:o)


Donc, j'ai fait ce petit test qui ne teste pas le protocole, mais qui
fait déjà un bout :

# time find Music/ -type f -exec cat {} ; >/dev/null
=> 38G en 2m26 pour 6000 fichier, donc 260Mo/s


# time find Music/ -type f -exec cat {} ; | ssh mac2.ici.ch
cat >/dev/null
=> 63Mo/s, 5x moins qu'en local.

Et ceci sur un mac pro + sonnet D800RAID en raid5 avec un Xserve à
l'autre bout.

Tout ça me prouve une fois de plus que le fiber channel de Apple est
surdimentionné dans la très grande majorité des cas, comme quasi tous
les SAN du marché. Et vu le prix, c'est de l'arnaque.

Mais ça veux aussi dire que mon collègue avec son NetApp qui plafonne
entre 10 et 40 Mo/s a un problème sérieux.

Voilà qui tombe super bien, demain j'ai une invitation Apple "Tech
Series Storage & Backup", je saurais quoi leur demander ;->

Merci à tous
--
Nicolas Michel


Avatar
Nicolas-Michel_REMOVE
patpro ~ Patrick Proniewski wrote:

In article <1ii2edt.zyoyxq1esgiztN%,
(Anonyme) wrote:

Michel Nicolas Alex wrote:

Combien on peut mettre d'utilisateurs sur un même serveur avant que ce
ne soit plus la connection 100baseT du client qui le limite ?
Quelle sera la fenêtre de backup ?

Un collègue me dit que selon ses logs il a un débit qui varie entre 10
et 40 Mo/s quand il fait un backup via réseau. Or aucun des éléments de
la chaine de ses serveurs n'est aussi faible : disques raid, connection
fibre, gigabit, ... On devrait être à 80Mo d'après moi. Et je voudrais
comprendre. Pour ça il me faut un moyen d'analyse.


Heu... 100baseT, c'est du 100Mb/s soit 12,5Mo/s.



Ici les clients sont en 100 et les serveurs sont en 1000.

Si un seul client tente d'accéder à un serveur, il ne va pas le saturer.
Mais à partir d'un certain nombre de clients, ...
J'aimerais voir à quel moment ça sature en fonction des différents
équipements que j'ai sous la main.

oui, et puis c'est théorique, on ne les atteint jamais.
En facteur limitants, en dehors du protocole réseau utilisé (ce qui
semble t'inquiéter à mon avis inutilement),


Ce serait amha à vérifier.

tu vas avoir :

- la qualité du driver réseau sur chaque système
- la config du firewall du client, et du serveur (on a vu des cas ou le
débit est moisi sous Mac OS X avec certains réglages de firewall/nat)
- la taille des fichiers
- leur emplacement sur le disque, et leur destination sur le disque du
serveur
- débit et temps d'accès des disques client et serveur


Selon moi le goulet est au niveau du réseau gigabit, qui devrait
plafonner autour des 70 Mo/s. Si je ne parviens pas à ça, c'est qu'il y
a un problème. Reste ensuite à analyser les points que tu donnes, s'il y
a un problème. Note que ça peut aussi être un smb.conf foireux.


Si tu veux vraiment avoir une idée précise de tout ça, il faudra faire
un test grandeur nature : backuper 2 ou 3 machines en utilisant des
protocoles différents, et en plaçant un soft de monitoring entre le
serveur et les clients (style wireshark).
Tu lances ça la nuit, et le lendemain, tu analyses.


Voilà qui a le mérite d'être clair.
Reste à trouver le temps et les moyens ...
Merci :)


--
Nicolas Michel



Avatar
Nicolas-Michel_REMOVE
patpro ~ Patrick Proniewski wrote:

In article
<1ii2m9l.1thhuepv6wikrN%,
(Michel Nicolas Alex) wrote:

(dans un de mes tests je mettais 30 minutes un dossier de zero kb
contenant 10'000 fichiers vides


ce qui est aussi un test hyper-réaliste :)


On est pas loin de ça avec ~/Library/Mails/Mailboxes :
Ici j'ai 12430 fichier de 28k en moyenne.


--
Nicolas Michel


Avatar
laurent.pertois
Michel Nicolas Alex wrote:

Selon moi le goulet est au niveau du réseau gigabit, qui devrait
plafonner autour des 70 Mo/s. Si je ne parviens pas à ça, c'est qu'il y
a un problème. Reste ensuite à analyser les points que tu donnes, s'il y
a un problème.


Si tes clients sont en 100, comment veux-tu atteindre un tel débit ?

Note que ça peut aussi être un smb.conf foireux.


C'est une manie chez toi ;-)

--
Politically Correct Unix - UTILITIES
The "touch" command has been removed from the standard distribution due
to its inappropriate use by high-level managers.

Avatar
laurent.pertois
Michel Nicolas Alex wrote:

Tout ça me prouve une fois de plus que le fiber channel de Apple est
surdimentionné dans la très grande majorité des cas, comme quasi tous
les SAN du marché. Et vu le prix, c'est de l'arnaque.


Tu as un SAN ou juste un Xserve RAID collé à un Xserve ?

Dans le premier cas, combien de contrôleurs de métadonnées ? quel réseau
privé ? combien de luns dans les pools ?

--
Politically Correct Unix - UTILITIES
The "touch" command has been removed from the standard distribution due
to its inappropriate use by high-level managers.

Avatar
fx [François-Xavier Peretmere]
on the 5/06/08 23:21 Michel Nicolas Alex wrote the following:
...

Donc, j'ai fait ce petit test qui ne teste pas le protocole, mais qui
fait déjà un bout :

# time find Music/ -type f -exec cat {} ; >/dev/null
=> 38G en 2m26 pour 6000 fichier, donc 260Mo/s


# time find Music/ -type f -exec cat {} ; | ssh mac2.ici.ch
cat >/dev/null
=> 63Mo/s, 5x moins qu'en local.


...sachant que je n'ai plus en tête l'overhead de SSH mais c'est pas
exactement un protocole optimisé pour le transfert de blocs de données. J'ai
l'impression que mon autres message n'est pas passé alors je me repète :
tout a une importance dans la chaîne, y compris le logiciel. Et le pipe
SShisé est pas vraiment ce qu'il y a de plus optimal. Quitte à sodomiser^Wse
prendre la tête et essayer d'être comparable, il faudrait faire passer le
premier dans un ssh. Ou plutôt que SSH, utiliser netpipe ou un package
similaire pour le test distant.

Les histoires de blocs entre les différentes couches peuvent être crucial
par exemple. On peut avoir le stockage le plus rapide du monde connecté au
réseau le plus rapide de l'univers, si la lecture d'un côté se fait par
blocs de 8k et l'écriture de l'autre côté par blocs de 12k, les perfs ont de
grandes chances d'être pourries. Par blocs de combien le cat lit-il les données?

Et ceci sur un mac pro + sonnet D800RAID en raid5 avec un Xserve à
l'autre bout.

Tout ça me prouve une fois de plus que le fiber channel de Apple est
surdimentionné dans la très grande majorité des cas, comme quasi tous
les SAN du marché. Et vu le prix, c'est de l'arnaque.


Le FC c'est du FC. Ce n'est pas le FC (ou un SAN, même si ce n'est pas la
même chose que le FC, beaucoup de gens ont tendance à intervertir les deux
termes) qui est une arnaque, c'est l'utilisation d'une architecture qui
n'est pas adapté au besoin. Bis repetita, c'est l'architecture qui doit
s'adapter au besoin et non pas l'inverse.


Mais ça veux aussi dire que mon collègue avec son NetApp qui plafonne
entre 10 et 40 Mo/s a un problème sérieux.


Déjà faudrait voir le modèle du NetApp. Ensuite il faudrait voir comment il
est sauvegardé - en mode fichier, avec un agent, snapshots.... Les problèmes
de performances en sauvegardes sont malheureusement rarement aussi triviaux
qu'un "time cat > /dev/null" malheureusement.

Mes 2 octets. Bon courage.

Fx

--
Serious error. All
Shortcuts have disppeared.
Screen. Mind. Both are blank.

Avatar
fx [François-Xavier Peretmere]
on the 5/06/08 23:29 Laurent Pertois wrote the following:
Michel Nicolas Alex wrote:

Tout ça me prouve une fois de plus que le fiber channel de Apple est
surdimentionné dans la très grande majorité des cas, comme quasi tous
les SAN du marché. Et vu le prix, c'est de l'arnaque.


Tu as un SAN ou juste un Xserve RAID collé à un Xserve ?

Dans le premier cas, combien de contrôleurs de métadonnées ? quel réseau
privé ? combien de luns dans les pools ?


Ces questions me semblent porter sur aucun des deux cas, mais plutôt sur
Xsan, le système de fichiers clusterisé d'Apple. Un SAN, c'est juste un
réseau de données en mode bloc.

Fx

--
A crash reduces
Your expensive computer
To a simple stone.


Avatar
Paul Gaborit
À (at) Thu, 5 Jun 2008 23:27:50 +0200,
(Michel Nicolas Alex) écrivait (wrote):
patpro ~ Patrick Proniewski wrote:

In article
<1ii2m9l.1thhuepv6wikrN%,
(Michel Nicolas Alex) wrote:

(dans un de mes tests je mettais 30 minutes un dossier de zero kb
contenant 10'000 fichiers vides


ce qui est aussi un test hyper-réaliste :)


On est pas loin de ça avec ~/Library/Mails/Mailboxes :
Ici j'ai 12430 fichier de 28k en moyenne.


Si vous précisiez ce que vous voulez tester !

Vous nous parlez de smb, de ssh, de rsync, de fiberchanel, d'accès aux
disques, de liens en 100 ou 1000, de petits ou de gros fichiers...

--
Paul Gaborit - <http://perso.enstimac.fr/~gaborit/>



1 2 3