Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

300 To

6 réponses
Avatar
pascal
Bonjour,

Je suis à la recherche de renseignements pour une infrastructure de stockage
de 300 To.

Existe-t-il des entreprises qui proposent ça (matériel et/ou prestation) ?
Le besoin serait d'y accéder via des serveurs www frontaux.

L'idéal serait de pouvoir partir d'une base de 100 To qu'on augmenterait au
fil du temps (avec des disques hotswap, possible?).

Le premier impératif est le coût.

Absolument toutes les suggestions sont bienvenues (type de matériel, coût
etc).

Merci

6 réponses

Avatar
Philippe Weill
pascal wrote:
Bonjour,

Je suis à la recherche de renseignements pour une infrastructure de stockage
de 300 To.

Existe-t-il des entreprises qui proposent ça (matériel et/ou prestation) ?
Le besoin serait d'y accéder via des serveurs www frontaux.

L'idéal serait de pouvoir partir d'une base de 100 To qu'on augmenterait au
fil du temps (avec des disques hotswap, possible?).

Le premier impératif est le coût.

Absolument toutes les suggestions sont bienvenues (type de matériel, coût
etc).

Merci





tu peux regarder du coté de Xyratex

type 5404 ( 48x1To 4U )
Avatar
Loic Tortay
Le Tue, 30 Sep 2008 12:45:21 +0200, pascal a écrit :

Je suis à la recherche de renseignements pour une infrastructure de stockage
de 300 To.

Existe-t-il des entreprises qui proposent ça (matériel et/ou prestation) ?



Plein d'entreprises sont capables de fournir 300 To de stockage.

Déjà tous les principaux fournisseurs de matériel « générique » (IBM, HP,
Dell, Sun, ...) et les sociétés spécialisées dans le stockage (EMC,
Netapp, HDS, DDN, ...)

Tous ces vendeurs (et plein d'autres plus petits) sont en mesure de
fournir du service (ou de s'associer avec des SSII qui feront le travail).

Le besoin serait d'y accéder via des serveurs www frontaux.

L'idéal serait de pouvoir partir d'une base de 100 To qu'on augmenterait au
fil du temps (avec des disques hotswap, possible?).



Passer de 100 à 300 To juste en changeant les disques à chaud ?

Cela n'a, à mon avis, pas beaucoup de sens.
Si on veut 100 To de stockage disque avec certaines caratéristiques en
terme de performance et de type d'accès (SAN ou NAS de types
quelconques), ces caractérisques ne vont pas magiquement augmenter en
remplaçant uniquement les disques. Grosso-modo, les performances d'un
disque SATA de 1 To sont les mêmes que celles d'un disque SATA de 250 Go,
ou une interface Fibre-Channel (ou autre) a un débit fini.

Autrement dit, pour maintenir le niveau de performance (par rapport au
volume utile/performance par client), il faut augmenter aussi
l'infrastructure pas uniquement les disques.


Le premier impératif est le coût.



Le moins cher en terme de matériel est presque toujours d'acheter des
serveurs avec disques SATA intégrés et des cartes contrôleurs RAID (ou
pas si on préfère du RAID logiciel).

Néanmoins, il y a assez peu d'offres commerciales de bonne qualité *et*
fournies par des sociétés capables de livrer 300 To de manière fiable
(c'est-à-dire avec du support, des machines strictement identiques, de la
maintenance correcte et des pièces de rechange).

L'assembleur du coin qui met 30 ou 40 disques dans un boitier avec 3 ou 4
cartes 3ware (ou autre) n'est typiquement pas un bon choix.

« J'ai » environ (encore) une trentaine de serveurs vieillisants de ce
type (avec principalement des cartes 3ware et une quinzaine de disques de
données) et la qualité globale, même pour les « gros assembleurs » est
presque toujours médiocre (montage, intégration, choix des composants,
support, ...)

D'un autre côté, dans la même salle machine il y a environ 250 serveurs
de ce type d'un « gros vendeur » (un des quatres premiers mentionnés
ci-dessus) et la qualité n'a rien à voir avec un assembleur.


Absolument toutes les suggestions sont bienvenues (type de matériel, coût
etc).



Pour fournir des suggestions, il faut un peu plus d'informations.

Combien de serveurs Web, qui accèdent comment aux données, quels types de
données, avec quelle performance (débit et IOps), avec quelle sécurité et
fiabilité, est-ce que tous les serveurs Web doivent voir tout le disque,
etc. ?

Dans les points auquels il faut faire attention, il y a le volume utile
par rapport au volume brut des disques (puissances de 10/puissances de 2,
disques de parité, spare, coût des différents formatages en terme
d'espace disque, etc.)


Loïc.
Avatar
Loic Tortay
Le 30 Sep 2008 13:12:16 +0200, Philippe Weill a écrit :
[...]

tu peux regarder du coté de Xyratex

type 5404 ( 48x1To 4U )



D'expérience, les boitiers Xyratex de ce type ont des problèmes de
fiabilité en terme de connectique des disques (connexion entre les
disques et les backplanes).

Il y a 70 tiroirs de ce type (~1.1 Po utiles) dans la salle machine à 15
mètres de moi et il y a parfois 20 disques (sur 48) qui arrêtent de
répondre d'un coup.

La semaine dernière, cela c'est produit 3 fois.

Ce ne sont pas des tiroirs vendus directement par Xyratex, ni des simples
OEM (à la Transtec), mais un OEM « avec valeur ajoutée » (sur les
contrôleurs auxquels sont connectés ces tiroirs).

Les firmwares sont justement en train d'être mis à jour en ce moment
même, mais cela ne semble pas vraiment régler le problème.


Loïc.
Avatar
pascal
Loic Tortay le mardi 30 septembre 2008 13:25

Le Tue, 30 Sep 2008 12:45:21 +0200, pascal a écrit :

Je suis à la recherche de renseignements pour une infrastructure de
stockage de 300 To.

Existe-t-il des entreprises qui proposent ça (matériel et/ou prestation)
?



Plein d'entreprises sont capables de fournir 300 To de stockage.

Déjà tous les principaux fournisseurs de matériel « générique » (IBM, HP,
Dell, Sun, ...) et les sociétés spécialisées dans le stockage (EMC,
Netapp, HDS, DDN, ...)



J'ai eu quelques contacts avec ces constructeurs, le soucis c'est le prix.
Je sais par expérience que la qualité est au rendez vous mais hélas c'est
réellement trop cher.


Tous ces vendeurs (et plein d'autres plus petits) sont en mesure de
fournir du service (ou de s'associer avec des SSII qui feront le travail).




C'est vers cette possibilité que je compte m'orienter pour le service
(installation et mise en route).

Le besoin serait d'y accéder via des serveurs www frontaux.

L'idéal serait de pouvoir partir d'une base de 100 To qu'on augmenterait
au fil du temps (avec des disques hotswap, possible?).



Passer de 100 à 300 To juste en changeant les disques à chaud ?



Je me suis mal exprimé. En fait je me disais qu'il serait sans doute
possible de rajouter des disques au fur et à mesure que le besoin grandit ?


Cela n'a, à mon avis, pas beaucoup de sens.
Si on veut 100 To de stockage disque avec certaines caratéristiques en
terme de performance et de type d'accès (SAN ou NAS de types
quelconques), ces caractérisques ne vont pas magiquement augmenter en
remplaçant uniquement les disques. Grosso-modo, les performances d'un
disque SATA de 1 To sont les mêmes que celles d'un disque SATA de 250 Go,
ou une interface Fibre-Channel (ou autre) a un débit fini.

Autrement dit, pour maintenir le niveau de performance (par rapport au
volume utile/performance par client), il faut augmenter aussi
l'infrastructure pas uniquement les disques.



Donc sorti de l'équipement type disques, quels seraient les éléments à
suivre également ?



Le premier impératif est le coût.



Le moins cher en terme de matériel est presque toujours d'acheter des
serveurs avec disques SATA intégrés et des cartes contrôleurs RAID (ou
pas si on préfère du RAID logiciel).

Néanmoins, il y a assez peu d'offres commerciales de bonne qualité *et*
fournies par des sociétés capables de livrer 300 To de manière fiable
(c'est-à-dire avec du support, des machines strictement identiques, de la
maintenance correcte et des pièces de rechange).



Actuellement on est arrêtés sur ce principe. Pour les pièces de rechange il
serait prévu d'acheter directement une partie du stock en double.


L'assembleur du coin qui met 30 ou 40 disques dans un boitier avec 3 ou 4
cartes 3ware (ou autre) n'est typiquement pas un bon choix.

« J'ai » environ (encore) une trentaine de serveurs vieillisants de ce
type (avec principalement des cartes 3ware et une quinzaine de disques de
données) et la qualité globale, même pour les « gros assembleurs » est
presque toujours médiocre (montage, intégration, choix des composants,
support, ...)




Peut-être qu'en imposant un choix de matériel à un assembleur artisan il est
possible d'obtenir un bon compromis ?


D'un autre côté, dans la même salle machine il y a environ 250 serveurs
de ce type d'un « gros vendeur » (un des quatres premiers mentionnés
ci-dessus) et la qualité n'a rien à voir avec un assembleur.




C'est certain. On a quelques très vieux serveurs IBM qui n'ont jamais fait
parler d'eux en 10 ans, alors qu'ils sont bien plus chargés que certaines
de nos machines discount sur lesquelles ont intervient très souvent.


Absolument toutes les suggestions sont bienvenues (type de matériel, coût
etc).



Pour fournir des suggestions, il faut un peu plus d'informations.

Combien de serveurs Web, qui accèdent comment aux données, quels types de
données, avec quelle performance (débit et IOps), avec quelle sécurité et
fiabilité, est-ce que tous les serveurs Web doivent voir tout le disque,
etc. ?



Pour résumer, environ 20000 utilisateurs ont besoin d'avoir un répertoire
personnel de 10 Go, auquel ils accèdent via une interface web. Le système
de liaison/montage entre l'interface web et le stockage n'est pas définie
pour le moment.
L'objectif prioritaire est d'abaisser les coûts en tenant compte de la conso
électrique et de l'achat du matériel. Le tout sera stocké dans un bâtiment
privé.


Dans les points auquels il faut faire attention, il y a le volume utile
par rapport au volume brut des disques (puissances de 10/puissances de 2,
disques de parité, spare, coût des différents formatages en terme
d'espace disque, etc.)




Oui, pour le moment on voit large en prévoyant 300 To, alors que le besoin
réel est aux alentours de 200. Ça nous laisserait une marge (suffisante ?)
pour le raid par exemple, si besoin est.

Mais peut-être qu'il serait plus économique/pratique d'installer xxx
serveurs au fur et à mesure que le besoin croît, et d'installer xxx
utilisateurs par serveur ? Côté pratique et maintenance à venir, je ne
pense pas.

Merci pour vos réponses.
Avatar
pascal
Loic Tortay le mardi 30 septembre 2008 13:33

Le 30 Sep 2008 13:12:16 +0200, Philippe Weill a écrit :
[...]

tu peux regarder du coté de Xyratex

type 5404 ( 48x1To 4U )



D'expérience, les boitiers Xyratex de ce type ont des problèmes de
fiabilité en terme de connectique des disques (connexion entre les
disques et les backplanes).

Il y a 70 tiroirs de ce type (~1.1 Po utiles) dans la salle machine à 15
mètres de moi et il y a parfois 20 disques (sur 48) qui arrêtent de
répondre d'un coup.

La semaine dernière, cela c'est produit 3 fois.

Ce ne sont pas des tiroirs vendus directement par Xyratex, ni des simples
OEM (à la Transtec), mais un OEM « avec valeur ajoutée » (sur les
contrôleurs auxquels sont connectés ces tiroirs).

Les firmwares sont justement en train d'être mis à jour en ce moment
même, mais cela ne semble pas vraiment régler le problème.


Loïc.



Sorti de ces "aléas", c'est un peu ce genre de concept qui m'intéresse, mais
en fiable.
Avatar
Loic Tortay
Le 30 septembre 2008 à 14:27:08 +0200, pascal a écrit :
[...]
>
> Autrement dit, pour maintenir le niveau de performance (par rapport au
> volume utile/performance par client), il faut augmenter aussi
> l'infrastructure pas uniquement les disques.

Donc sorti de l'équipement type disques, quels seraient les éléments à
suivre également ?



Le nombre de connexions entre le stockage et les serveurs (de disques ou
applicatifs), quelle que soit la technologie.
Si pertinent la capacité du « backplane ».

[Serveurs à disques intégrés]

Actuellement on est arrêtés sur ce principe. Pour les pièces de rechange il
serait prévu d'acheter directement une partie du stock en double.

>
> L'assembleur du coin qui met 30 ou 40 disques dans un boitier avec 3 ou 4
> cartes 3ware (ou autre) n'est typiquement pas un bon choix.
>


[...]
>

Peut-être qu'en imposant un choix de matériel à un assembleur artisan il est
possible d'obtenir un bon compromis ?



Le premier problème de l'assembleur du coin est, à mon avis, la pérennité.
Si on peut être à peu près confiant sur le fait que IBM ou HP seront là
dans les trois à cinq ans qui viennent, la probabilité qu'un assembleur
quelconque soit là (pour assurer la garantie/maintenance) est beaucoup
plus faible.

De plus, mon expérience est que même avec des assembleurs professionels++
(type Transtec), il est souvent difficile d'avoir du matériel exactement
identique lors d'une commande conséquente (ne serait-ce que d'une dizaine
de serveurs).
Ce n'est pas limité aux assembleurs, même IBM ou Dell ont parfois ce
problème.


> D'un autre côté, dans la même salle machine il y a environ 250 serveurs
> de ce type d'un « gros vendeur » (un des quatres premiers mentionnés
> ci-dessus) et la qualité n'a rien à voir avec un assembleur.
>

C'est certain. On a quelques très vieux serveurs IBM qui n'ont jamais fait
parler d'eux en 10 ans, alors qu'ils sont bien plus chargés que certaines
de nos machines discount sur lesquelles ont intervient très souvent.



En l'occurence ce ne sont pas des vielles machines, il y a plus de 6 Po
d'espace disque utile (~150 machines à ~20 To et ~100 machines toutes
neuves à ~40 To).


[...]
>
> Combien de serveurs Web, qui accèdent comment aux données, quels types de
> données, avec quelle performance (débit et IOps), avec quelle sécurité et
> fiabilité, est-ce que tous les serveurs Web doivent voir tout le disque,
> etc. ?

Pour résumer, environ 20000 utilisateurs ont besoin d'avoir un répertoire
personnel de 10 Go, auquel ils accèdent via une interface web. Le système
de liaison/montage entre l'interface web et le stockage n'est pas définie
pour le moment.
L'objectif prioritaire est d'abaisser les coûts en tenant compte de la conso
électrique et de l'achat du matériel. Le tout sera stocké dans un bâtiment
privé.



Je pense qu'il faut envisager la solution dans son ensemble et pas juste
le matériel d'un côté et le logiciel de l'autre.

La manière dont les serveurs Web accèdent aux données influe directement
sur le type de solution technique possible.

Si l'application est connue et maîtrisée c'est « facile », on peut tout
concevoir de manière cohérente.

De plus, avec un tel nombre d'utilisateurs il est sans doute judicieux de
prévoir de la « sur-réservation » (allouer plus d'espace que réellement
disponible en tablant sur le fait qu'une partie, éventuellement la majorité,
des utilisateurs consommeront peu d'espace ou en tout cas pas la totalité).


>
> Dans les points auquels il faut faire attention, il y a le volume utile
> par rapport au volume brut des disques (puissances de 10/puissances de 2,
> disques de parité, spare, coût des différents formatages en terme
> d'espace disque, etc.)
>

Oui, pour le moment on voit large en prévoyant 300 To, alors que le besoin
réel est aux alentours de 200. Ça nous laisserait une marge (suffisante ?)
pour le raid par exemple, si besoin est.



C'est difficile à dire. Suivant l'objectif de fiabilité, le type de
redondance change et l'espace utile aussi.
Par exemple s'il y a une sauvegarde fiable et rapide à restaurer ou que
les données sont « jetables », on peut maximiser l'espace disque utile en
minisant la redondance (RAID-0 ou "concat").
Et réciproquement, pas de sauvegarde & données « importantes » ->
maximiser la redondance (RAID-5/6 + spare).

Comme pour tout, c'est un compromis à trouver.


Mais peut-être qu'il serait plus économique/pratique d'installer xxx
serveurs au fur et à mesure que le besoin croît, et d'installer xxx
utilisateurs par serveur ? Côté pratique et maintenance à venir, je ne
pense pas.



Les 250 serveurs sus-mentionnés fonctionnent sur ce principe.
Il sont indépendants et, en gros, les 3 applications de stockage qui les
utilisent cachent aux clients le fait que les données sont dispersées.
Pour la plupart de ces applications, il est possible de déplacer les
données d'un serveur à un autre de manière transparente pour
l'utilisateur, voire pour certaines d'avoir plusieurs copies des données
pour la tenue en charge ou la redondance (éventuellement dynamiquement).

Néanmoins cela fonctionne parce que les (programmes) clients utilisent
des protocoles spécifiques pour accéder aux données. Les logiciels
concernés donnent l'illusion d'une homogénéité globale.
Autrement dit les applications coopèrent, ce ne sont pas (du tout) des
Apache « de base ».
Pour obtenir un résultat équivalent avec Apache (par exemple) il faut au
moins utiliser un système de fichiers distribués ou développer des
modules spécifiques (soit plus ou moins créer un système de fichiers
applicatif global).


Nous avons aussi des systèmes de fichiers répartis type POSIX avec des
espaces de noms globaux (type AFS, GPFS, Lustre, StorNext, etc.) mais ce
n'est pas le même type de matériel (en gros, du SAN+du logiciel).


Loïc.