Bonjour à tous,
je recherche des infos sur la surface au sol que prenne des serveurs
ou des grands systèmes. Existe t il un ratio permettant de dire, j'ai
tant de serveur j'ai donc besoin de tant de m² dans un data centre?
Savez vous où trouver ce genre d'informations:
- combien les nouveaux serveurs en rack prennent il de surface au sol.
- combien en m², en moyenne faut il compter par machine.
- comment ces chiffres évoluent ils? les nouveaux serveurs prennent
ils vraiment de moins en moins de place...
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce n'est pas pour rien si tous les calculateurs actuels en sont équipés.
-- Mikaël Poussard
Emmel
Nicolas wrote:
Yohan wrote in message news:<42317cde$0$27839$...
Mikaël Poussard wrote:
Mais non, tu peux mettre 46 serveurs 1u dans une baie 46u sans aucun problème et en étant câblé proprement.
Pas des bi xeons. Pensez à la clim!!!
Justement mon probléme est de savoir combien de m² je vais demander à l'hebergeur ou au data center. Je sais que j'ai déjà un certains nombre de serveurs en rack mais aussi des grands systèmes. Alors je peux calculer quel espace cela prend aujourd'hui mais j'aimerais pouvoir anticiper un peu l'évolution. Je me demande si les machines de prochaines générations prendront toujours autant de place. En gros à partir du nombre de machine que j'ai maintenant j'aimerais trouver un coefficient multiplicateur qui me permetrai de dire au Data center, voilà j'ai besoin de x m² (le coefficient prendrait aussi en compte l'espace pour la clim et pour se deplacer).
En tout cas merci à tous pour vos réponses.
Nicolas Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs, éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs par rack 42 U (il est possible d'en mettre plus mais sans ventialtion, ni naturelle ni forcéé ; et sans clavier ni écran).
ML
Nicolas wrote:
Yohan <ytordjman@corp.free.fr> wrote in message news:<42317cde$0$27839$626a14ce@news.free.fr>...
Mikaël Poussard wrote:
Mais non, tu peux mettre 46 serveurs 1u dans une baie 46u sans aucun
problème et en étant câblé proprement.
Pas des bi xeons.
Pensez à la clim!!!
Justement mon probléme est de savoir combien de m² je vais demander à
l'hebergeur ou au data center. Je sais que j'ai déjà un certains
nombre de serveurs en rack mais aussi des grands systèmes. Alors je
peux calculer quel espace cela prend aujourd'hui mais j'aimerais
pouvoir anticiper un peu l'évolution. Je me demande si les machines de
prochaines générations prendront toujours autant de place.
En gros à partir du nombre de machine que j'ai maintenant j'aimerais
trouver un coefficient multiplicateur qui me permetrai de dire au Data
center, voilà j'ai besoin de x m² (le coefficient prendrait aussi en
compte l'espace pour la clim et pour se deplacer).
En tout cas merci à tous pour vos réponses.
Nicolas
Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une
moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs,
éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs
par rack 42 U (il est possible d'en mettre plus mais sans ventialtion,
ni naturelle ni forcéé ; et sans clavier ni écran).
Mais non, tu peux mettre 46 serveurs 1u dans une baie 46u sans aucun problème et en étant câblé proprement.
Pas des bi xeons. Pensez à la clim!!!
Justement mon probléme est de savoir combien de m² je vais demander à l'hebergeur ou au data center. Je sais que j'ai déjà un certains nombre de serveurs en rack mais aussi des grands systèmes. Alors je peux calculer quel espace cela prend aujourd'hui mais j'aimerais pouvoir anticiper un peu l'évolution. Je me demande si les machines de prochaines générations prendront toujours autant de place. En gros à partir du nombre de machine que j'ai maintenant j'aimerais trouver un coefficient multiplicateur qui me permetrai de dire au Data center, voilà j'ai besoin de x m² (le coefficient prendrait aussi en compte l'espace pour la clim et pour se deplacer).
En tout cas merci à tous pour vos réponses.
Nicolas Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs, éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs par rack 42 U (il est possible d'en mettre plus mais sans ventialtion, ni naturelle ni forcéé ; et sans clavier ni écran).
ML
Spyou
"Emmel" a écrit dans le message de news: 4231c5fa$0$44087$
Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U de haut; Si tu veux éviter des problèmes de surchauffe, prévois une moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs, éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs par rack 42 U (il est possible d'en mettre plus mais sans ventialtion, ni naturelle ni forcéé ; et sans clavier ni écran).
Si la zone est correctement sécurisée et l'accès limité, les batis ouverts sont une tres bonne solution au probleme de climatisation a l'interieur des racks.
"Emmel" <emmel@tiscali.be> a écrit dans le message de news:
4231c5fa$0$44087$5fc3050@dreader2.news.tiscali.nl...
Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une
moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs,
éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs
par rack 42 U (il est possible d'en mettre plus mais sans ventialtion,
ni naturelle ni forcéé ; et sans clavier ni écran).
Si la zone est correctement sécurisée et l'accès limité, les batis ouverts
sont une tres bonne solution au probleme de climatisation a l'interieur des
racks.
"Emmel" a écrit dans le message de news: 4231c5fa$0$44087$
Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U de haut; Si tu veux éviter des problèmes de surchauffe, prévois une moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs, éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs par rack 42 U (il est possible d'en mettre plus mais sans ventialtion, ni naturelle ni forcéé ; et sans clavier ni écran).
Si la zone est correctement sécurisée et l'accès limité, les batis ouverts sont une tres bonne solution au probleme de climatisation a l'interieur des racks.
Mathieu Arnold
Mikaël Poussard écrivait:
Ronnie Garcia wrote:
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce n'est pas pour rien si tous les calculateurs actuels en sont équipés.
C'est bien connu, les serveurs web/mail/dns ont surtout besoin de beaucoup de puissance de calcul, mais pas du tout de disques rapides ou de ram.
-- Mathieu Arnold
Mikaël Poussard écrivait:
Ronnie Garcia wrote:
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce
n'est pas pour rien si tous les calculateurs actuels en sont équipés.
C'est bien connu, les serveurs web/mail/dns ont surtout besoin de
beaucoup de puissance de calcul, mais pas du tout de disques rapides ou
de ram.
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce n'est pas pour rien si tous les calculateurs actuels en sont équipés.
C'est bien connu, les serveurs web/mail/dns ont surtout besoin de beaucoup de puissance de calcul, mais pas du tout de disques rapides ou de ram.
-- Mathieu Arnold
Mathieu Arnold
Nicolas écrivait:
Justement mon probléme est de savoir combien de m² je vais demander à l'hebergeur ou au data center. Je sais que j'ai déjà un certains nombre de serveurs en rack mais aussi des grands systèmes. Alors je peux calculer quel espace cela prend aujourd'hui mais j'aimerais pouvoir anticiper un peu l'évolution. Je me demande si les machines de prochaines générations prendront toujours autant de place. En gros à partir du nombre de machine que j'ai maintenant j'aimerais trouver un coefficient multiplicateur qui me permetrai de dire au Data center, voilà j'ai besoin de x m² (le coefficient prendrait aussi en compte l'espace pour la clim et pour se deplacer).
Peut être que le plus simple serait que tu nous dise combien de serveur de quelle taille tu as besoin, on te dira combien il faut de place :-)
-- Mathieu Arnold
Nicolas écrivait:
Justement mon probléme est de savoir combien de m² je vais demander à
l'hebergeur ou au data center. Je sais que j'ai déjà un certains
nombre de serveurs en rack mais aussi des grands systèmes. Alors je
peux calculer quel espace cela prend aujourd'hui mais j'aimerais
pouvoir anticiper un peu l'évolution. Je me demande si les machines de
prochaines générations prendront toujours autant de place.
En gros à partir du nombre de machine que j'ai maintenant j'aimerais
trouver un coefficient multiplicateur qui me permetrai de dire au Data
center, voilà j'ai besoin de x m² (le coefficient prendrait aussi en
compte l'espace pour la clim et pour se deplacer).
Peut être que le plus simple serait que tu nous dise combien de serveur
de quelle taille tu as besoin, on te dira combien il faut de place :-)
Justement mon probléme est de savoir combien de m² je vais demander à l'hebergeur ou au data center. Je sais que j'ai déjà un certains nombre de serveurs en rack mais aussi des grands systèmes. Alors je peux calculer quel espace cela prend aujourd'hui mais j'aimerais pouvoir anticiper un peu l'évolution. Je me demande si les machines de prochaines générations prendront toujours autant de place. En gros à partir du nombre de machine que j'ai maintenant j'aimerais trouver un coefficient multiplicateur qui me permetrai de dire au Data center, voilà j'ai besoin de x m² (le coefficient prendrait aussi en compte l'espace pour la clim et pour se deplacer).
Peut être que le plus simple serait que tu nous dise combien de serveur de quelle taille tu as besoin, on te dira combien il faut de place :-)
-- Mathieu Arnold
Spyou
Peut être que le plus simple serait que tu nous dise combien de serveur de quelle taille tu as besoin, on te dira combien il faut de place :-)
Le plus simple est meme d'empiler les serveurs qui peuvent l'etre, de tout mettre cote a cote comme dans un environnement d'hebergement normal .. et de constater :)
Peut être que le plus simple serait que tu nous dise combien de serveur
de quelle taille tu as besoin, on te dira combien il faut de place :-)
Le plus simple est meme d'empiler les serveurs qui peuvent l'etre, de
tout mettre cote a cote comme dans un environnement d'hebergement normal
.. et de constater :)
Peut être que le plus simple serait que tu nous dise combien de serveur de quelle taille tu as besoin, on te dira combien il faut de place :-)
Le plus simple est meme d'empiler les serveurs qui peuvent l'etre, de tout mettre cote a cote comme dans un environnement d'hebergement normal .. et de constater :)
Hello,
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce n'est pas pour rien si tous les calculateurs actuels en sont équipé s.
C'est bien connu, les serveurs web/mail/dns ont surtout besoin de beaucoup de puissance de calcul, mais pas du tout de disques rapides ou de ram.
Le bus hypertransport pour la mémoire des optérons est deux fois plus large que celui des P4 et Xeon. Toms Hardware avait fait un comparatif bi-Xeon/Bi-Opteron, conclusion: le bi-xeon est meilleur pour une grosse station de travail sous windows, l'opteron sous linux est nettement meilleur comme serveur.
Je maintien donc: les amd64 sont meilleurs en tant que serveur *nix. Mais il ne faut pas cracher dans la soupe, nous avons des Bi-Xeon et ce sont de bonnes machines aussi (U320 et le DDR400 ECC jouent pas mal :-) ) -- @+ Yann
Hello,
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce
n'est pas pour rien si tous les calculateurs actuels en sont équipé s.
C'est bien connu, les serveurs web/mail/dns ont surtout besoin de
beaucoup de puissance de calcul, mais pas du tout de disques rapides ou
de ram.
Le bus hypertransport pour la mémoire des optérons est deux fois plus
large que celui des P4 et Xeon. Toms Hardware avait fait un comparatif
bi-Xeon/Bi-Opteron, conclusion: le bi-xeon est meilleur pour une grosse
station de travail sous windows, l'opteron sous linux est nettement
meilleur comme serveur.
Je maintien donc: les amd64 sont meilleurs en tant que serveur *nix.
Mais il ne faut pas cracher dans la soupe, nous avons des Bi-Xeon et ce
sont de bonnes machines aussi (U320 et le DDR400 ECC jouent pas mal :-) )
--
@+ Yann
Tu as quelque chose contre les AMD et les VIA ? :-)
On parlait de serveurs =)
Justement, en terme de calculs le meilleur actuellement est l'Opteron. Et ce n'est pas pour rien si tous les calculateurs actuels en sont équipé s.
C'est bien connu, les serveurs web/mail/dns ont surtout besoin de beaucoup de puissance de calcul, mais pas du tout de disques rapides ou de ram.
Le bus hypertransport pour la mémoire des optérons est deux fois plus large que celui des P4 et Xeon. Toms Hardware avait fait un comparatif bi-Xeon/Bi-Opteron, conclusion: le bi-xeon est meilleur pour une grosse station de travail sous windows, l'opteron sous linux est nettement meilleur comme serveur.
Je maintien donc: les amd64 sont meilleurs en tant que serveur *nix. Mais il ne faut pas cracher dans la soupe, nous avons des Bi-Xeon et ce sont de bonnes machines aussi (U320 et le DDR400 ECC jouent pas mal :-) ) -- @+ Yann
Christophe Casalegno
spam wrote:
Je maintien donc: les amd64 sont meilleurs en tant que serveur *nix. Mais il ne faut pas cracher dans la soupe, nous avons des Bi-Xeon et ce sont de bonnes machines aussi (U320 et le DDR400 ECC jouent pas mal :-) )
Entièrement d'accord,nous utilisons les serveurs de type opteron depuis leur sortie sur le marché, et cela représente aujourd'hui l'épine dorsale de toute nos plateformes lourdes d'hébergement que nous avons mis en place et rien à redire : certains serveurs tiennent + de 3000 connexions sql/seconde avec + de 25.000 connexions http simultannées sans surcharge avec un taux de panne nul.
Les plateformes dédiés où les sites web sont copiés directeur sur un disque ram donnent également vraiment des performances extraordinaires par rapport à d'autres types de serveurs utilisés (p4, xeon, sun).
Je maintien donc: les amd64 sont meilleurs en tant que serveur *nix.
Mais il ne faut pas cracher dans la soupe, nous avons des Bi-Xeon et ce
sont de bonnes machines aussi (U320 et le DDR400 ECC jouent pas mal :-) )
Entièrement d'accord,nous utilisons les serveurs de type opteron depuis leur
sortie sur le marché, et cela représente aujourd'hui l'épine dorsale de
toute nos plateformes lourdes d'hébergement que nous avons mis en place et
rien à redire : certains serveurs tiennent + de 3000 connexions
sql/seconde avec + de 25.000 connexions http simultannées sans surcharge
avec un taux de panne nul.
Les plateformes dédiés où les sites web sont copiés directeur sur un disque
ram donnent également vraiment des performances extraordinaires par rapport
à d'autres types de serveurs utilisés (p4, xeon, sun).
Je maintien donc: les amd64 sont meilleurs en tant que serveur *nix. Mais il ne faut pas cracher dans la soupe, nous avons des Bi-Xeon et ce sont de bonnes machines aussi (U320 et le DDR400 ECC jouent pas mal :-) )
Entièrement d'accord,nous utilisons les serveurs de type opteron depuis leur sortie sur le marché, et cela représente aujourd'hui l'épine dorsale de toute nos plateformes lourdes d'hébergement que nous avons mis en place et rien à redire : certains serveurs tiennent + de 3000 connexions sql/seconde avec + de 25.000 connexions http simultannées sans surcharge avec un taux de panne nul.
Les plateformes dédiés où les sites web sont copiés directeur sur un disque ram donnent également vraiment des performances extraordinaires par rapport à d'autres types de serveurs utilisés (p4, xeon, sun).
Je me permet d'intervenir: (Je travaille pour la société Rittal, fabriquant de Rack 19" et de clims, je fais pas de pub, je déclare juste mes interets :-)
Il faut effectivement faire très attention de ne pas mettre 42 serveurs 1U dans une armoire 42U. C'est tentant, mais ça chauffe à une vitesse phénoménale. Si c'est vraiment nécessaire, il existe un système d'échangeur thermique qui se pose directement sur le/s processeur/s du serveur et qui est relié à un centrale de production d'eau froide. Il est possible aussi d'installer une simple clim pour armoire sur le toit de l'armoire ou de côté sur les panneux latéraux. Mais la puissance doit être adaptée précisément et la ventilation vraiment efficace au niveau du boitier des serveurs eux-mêmes.
Voilà !
Salutations, scot
Mikaël Poussard wrote:
Mais non, tu peux mettre 46 serveurs 1u dans une baie 46u sans aucun problème et en étant câblé proprement.
Pas des bi xeons. Pensez à la clim!!!
Nicolas Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs, éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs par rack 42 U (il est possible d'en mettre plus mais sans ventialtion, ni naturelle ni forcéé ; et sans clavier ni écran).
ML
Hallo,
Je me permet d'intervenir:
(Je travaille pour la société Rittal, fabriquant de Rack 19" et de
clims, je fais pas de pub, je déclare juste mes interets :-)
Il faut effectivement faire très attention de ne pas mettre 42
serveurs 1U dans une armoire 42U. C'est tentant, mais ça chauffe à une
vitesse phénoménale.
Si c'est vraiment nécessaire, il existe un système d'échangeur
thermique qui se pose directement sur le/s processeur/s du serveur et
qui est relié à un centrale de production d'eau froide. Il est
possible aussi d'installer une simple clim pour armoire sur le toit de
l'armoire ou de côté sur les panneux latéraux. Mais la puissance doit
être adaptée précisément et la ventilation vraiment efficace au niveau
du boitier des serveurs eux-mêmes.
Voilà !
Salutations,
scot
Mikaël Poussard wrote:
Mais non, tu peux mettre 46 serveurs 1u dans une baie 46u sans aucun
problème et en étant câblé proprement.
Pas des bi xeons.
Pensez à la clim!!!
Nicolas
Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une
moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs,
éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs
par rack 42 U (il est possible d'en mettre plus mais sans ventialtion,
ni naturelle ni forcéé ; et sans clavier ni écran).
Je me permet d'intervenir: (Je travaille pour la société Rittal, fabriquant de Rack 19" et de clims, je fais pas de pub, je déclare juste mes interets :-)
Il faut effectivement faire très attention de ne pas mettre 42 serveurs 1U dans une armoire 42U. C'est tentant, mais ça chauffe à une vitesse phénoménale. Si c'est vraiment nécessaire, il existe un système d'échangeur thermique qui se pose directement sur le/s processeur/s du serveur et qui est relié à un centrale de production d'eau froide. Il est possible aussi d'installer une simple clim pour armoire sur le toit de l'armoire ou de côté sur les panneux latéraux. Mais la puissance doit être adaptée précisément et la ventilation vraiment efficace au niveau du boitier des serveurs eux-mêmes.
Voilà !
Salutations, scot
Mikaël Poussard wrote:
Mais non, tu peux mettre 46 serveurs 1u dans une baie 46u sans aucun problème et en étant câblé proprement.
Pas des bi xeons. Pensez à la clim!!!
Nicolas Les racks courants font 600*800 ou 800*800 au sol et ont (souvent) 42 U
de haut; Si tu veux éviter des problèmes de surchauffe, prévois une moyenne de 1.5/2U par machine 1U (espace de ventilation, ventilateurs, éventuellemen tiroir clavier, écran ???) soit un max de 25-27 serveurs par rack 42 U (il est possible d'en mettre plus mais sans ventialtion, ni naturelle ni forcéé ; et sans clavier ni écran).
ML
Christophe Casalegno
scotlandyard wrote:
Hallo,
Je me permet d'intervenir: (Je travaille pour la société Rittal, fabriquant de Rack 19" et de clims, je fais pas de pub, je déclare juste mes interets :-)
Baies dont je suis très satisfait au passage, même si ce n'est pas du schroff ca roule nickel :).
Il faut effectivement faire très attention de ne pas mettre 42 serveurs 1U dans une armoire 42U. C'est tentant, mais ça chauffe à une
J'ai déjà vu 80 serveur dans une baie 42 U (racks très cours face à face). Cela dit je n'y trouve personnellement que peut d'intéret. Je limite par précaution à une 15aine de serveurs (voir 20) par baie au maximum. On évite les problemes :)
Si c'est vraiment nécessaire, il existe un système d'échangeur thermique qui se pose directement sur le/s processeur/s du serveur et qui est relié à un centrale de production d'eau froide.
On peut aussi faire un système semblable avec du cryo ce qui est moins "risqué" pour les fuites d'eau. Cela dit le cout de ces installations rends plus intéressant (à mon gout) d'acheter plus de m2...
possible aussi d'installer une simple clim pour armoire sur le toit de l'armoire ou de côté sur les panneux latéraux. Mais la puissance doit être adaptée précisément et la ventilation vraiment efficace au niveau du boitier des serveurs eux-mêmes.
Un "bricolage" qui fonctionne bien sur les rittal consiste à installer des extracteurs géants sur dans les portes grillagées avec une injection de climatisation par le sol. Par contre on risque de cuire en passant devant une baie trop chargée...
Je me permet d'intervenir:
(Je travaille pour la société Rittal, fabriquant de Rack 19" et de
clims, je fais pas de pub, je déclare juste mes interets :-)
Baies dont je suis très satisfait au passage, même si ce n'est pas du
schroff ca roule nickel :).
Il faut effectivement faire très attention de ne pas mettre 42
serveurs 1U dans une armoire 42U. C'est tentant, mais ça chauffe à une
J'ai déjà vu 80 serveur dans une baie 42 U (racks très cours face à face).
Cela dit je n'y trouve personnellement que peut d'intéret. Je limite par
précaution à une 15aine de serveurs (voir 20) par baie au maximum. On
évite les problemes :)
Si c'est vraiment nécessaire, il existe un système d'échangeur
thermique qui se pose directement sur le/s processeur/s du serveur et
qui est relié à un centrale de production d'eau froide.
On peut aussi faire un système semblable avec du cryo ce qui est moins
"risqué" pour les fuites d'eau. Cela dit le cout de ces installations rends
plus intéressant (à mon gout) d'acheter plus de m2...
possible aussi d'installer une simple clim pour armoire sur le toit de
l'armoire ou de côté sur les panneux latéraux. Mais la puissance doit
être adaptée précisément et la ventilation vraiment efficace au niveau
du boitier des serveurs eux-mêmes.
Un "bricolage" qui fonctionne bien sur les rittal consiste à installer des
extracteurs géants sur dans les portes grillagées avec une injection de
climatisation par le sol. Par contre on risque de cuire en passant devant
une baie trop chargée...
Je me permet d'intervenir: (Je travaille pour la société Rittal, fabriquant de Rack 19" et de clims, je fais pas de pub, je déclare juste mes interets :-)
Baies dont je suis très satisfait au passage, même si ce n'est pas du schroff ca roule nickel :).
Il faut effectivement faire très attention de ne pas mettre 42 serveurs 1U dans une armoire 42U. C'est tentant, mais ça chauffe à une
J'ai déjà vu 80 serveur dans une baie 42 U (racks très cours face à face). Cela dit je n'y trouve personnellement que peut d'intéret. Je limite par précaution à une 15aine de serveurs (voir 20) par baie au maximum. On évite les problemes :)
Si c'est vraiment nécessaire, il existe un système d'échangeur thermique qui se pose directement sur le/s processeur/s du serveur et qui est relié à un centrale de production d'eau froide.
On peut aussi faire un système semblable avec du cryo ce qui est moins "risqué" pour les fuites d'eau. Cela dit le cout de ces installations rends plus intéressant (à mon gout) d'acheter plus de m2...
possible aussi d'installer une simple clim pour armoire sur le toit de l'armoire ou de côté sur les panneux latéraux. Mais la puissance doit être adaptée précisément et la ventilation vraiment efficace au niveau du boitier des serveurs eux-mêmes.
Un "bricolage" qui fonctionne bien sur les rittal consiste à installer des extracteurs géants sur dans les portes grillagées avec une injection de climatisation par le sol. Par contre on risque de cuire en passant devant une baie trop chargée...