OVH Cloud OVH Cloud

Super serveur virtuel ?

61 réponses
Avatar
Pierre-Alain Flavier
Bonjour,

De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ? Je m'explique : pourquoi ne pas créer une association à but non
lucrative ou chacun de ses membres mettrait à disposition certaines
ressources de son ordinateur afin de créer un super serveur virtuel, en
contrepartie d'un hébergement gratuit sur ce derbnier.
Techniquement, je ne sais pas si cette idée est viable, mais cela me parait
un concept interessant en théorie...

10 réponses

1 2 3 4 5
Avatar
Eriam Schaffter

Techniquement, c'est très inadapté au WWW, car les contenus devraient
être répartis aussi. Les calculs par GRID exploitent le fait que le
ratio temps-de-calcul/données-transférées est très haut. C'est
exactement l'inverse pour un serveur WWW classique.

Sam


Et donc on ne peux pas imaginer de repartir et compresser le contenu ?

Au risque de me répéter, techniquement c'est faisable il suffit de
trouver une bonne solution.

Avatar
Eriam Schaffter

À la différence du modèle d'Akamai, il faut alors utiliser un
protocole différent de l'HTTP classique en installant un logiciel
supplémentaire. Les logiciels de P2P vérifient tous la cohérence des
données reçues par l'utilisation de sommes de contrôle et permettent
de récupérer les données de plusieurs sources en parallèle, ce qu'HTTP
ne permet pas dans sa version actuelle.

Sam


Est ce que Http-Range ne permet pas de récupérer une partie d'un fichier
depuis un serveur ? Et donc d'envisager des telechargement en parallelle ?

Je ne vois pas en quoi Http ne pourrait pas être utilisé dans ce cas, et
quand bien meme, si il faut un protocole maison ou est le soucis ?

Je vois un intérêt évident à répartir/distribuer le stockage sur un
réseau P2P, le fait est qu'il faut une passerelle entre ce P2P et le web
mais ca c'est faisable non ?

Avatar
Samuel Tardieu
"Eriam" == Eriam Schaffter writes:






Eriam> Au risque de me répéter, techniquement c'est faisable il suffit
Eriam> de trouver une bonne solution.

Tout à fait. Le problème réside dans l'interactivité (et pas le
temps-réel contrairement à ce qui a été écrit, ce concept ayant une
définition bien précise qui ne correspond pas au web aujourd'hui). Les
systèmes P2P permettent une augmentation du débit, pas une
augmentation de l'interactivité.

Sam
--
Samuel Tardieu -- -- http://www.rfc1149.net/sam





Avatar
F. Senault


Techniquement, c'est très inadapté au WWW, car les contenus devraient
être répartis aussi. Les calculs par GRID exploitent le fait que le
ratio temps-de-calcul/données-transférées est très haut. C'est
exactement l'inverse pour un serveur WWW classique.


Et donc on ne peux pas imaginer de repartir et compresser le contenu ?


C'est vrai, rajoutons du temps de calcul pour rien, ça fera plaisir au
client final...

Fred
--
Ocean pulls me close And whispers in my ear The destiny I've chose all
becoming clear The currents have their say The time is drawing near
washes me away Makes me disappear And I descend from grace In arms of
undertow I will take my place In... (Nine Inch Nails, The Great Below)


Avatar
Eriam Schaffter

C'est vrai, rajoutons du temps de calcul pour rien, ça fera plaisir au
client final...


Pour rien ?

Bah

Avatar
Eriam Schaffter
Tout à fait. Le problème réside dans l'interactivité (et pas le
temps-réel contrairement à ce qui a été écrit, ce concept ayant une
définition bien précise qui ne correspond pas au web aujourd'hui). Les
systèmes P2P permettent une augmentation du débit, pas une
augmentation de l'interactivité.



Oui nous sommes d'accord, pour distribuer du contenu statique pas de
soucis mais dès que cela devient dynamique c'est compliqué.

C'est pourquoi je pense que dans un premier temps c'est plus simple de
le considerer comme un medium de stockage.

D'ailleurs alléger un serveur web de sa charge de contenu statique c'est
deja beaucoup. Je pense qu'il est envisageable ensuite de servir du
contenu dynamique derriere une petite ligne adsl.

Pour ce qui est des applications il y a des hollandais qui font du
travail dans ce sens http://www.globule.org/

Cependant ils ont fait le choix de coller a apache ce qui est un peu
dommage, en meme temps c'est deja compliqué de distribuer des
applications mais alors si en plus elle doivent pouvoir se lancer sur
différentes plateformes ca devient chaud et contraignant pour les gens
qui ecrivent les applications.

Avatar
Patrick Mevzek
Les logiciels de P2P vérifient tous la cohérence des
données reçues par l'utilisation de sommes de contrôle et permettent
de récupérer les données de plusieurs sources en parallèle, ce qu'HTTP
ne permet pas dans sa version actuelle.


Plusieurs sources en parallèle, c'est un problème côté client (il peut
ouvrir plusieurs connexions simultanées vers le même serveur et/ou faire
du pipelining).

Pour les sommes de contrôle, même en HTTP, ca existe, cf Content-Digest (sous-développé et
sous-utilisé, d'accord, mais il existe)

--
Patrick Mevzek . . . . . . Dot and Co (Paris, France)
<http://www.dotandco.net/> <http://www.dotandco.com/>
Dépêches sur le nommage <news://news.dotandco.net/dotandco.info.news>

Avatar
Patrick Mevzek
Est ce que Http-Range ne permet pas de récupérer une partie d'un fichier
depuis un serveur ? Et donc d'envisager des telechargement en parallelle ?


C'est ce que font les ``accélérateurs'' de téléchargement, en se
connectant plusieurs fois en parallèle et en demandant des bouts
différents (ce qui n'accélère réellement au final que si on ne sature
pas la bande passante)

Cependant un serveur web n'est pas obligé d'honorer les requêtes
partielles, il me semble.

Je vois un intérêt évident à répartir/distribuer le stockage sur un
réseau P2P, le fait est qu'il faut une passerelle entre ce P2P et le web
mais ca c'est faisable non ?


Je crois que HP ou IBM, dans ses laboratoires de recherche avait fait
exactement cela. Je l'ai lu il y a bien un an, impossible de vous resortir
plus de détails de mon cerveau.

--
Patrick Mevzek . . . . . . Dot and Co (Paris, France)
<http://www.dotandco.net/> <http://www.dotandco.com/>
Dépêches sur le nommage <news://news.dotandco.net/dotandco.info.news>

Avatar
Eriam Schaffter

C'est ce que font les ``accélérateurs'' de téléchargement, en se
connectant plusieurs fois en parallèle et en demandant des bouts
différents (ce qui n'accélère réellement au final que si on ne sature
pas la bande passante)

Cependant un serveur web n'est pas obligé d'honorer les requêtes
partielles, il me semble.


Oui mais on peut télécharger plein de morceaux depuis plein de serveurs
web je pense (non testé).

Je crois que HP ou IBM, dans ses laboratoires de recherche avait fait
exactement cela. Je l'ai lu il y a bien un an, impossible de vous resortir
plus de détails de mon cerveau.



Comme quoi c'est pas tout a fait idiot comme idée. Je pense que les
hébergeurs pourraient s'y intéresser.

Avatar
Mickaël Wolff
Et alors ? Je peux citer un paquet d'applications temps réel
fonctionnant sur la base d'une architecture distribuée.
La notion a bien changée depuis qu'on me l'a enseignée en cours

d'informatique industrielle.

--
Mickaël Wolff aka Lupus Michaelis
http://lupusmic.org
** Spécialiste Logiciels Libres **

1 2 3 4 5