OVH Cloud OVH Cloud

Super serveur virtuel ?

61 réponses
Avatar
Pierre-Alain Flavier
Bonjour,

De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ? Je m'explique : pourquoi ne pas créer une association à but non
lucrative ou chacun de ses membres mettrait à disposition certaines
ressources de son ordinateur afin de créer un super serveur virtuel, en
contrepartie d'un hébergement gratuit sur ce derbnier.
Techniquement, je ne sais pas si cette idée est viable, mais cela me parait
un concept interessant en théorie...

10 réponses

1 2 3 4 5
Avatar
Eriam Schaffter


Tu confonds le fait de répondre quelque chose correspondant aux données
confiées et le fait de tout simplement répondre.
SETI s'assure qu'une réponse est cohérente avec les données, et quand un
hote donné ne répond pas, le _même_ bloc de données est confié à un
autre.


Dom



Dans une architecture distribuée quand un noeud ne réponds pas un autre
réponds a sa place, voila pour la disponibilité et je ne pense pas
confondre.

Le terme fiabilité couvre plus que la disponibilité selon moi (d'autant
plus que la disponibilité est théoriquement meilleure dans un systeme
distribué).

Avatar
Yves
Et puis héberger en P2P cela sous entends que les clients ont également
un logiciel pour accéder au réseau, hors ce n'est pas le but je pense ?


Non, je ne vois pas pourquoi celà implique un client particulier.
L'exemple que j'ai donné (freenet) n'était qu'à but d'illustration. On
peut très bien travailler au niveau des DNS pour rediriger le site
demandé vers le peer le plus approprié, ou utiliser d'autres techniques
du même style que anycast.

D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates
utilisait ça pour héberger des site marchands de produits divers (du
grossisseur de "membre", aux répliques de montres) sur des PC
d'utilisateurs infestés par des zombies (il faudrait que je retrouve une
référence là dessus). Un bel exemple de distribution de ressources.

Yves

Avatar
Nicolas ROSSET
En fait il y a déjà des outils qui font plus ou moins cela basé sur
du P2P & ça marche très bien.

Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/

Le principe est le suivant :
- Il y a toujours un hébergeur classique qui héberge les pages et
assure la qualité en cas de déperdition du réseau distribué
- Les contenus (images / vidéo / sons / ...) sont diffusés sur la
plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou
chez l'hébergeur quand ils ne le sont pas)
- L'installation est très rapide pour les webmasters (il suffit de
préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre
fichier à exécuter dispo sous toutes les plateformes & open source).

Reste qu'il faut que les utilisateurs (= les visiteurs des sites)
jouent le jeu (mais quand on voit on peut se dire qu'un
paquet est prêt à jouer le jeu).
Avatar
Eriam Schaffter
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates
utilisait ça pour héberger des site marchands de produits divers (du
grossisseur de "membre", aux répliques de montres) sur des PC
d'utilisateurs infestés par des zombies (il faudrait que je retrouve une
référence là dessus). Un bel exemple de distribution de ressources.


Comme quoi cela fonctionne très bien.

Bref il y a la un vrai système à mettre en place.

Avatar
Eriam Schaffter
En fait il y a déjà des outils qui font plus ou moins cela basé sur
du P2P & ça marche très bien.

Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/

Le principe est le suivant :
- Il y a toujours un hébergeur classique qui héberge les pages et
assure la qualité en cas de déperdition du réseau distribué
- Les contenus (images / vidéo / sons / ...) sont diffusés sur la
plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou
chez l'hébergeur quand ils ne le sont pas)
- L'installation est très rapide pour les webmasters (il suffit de
préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre
fichier à exécuter dispo sous toutes les plateformes & open source).

Reste qu'il faut que les utilisateurs (= les visiteurs des sites)
jouent le jeu (mais quand on voit on peut se dire qu'un
paquet est prêt à jouer le jeu).



Le problème de dijjer est qu'il travaille sur des chunks de 256k ce qui
pour de l'hébergement de petit fichiers est une perte de resource
considérable.

En plus je pense que commenrcer en se disant que la communautée va
supporter le démarrage de l'outil c'est risqué je pense, surtout si on
compte faire du business avec.

Avatar
Samuel Tardieu
"Eriam" == Eriam Schaffter writes:






Eriam> Techniquement c'est très possible et viable mais ca va déplaire
Eriam> aux habitués.

Techniquement, c'est très inadapté au WWW, car les contenus devraient
être répartis aussi. Les calculs par GRID exploitent le fait que le
ratio temps-de-calcul/données-transférées est très haut. C'est
exactement l'inverse pour un serveur WWW classique.

Sam
--
Samuel Tardieu -- -- http://www.rfc1149.net/sam





Avatar
jean-Louis
Le 21/09/05 20:29, dans 4331a717$0$1675$,
« Pierre-Alain Flavier » a écrit :

Bonjour,

De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ?
ça existe déjà, c'est Akamai le leader et c'est hyper chère



@+



--
Jean-Louis D
http://WWW.guide-bordeaux.com/
Le guide des bonnes adresses du centre ville de Bordeaux

http://www.moiaussi.fr
http://www.lesquartiersparticuliers.com

Avatar
Samuel Tardieu
De plus en plus, pour pallier aux super-calculateurs, on utilise
les ressources de milliers de PC volontaires pour effectuer les
calculs consommateurs. Cette idée ne pourrait-elle pas être
reprise au niveau de l'hébergement des sites ?



Jean-Louis> ça existe déjà, c'est Akamai le leader et c'est hyper
Jean-Louis> chère

Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.


Avatar
Justin Pinelli

Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.


Mais encore...

Avatar
Samuel Tardieu
"Justin" == Justin Pinelli writes:







Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils
utilisent.



Justin> Mais encore...

Je pensais que c'était clair, mais visiblement il faut une explication
de texte :)

Quand on possède un ensemble de serveurs répartis sur plusieurs
continents, il est facile de dupliquer les données qui s'y trouvent
et de rediriger les internautes vers le serveur le plus proche de chez
eux en termes de connectivité.

Quand on veut mettre en commun un ensemble de machines qu'on ne
contrôle pas (comme le proposait le message initial), on a plusieurs
problèmes à résoudre:
- comment s'assurer que les données sont répliquées chez plusieurs
personnes ?
- comment s'assurer que les machines vers lesquelles on redirige les
internautes sont fiables ?
- comment s'assurer que les données renvoyées sont bien les bonnes ?
(on peut être en présence de machines malicieuses, problème
classique des généraux bizantins, ou de machines défectueuses)

À la différence du modèle d'Akamai, il faut alors utiliser un
protocole différent de l'HTTP classique en installant un logiciel
supplémentaire. Les logiciels de P2P vérifient tous la cohérence des
données reçues par l'utilisation de sommes de contrôle et permettent
de récupérer les données de plusieurs sources en parallèle, ce qu'HTTP
ne permet pas dans sa version actuelle.

Sam
--
Samuel Tardieu -- -- http://www.rfc1149.net/sam





1 2 3 4 5