De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ? Je m'explique : pourquoi ne pas créer une association à but non
lucrative ou chacun de ses membres mettrait à disposition certaines
ressources de son ordinateur afin de créer un super serveur virtuel, en
contrepartie d'un hébergement gratuit sur ce derbnier.
Techniquement, je ne sais pas si cette idée est viable, mais cela me parait
un concept interessant en théorie...
Tu confonds le fait de répondre quelque chose correspondant aux données confiées et le fait de tout simplement répondre. SETI s'assure qu'une réponse est cohérente avec les données, et quand un hote donné ne répond pas, le _même_ bloc de données est confié à un autre.
Dom
Dans une architecture distribuée quand un noeud ne réponds pas un autre réponds a sa place, voila pour la disponibilité et je ne pense pas confondre.
Le terme fiabilité couvre plus que la disponibilité selon moi (d'autant plus que la disponibilité est théoriquement meilleure dans un systeme distribué).
Tu confonds le fait de répondre quelque chose correspondant aux données
confiées et le fait de tout simplement répondre.
SETI s'assure qu'une réponse est cohérente avec les données, et quand un
hote donné ne répond pas, le _même_ bloc de données est confié à un
autre.
Dom
Dans une architecture distribuée quand un noeud ne réponds pas un autre
réponds a sa place, voila pour la disponibilité et je ne pense pas
confondre.
Le terme fiabilité couvre plus que la disponibilité selon moi (d'autant
plus que la disponibilité est théoriquement meilleure dans un systeme
distribué).
Tu confonds le fait de répondre quelque chose correspondant aux données confiées et le fait de tout simplement répondre. SETI s'assure qu'une réponse est cohérente avec les données, et quand un hote donné ne répond pas, le _même_ bloc de données est confié à un autre.
Dom
Dans une architecture distribuée quand un noeud ne réponds pas un autre réponds a sa place, voila pour la disponibilité et je ne pense pas confondre.
Le terme fiabilité couvre plus que la disponibilité selon moi (d'autant plus que la disponibilité est théoriquement meilleure dans un systeme distribué).
Yves
Et puis héberger en P2P cela sous entends que les clients ont également un logiciel pour accéder au réseau, hors ce n'est pas le but je pense ?
Non, je ne vois pas pourquoi celà implique un client particulier. L'exemple que j'ai donné (freenet) n'était qu'à but d'illustration. On peut très bien travailler au niveau des DNS pour rediriger le site demandé vers le peer le plus approprié, ou utiliser d'autres techniques du même style que anycast.
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates utilisait ça pour héberger des site marchands de produits divers (du grossisseur de "membre", aux répliques de montres) sur des PC d'utilisateurs infestés par des zombies (il faudrait que je retrouve une référence là dessus). Un bel exemple de distribution de ressources.
Yves
Et puis héberger en P2P cela sous entends que les clients ont également
un logiciel pour accéder au réseau, hors ce n'est pas le but je pense ?
Non, je ne vois pas pourquoi celà implique un client particulier.
L'exemple que j'ai donné (freenet) n'était qu'à but d'illustration. On
peut très bien travailler au niveau des DNS pour rediriger le site
demandé vers le peer le plus approprié, ou utiliser d'autres techniques
du même style que anycast.
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates
utilisait ça pour héberger des site marchands de produits divers (du
grossisseur de "membre", aux répliques de montres) sur des PC
d'utilisateurs infestés par des zombies (il faudrait que je retrouve une
référence là dessus). Un bel exemple de distribution de ressources.
Et puis héberger en P2P cela sous entends que les clients ont également un logiciel pour accéder au réseau, hors ce n'est pas le but je pense ?
Non, je ne vois pas pourquoi celà implique un client particulier. L'exemple que j'ai donné (freenet) n'était qu'à but d'illustration. On peut très bien travailler au niveau des DNS pour rediriger le site demandé vers le peer le plus approprié, ou utiliser d'autres techniques du même style que anycast.
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates utilisait ça pour héberger des site marchands de produits divers (du grossisseur de "membre", aux répliques de montres) sur des PC d'utilisateurs infestés par des zombies (il faudrait que je retrouve une référence là dessus). Un bel exemple de distribution de ressources.
Yves
Nicolas ROSSET
En fait il y a déjà des outils qui font plus ou moins cela basé sur du P2P & ça marche très bien.
Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/
Le principe est le suivant : - Il y a toujours un hébergeur classique qui héberge les pages et assure la qualité en cas de déperdition du réseau distribué - Les contenus (images / vidéo / sons / ...) sont diffusés sur la plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou chez l'hébergeur quand ils ne le sont pas) - L'installation est très rapide pour les webmasters (il suffit de préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre fichier à exécuter dispo sous toutes les plateformes & open source).
Reste qu'il faut que les utilisateurs (= les visiteurs des sites) jouent le jeu (mais quand on voit on peut se dire qu'un paquet est prêt à jouer le jeu).
En fait il y a déjà des outils qui font plus ou moins cela basé sur
du P2P & ça marche très bien.
Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/
Le principe est le suivant :
- Il y a toujours un hébergeur classique qui héberge les pages et
assure la qualité en cas de déperdition du réseau distribué
- Les contenus (images / vidéo / sons / ...) sont diffusés sur la
plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou
chez l'hébergeur quand ils ne le sont pas)
- L'installation est très rapide pour les webmasters (il suffit de
préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre
fichier à exécuter dispo sous toutes les plateformes & open source).
Reste qu'il faut que les utilisateurs (= les visiteurs des sites)
jouent le jeu (mais quand on voit Seti@Home on peut se dire qu'un
paquet est prêt à jouer le jeu).
En fait il y a déjà des outils qui font plus ou moins cela basé sur du P2P & ça marche très bien.
Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/
Le principe est le suivant : - Il y a toujours un hébergeur classique qui héberge les pages et assure la qualité en cas de déperdition du réseau distribué - Les contenus (images / vidéo / sons / ...) sont diffusés sur la plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou chez l'hébergeur quand ils ne le sont pas) - L'installation est très rapide pour les webmasters (il suffit de préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre fichier à exécuter dispo sous toutes les plateformes & open source).
Reste qu'il faut que les utilisateurs (= les visiteurs des sites) jouent le jeu (mais quand on voit on peut se dire qu'un paquet est prêt à jouer le jeu).
Eriam Schaffter
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates utilisait ça pour héberger des site marchands de produits divers (du grossisseur de "membre", aux répliques de montres) sur des PC d'utilisateurs infestés par des zombies (il faudrait que je retrouve une référence là dessus). Un bel exemple de distribution de ressources.
Comme quoi cela fonctionne très bien.
Bref il y a la un vrai système à mettre en place.
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates
utilisait ça pour héberger des site marchands de produits divers (du
grossisseur de "membre", aux répliques de montres) sur des PC
d'utilisateurs infestés par des zombies (il faudrait que je retrouve une
référence là dessus). Un bel exemple de distribution de ressources.
D'ailleurs, si ma mémoire est bonne, un certain nombre de pirates utilisait ça pour héberger des site marchands de produits divers (du grossisseur de "membre", aux répliques de montres) sur des PC d'utilisateurs infestés par des zombies (il faudrait que je retrouve une référence là dessus). Un bel exemple de distribution de ressources.
Comme quoi cela fonctionne très bien.
Bref il y a la un vrai système à mettre en place.
Eriam Schaffter
En fait il y a déjà des outils qui font plus ou moins cela basé sur du P2P & ça marche très bien.
Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/
Le principe est le suivant : - Il y a toujours un hébergeur classique qui héberge les pages et assure la qualité en cas de déperdition du réseau distribué - Les contenus (images / vidéo / sons / ...) sont diffusés sur la plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou chez l'hébergeur quand ils ne le sont pas) - L'installation est très rapide pour les webmasters (il suffit de préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre fichier à exécuter dispo sous toutes les plateformes & open source).
Reste qu'il faut que les utilisateurs (= les visiteurs des sites) jouent le jeu (mais quand on voit on peut se dire qu'un paquet est prêt à jouer le jeu).
Le problème de dijjer est qu'il travaille sur des chunks de 256k ce qui pour de l'hébergement de petit fichiers est une perte de resource considérable.
En plus je pense que commenrcer en se disant que la communautée va supporter le démarrage de l'outil c'est risqué je pense, surtout si on compte faire du business avec.
En fait il y a déjà des outils qui font plus ou moins cela basé sur
du P2P & ça marche très bien.
Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/
Le principe est le suivant :
- Il y a toujours un hébergeur classique qui héberge les pages et
assure la qualité en cas de déperdition du réseau distribué
- Les contenus (images / vidéo / sons / ...) sont diffusés sur la
plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou
chez l'hébergeur quand ils ne le sont pas)
- L'installation est très rapide pour les webmasters (il suffit de
préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre
fichier à exécuter dispo sous toutes les plateformes & open source).
Reste qu'il faut que les utilisateurs (= les visiteurs des sites)
jouent le jeu (mais quand on voit Seti@Home on peut se dire qu'un
paquet est prêt à jouer le jeu).
Le problème de dijjer est qu'il travaille sur des chunks de 256k ce qui
pour de l'hébergement de petit fichiers est une perte de resource
considérable.
En plus je pense que commenrcer en se disant que la communautée va
supporter le démarrage de l'outil c'est risqué je pense, surtout si on
compte faire du business avec.
En fait il y a déjà des outils qui font plus ou moins cela basé sur du P2P & ça marche très bien.
Prenez par exemple le prometteur Dijjer : http://www.dijjer.org/
Le principe est le suivant : - Il y a toujours un hébergeur classique qui héberge les pages et assure la qualité en cas de déperdition du réseau distribué - Les contenus (images / vidéo / sons / ...) sont diffusés sur la plateforme Dijjer et sont récupérés en P2P quand ils sont dispo (ou chez l'hébergeur quand ils ne le sont pas) - L'installation est très rapide pour les webmasters (il suffit de préfixer les liens et c'est fini) et pour les utilisateurs (un pauvre fichier à exécuter dispo sous toutes les plateformes & open source).
Reste qu'il faut que les utilisateurs (= les visiteurs des sites) jouent le jeu (mais quand on voit on peut se dire qu'un paquet est prêt à jouer le jeu).
Le problème de dijjer est qu'il travaille sur des chunks de 256k ce qui pour de l'hébergement de petit fichiers est une perte de resource considérable.
En plus je pense que commenrcer en se disant que la communautée va supporter le démarrage de l'outil c'est risqué je pense, surtout si on compte faire du business avec.
Samuel Tardieu
"Eriam" == Eriam Schaffter writes:
Eriam> Techniquement c'est très possible et viable mais ca va déplaire Eriam> aux habitués.
Techniquement, c'est très inadapté au WWW, car les contenus devraient être répartis aussi. Les calculs par GRID exploitent le fait que le ratio temps-de-calcul/données-transférées est très haut. C'est exactement l'inverse pour un serveur WWW classique.
Sam -- Samuel Tardieu -- -- http://www.rfc1149.net/sam
Eriam> Techniquement c'est très possible et viable mais ca va déplaire
Eriam> aux habitués.
Techniquement, c'est très inadapté au WWW, car les contenus devraient
être répartis aussi. Les calculs par GRID exploitent le fait que le
ratio temps-de-calcul/données-transférées est très haut. C'est
exactement l'inverse pour un serveur WWW classique.
Sam
--
Samuel Tardieu -- sam@rfc1149.net -- http://www.rfc1149.net/sam
Eriam> Techniquement c'est très possible et viable mais ca va déplaire Eriam> aux habitués.
Techniquement, c'est très inadapté au WWW, car les contenus devraient être répartis aussi. Les calculs par GRID exploitent le fait que le ratio temps-de-calcul/données-transférées est très haut. C'est exactement l'inverse pour un serveur WWW classique.
Sam -- Samuel Tardieu -- -- http://www.rfc1149.net/sam
jean-Louis
Le 21/09/05 20:29, dans 4331a717$0$1675$, « Pierre-Alain Flavier » a écrit :
Bonjour,
De plus en plus, pour pallier aux super-calculateurs, on utilise les ressources de milliers de PC volontaires pour effectuer les calculs consommateurs. Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des sites ? ça existe déjà, c'est Akamai le leader et c'est hyper chère
@+
-- Jean-Louis D http://WWW.guide-bordeaux.com/ Le guide des bonnes adresses du centre ville de Bordeaux
Le 21/09/05 20:29, dans 4331a717$0$1675$626a14ce@news.free.fr,
« Pierre-Alain Flavier » <pieralain.flavier@nospam-free.fr> a écrit :
Bonjour,
De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ?
ça existe déjà, c'est Akamai le leader et c'est hyper chère
@+
--
Jean-Louis D
http://WWW.guide-bordeaux.com/
Le guide des bonnes adresses du centre ville de Bordeaux
Le 21/09/05 20:29, dans 4331a717$0$1675$, « Pierre-Alain Flavier » a écrit :
Bonjour,
De plus en plus, pour pallier aux super-calculateurs, on utilise les ressources de milliers de PC volontaires pour effectuer les calculs consommateurs. Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des sites ? ça existe déjà, c'est Akamai le leader et c'est hyper chère
@+
-- Jean-Louis D http://WWW.guide-bordeaux.com/ Le guide des bonnes adresses du centre ville de Bordeaux
De plus en plus, pour pallier aux super-calculateurs, on utilise les ressources de milliers de PC volontaires pour effectuer les calculs consommateurs. Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des sites ?
Jean-Louis> ça existe déjà, c'est Akamai le leader et c'est hyper Jean-Louis> chère
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
De plus en plus, pour pallier aux super-calculateurs, on utilise
les ressources de milliers de PC volontaires pour effectuer les
calculs consommateurs. Cette idée ne pourrait-elle pas être
reprise au niveau de l'hébergement des sites ?
Jean-Louis> ça existe déjà, c'est Akamai le leader et c'est hyper
Jean-Louis> chère
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
De plus en plus, pour pallier aux super-calculateurs, on utilise les ressources de milliers de PC volontaires pour effectuer les calculs consommateurs. Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des sites ?
Jean-Louis> ça existe déjà, c'est Akamai le leader et c'est hyper Jean-Louis> chère
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
Justin Pinelli
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
Mais encore...
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
Mais encore...
Samuel Tardieu
"Justin" == Justin Pinelli writes:
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
Justin> Mais encore...
Je pensais que c'était clair, mais visiblement il faut une explication de texte :)
Quand on possède un ensemble de serveurs répartis sur plusieurs continents, il est facile de dupliquer les données qui s'y trouvent et de rediriger les internautes vers le serveur le plus proche de chez eux en termes de connectivité.
Quand on veut mettre en commun un ensemble de machines qu'on ne contrôle pas (comme le proposait le message initial), on a plusieurs problèmes à résoudre: - comment s'assurer que les données sont répliquées chez plusieurs personnes ? - comment s'assurer que les machines vers lesquelles on redirige les internautes sont fiables ? - comment s'assurer que les données renvoyées sont bien les bonnes ? (on peut être en présence de machines malicieuses, problème classique des généraux bizantins, ou de machines défectueuses)
À la différence du modèle d'Akamai, il faut alors utiliser un protocole différent de l'HTTP classique en installant un logiciel supplémentaire. Les logiciels de P2P vérifient tous la cohérence des données reçues par l'utilisation de sommes de contrôle et permettent de récupérer les données de plusieurs sources en parallèle, ce qu'HTTP ne permet pas dans sa version actuelle.
Sam -- Samuel Tardieu -- -- http://www.rfc1149.net/sam
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils
utilisent.
Justin> Mais encore...
Je pensais que c'était clair, mais visiblement il faut une explication
de texte :)
Quand on possède un ensemble de serveurs répartis sur plusieurs
continents, il est facile de dupliquer les données qui s'y trouvent
et de rediriger les internautes vers le serveur le plus proche de chez
eux en termes de connectivité.
Quand on veut mettre en commun un ensemble de machines qu'on ne
contrôle pas (comme le proposait le message initial), on a plusieurs
problèmes à résoudre:
- comment s'assurer que les données sont répliquées chez plusieurs
personnes ?
- comment s'assurer que les machines vers lesquelles on redirige les
internautes sont fiables ?
- comment s'assurer que les données renvoyées sont bien les bonnes ?
(on peut être en présence de machines malicieuses, problème
classique des généraux bizantins, ou de machines défectueuses)
À la différence du modèle d'Akamai, il faut alors utiliser un
protocole différent de l'HTTP classique en installant un logiciel
supplémentaire. Les logiciels de P2P vérifient tous la cohérence des
données reçues par l'utilisation de sommes de contrôle et permettent
de récupérer les données de plusieurs sources en parallèle, ce qu'HTTP
ne permet pas dans sa version actuelle.
Sam
--
Samuel Tardieu -- sam@rfc1149.net -- http://www.rfc1149.net/sam
Ça n'a rien à voir, Akamai possède tous les serveurs qu'ils utilisent.
Justin> Mais encore...
Je pensais que c'était clair, mais visiblement il faut une explication de texte :)
Quand on possède un ensemble de serveurs répartis sur plusieurs continents, il est facile de dupliquer les données qui s'y trouvent et de rediriger les internautes vers le serveur le plus proche de chez eux en termes de connectivité.
Quand on veut mettre en commun un ensemble de machines qu'on ne contrôle pas (comme le proposait le message initial), on a plusieurs problèmes à résoudre: - comment s'assurer que les données sont répliquées chez plusieurs personnes ? - comment s'assurer que les machines vers lesquelles on redirige les internautes sont fiables ? - comment s'assurer que les données renvoyées sont bien les bonnes ? (on peut être en présence de machines malicieuses, problème classique des généraux bizantins, ou de machines défectueuses)
À la différence du modèle d'Akamai, il faut alors utiliser un protocole différent de l'HTTP classique en installant un logiciel supplémentaire. Les logiciels de P2P vérifient tous la cohérence des données reçues par l'utilisation de sommes de contrôle et permettent de récupérer les données de plusieurs sources en parallèle, ce qu'HTTP ne permet pas dans sa version actuelle.
Sam -- Samuel Tardieu -- -- http://www.rfc1149.net/sam