De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ? Je m'explique : pourquoi ne pas créer une association à but non
lucrative ou chacun de ses membres mettrait à disposition certaines
ressources de son ordinateur afin de créer un super serveur virtuel, en
contrepartie d'un hébergement gratuit sur ce derbnier.
Techniquement, je ne sais pas si cette idée est viable, mais cela me parait
un concept interessant en théorie...
La notion a bien changée depuis qu'on me l'a enseignée en cours d'informatique industrielle.
Peut etre bien, mais encore ?
Dominique ROUSSEAU
Le ven, 23 sep 2005 at 05:36 GMT, Eriam Schaffter a écrit :
La notion a bien changée depuis qu'on me l'a enseignée en cours d'informatique industrielle.
Peut etre bien, mais encore ?
La notion de "temps reel" pour une application informatique implique un certain nombre de choses presque completement antagonistes avec le genre de systeme distribue dont tu parles :) (notamment la predictibilite des temps de reaction)
Le ven, 23 sep 2005 at 05:36 GMT, Eriam Schaffter <eriamschaffter@gmail.com> a écrit :
La notion a bien changée depuis qu'on me l'a enseignée en cours
d'informatique industrielle.
Peut etre bien, mais encore ?
La notion de "temps reel" pour une application informatique implique un
certain nombre de choses presque completement antagonistes avec le genre
de systeme distribue dont tu parles :)
(notamment la predictibilite des temps de reaction)
Le ven, 23 sep 2005 at 05:36 GMT, Eriam Schaffter a écrit :
La notion a bien changée depuis qu'on me l'a enseignée en cours d'informatique industrielle.
Peut etre bien, mais encore ?
La notion de "temps reel" pour une application informatique implique un certain nombre de choses presque completement antagonistes avec le genre de systeme distribue dont tu parles :) (notamment la predictibilite des temps de reaction)
Eriam Schaffter
La notion de "temps reel" pour une application informatique implique un certain nombre de choses presque completement antagonistes avec le genre de systeme distribue dont tu parles :) (notamment la predictibilite des temps de reaction)
En fait je répondais au fil et dans ce fil, le terme temps réel a pris un sens un peu moins strict que celui que vous êtes en train d'évoquer.
Mais bon je ne vois pas en quoi il ne serait pas possible dans une architecture distribuée de prévoir les temps de réaction ?
Je veux dire une architecture distribuée c'est pas uniquement Kazaa ou Bittorrent.
La notion de "temps reel" pour une application informatique implique un
certain nombre de choses presque completement antagonistes avec le genre
de systeme distribue dont tu parles :)
(notamment la predictibilite des temps de reaction)
En fait je répondais au fil et dans ce fil, le terme temps réel a pris
un sens un peu moins strict que celui que vous êtes en train d'évoquer.
Mais bon je ne vois pas en quoi il ne serait pas possible dans une
architecture distribuée de prévoir les temps de réaction ?
Je veux dire une architecture distribuée c'est pas uniquement Kazaa ou
Bittorrent.
La notion de "temps reel" pour une application informatique implique un certain nombre de choses presque completement antagonistes avec le genre de systeme distribue dont tu parles :) (notamment la predictibilite des temps de reaction)
En fait je répondais au fil et dans ce fil, le terme temps réel a pris un sens un peu moins strict que celui que vous êtes en train d'évoquer.
Mais bon je ne vois pas en quoi il ne serait pas possible dans une architecture distribuée de prévoir les temps de réaction ?
Je veux dire une architecture distribuée c'est pas uniquement Kazaa ou Bittorrent.
Yves
La notion de "temps reel" pour une application informatique implique un certain nombre de choses presque completement antagonistes avec le genre de systeme distribue dont tu parles :) (notamment la predictibilite des temps de reaction)
En fait je répondais au fil et dans ce fil, le terme temps réel a pris un sens un peu moins strict que celui que vous êtes en train d'évoquer.
Mais bon je ne vois pas en quoi il ne serait pas possible dans une architecture distribuée de prévoir les temps de réaction ?
Système temps réel = contraintes temporelles fortes. Dans un système distribué, on ne sait pas où se trouve le processus, le temps de recherche est donc inconnu, et donc, le temps de réaction n'est pas prévisible... Par exemple.
Yves
La notion de "temps reel" pour une application informatique implique un
certain nombre de choses presque completement antagonistes avec le genre
de systeme distribue dont tu parles :)
(notamment la predictibilite des temps de reaction)
En fait je répondais au fil et dans ce fil, le terme temps réel a pris
un sens un peu moins strict que celui que vous êtes en train d'évoquer.
Mais bon je ne vois pas en quoi il ne serait pas possible dans une
architecture distribuée de prévoir les temps de réaction ?
Système temps réel = contraintes temporelles fortes. Dans un système
distribué, on ne sait pas où se trouve le processus, le temps de
recherche est donc inconnu, et donc, le temps de réaction n'est pas
prévisible... Par exemple.
La notion de "temps reel" pour une application informatique implique un certain nombre de choses presque completement antagonistes avec le genre de systeme distribue dont tu parles :) (notamment la predictibilite des temps de reaction)
En fait je répondais au fil et dans ce fil, le terme temps réel a pris un sens un peu moins strict que celui que vous êtes en train d'évoquer.
Mais bon je ne vois pas en quoi il ne serait pas possible dans une architecture distribuée de prévoir les temps de réaction ?
Système temps réel = contraintes temporelles fortes. Dans un système distribué, on ne sait pas où se trouve le processus, le temps de recherche est donc inconnu, et donc, le temps de réaction n'est pas prévisible... Par exemple.
Yves
Eriam Schaffter
Système temps réel = contraintes temporelles fortes. Dans un système distribué, on ne sait pas où se trouve le processus, le temps de recherche est donc inconnu, et donc, le temps de réaction n'est pas prévisible... Par exemple.
Le temps réel est utilisé uniquement sur des mono-processeurs ?
Système temps réel = contraintes temporelles fortes. Dans un système
distribué, on ne sait pas où se trouve le processus, le temps de
recherche est donc inconnu, et donc, le temps de réaction n'est pas
prévisible... Par exemple.
Le temps réel est utilisé uniquement sur des mono-processeurs ?
Système temps réel = contraintes temporelles fortes. Dans un système distribué, on ne sait pas où se trouve le processus, le temps de recherche est donc inconnu, et donc, le temps de réaction n'est pas prévisible... Par exemple.
Le temps réel est utilisé uniquement sur des mono-processeurs ?
F. Senault
C'est vrai, rajoutons du temps de calcul pour rien, ça fera plaisir au client final...
Pour rien ?
Pour rien.
Bah
Fred -- Petite soeur de mes nuits Ca m'a manqué tout ça Quand tu sauvais la face A bien d'autres que moi Sache que je n'oublie rien mais qu'on efface A ton étoile (Noir Désir, A ton étoile)
C'est vrai, rajoutons du temps de calcul pour rien, ça fera plaisir au
client final...
Pour rien ?
Pour rien.
Bah
Fred
--
Petite soeur de mes nuits Ca m'a manqué tout ça
Quand tu sauvais la face A bien d'autres que moi
Sache que je n'oublie rien mais qu'on efface
A ton étoile (Noir Désir, A ton étoile)
C'est vrai, rajoutons du temps de calcul pour rien, ça fera plaisir au client final...
Pour rien ?
Pour rien.
Bah
Fred -- Petite soeur de mes nuits Ca m'a manqué tout ça Quand tu sauvais la face A bien d'autres que moi Sache que je n'oublie rien mais qu'on efface A ton étoile (Noir Désir, A ton étoile)
Eriam Schaffter
Pour rien.
Ohéé tout ceux qui travaille sur les algos de compression, arretez tout ca sert a rien et en plus ca rajoute du temps de calcul !
Merci Fred
Pour rien.
Ohéé tout ceux qui travaille sur les algos de compression, arretez tout
ca sert a rien et en plus ca rajoute du temps de calcul !
Ohéé tout ceux qui travaille sur les algos de compression, arretez tout ca sert a rien et en plus ca rajoute du temps de calcul !
Merci Fred
Étienne Labaume
Le 21-09-2005, Pierre-Alain Flavier a écrit:
Bonjour,
Salut,
De plus en plus, pour pallier aux super-calculateurs, on utilise les ressources de milliers de PC volontaires pour effectuer les calculs consommateurs. Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des sites ? Je m'explique : pourquoi ne pas créer une association à but non lucrative ou chacun de ses membres mettrait à disposition certaines ressources de son ordinateur afin de créer un super serveur virtuel, en contrepartie d'un hébergement gratuit sur ce derbnier. Techniquement, je ne sais pas si cette idée est viable, mais cela me parait un concept interessant en théorie...
On pourrait envisager que tous les membres de cette asso fassent tourner un serveur HTTP (et probablement un serveur SQL), et qu'un DNS Round-Robin envoie les requêtes vers un de ces serveurs pris au hasard (et que le code PHP qui est exécuté aille chercher dans une base de données d'un serveur SQL choisi de la même façon). Ça suppose aussi que quand tu uploades un script par FTP, tu le fasses sur toutes les machines, ou qu'il y ait abstraction de cette opération, ou qu'il y ait réplication (par un logiciel de P2P ?).
À mon avis, ça fait beaucoup de traffic réseau pour mettre en oeuvre le système, comparé au traffic effectivement généré par le serveur HTTP vers le surfeur. Ça veut dire aussi que tu confies la sécurité de ton site à tous les membres de cette association. Enfin, ça fait beaucoup d'énergie dépensée pour un gain assez faible. Mais le concept reste intéressant.
-- Tinou
Le 21-09-2005, Pierre-Alain Flavier <pieralain.flavier@nospam-free.fr> a écrit:
Bonjour,
Salut,
De plus en plus, pour pallier aux super-calculateurs, on utilise les
ressources de milliers de PC volontaires pour effectuer les calculs
consommateurs.
Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des
sites ? Je m'explique : pourquoi ne pas créer une association à but non
lucrative ou chacun de ses membres mettrait à disposition certaines
ressources de son ordinateur afin de créer un super serveur virtuel, en
contrepartie d'un hébergement gratuit sur ce derbnier.
Techniquement, je ne sais pas si cette idée est viable, mais cela me parait
un concept interessant en théorie...
On pourrait envisager que tous les membres de cette asso fassent tourner
un serveur HTTP (et probablement un serveur SQL), et qu'un DNS Round-Robin
envoie les requêtes vers un de ces serveurs pris au hasard (et que le
code PHP qui est exécuté aille chercher dans une base de données d'un
serveur SQL choisi de la même façon). Ça suppose aussi que quand tu
uploades un script par FTP, tu le fasses sur toutes les machines, ou
qu'il y ait abstraction de cette opération, ou qu'il y ait réplication
(par un logiciel de P2P ?).
À mon avis, ça fait beaucoup de traffic réseau pour mettre en oeuvre le
système, comparé au traffic effectivement généré par le serveur HTTP
vers le surfeur. Ça veut dire aussi que tu confies la sécurité de ton
site à tous les membres de cette association. Enfin, ça fait beaucoup
d'énergie dépensée pour un gain assez faible. Mais le concept reste
intéressant.
De plus en plus, pour pallier aux super-calculateurs, on utilise les ressources de milliers de PC volontaires pour effectuer les calculs consommateurs. Cette idée ne pourrait-elle pas être reprise au niveau de l'hébergement des sites ? Je m'explique : pourquoi ne pas créer une association à but non lucrative ou chacun de ses membres mettrait à disposition certaines ressources de son ordinateur afin de créer un super serveur virtuel, en contrepartie d'un hébergement gratuit sur ce derbnier. Techniquement, je ne sais pas si cette idée est viable, mais cela me parait un concept interessant en théorie...
On pourrait envisager que tous les membres de cette asso fassent tourner un serveur HTTP (et probablement un serveur SQL), et qu'un DNS Round-Robin envoie les requêtes vers un de ces serveurs pris au hasard (et que le code PHP qui est exécuté aille chercher dans une base de données d'un serveur SQL choisi de la même façon). Ça suppose aussi que quand tu uploades un script par FTP, tu le fasses sur toutes les machines, ou qu'il y ait abstraction de cette opération, ou qu'il y ait réplication (par un logiciel de P2P ?).
À mon avis, ça fait beaucoup de traffic réseau pour mettre en oeuvre le système, comparé au traffic effectivement généré par le serveur HTTP vers le surfeur. Ça veut dire aussi que tu confies la sécurité de ton site à tous les membres de cette association. Enfin, ça fait beaucoup d'énergie dépensée pour un gain assez faible. Mais le concept reste intéressant.
-- Tinou
Étienne Labaume
Le 22-09-2005, Eriam Schaffter a écrit:
Non, il n'y a pas besoin de fiabilité de la part des participants... En fait, chaque participant se voit attribué un "bloc" de recherche. Si au bout d'un temps donné assez long, il n'a pas retourné ses résultats, le bloc de recherche est réattribué, et ça arrive tout le temps.
"There's an article in the New York Times about the strategies SETI is using to avoid fraudulent reports. One trick they're using is multiple analyses of the same data. Another strategy is the use of "ringer" data, where they send you fake data for which they know the results." One of the researchers has several postscript papers on his home page - Incentives for Sharing in Peer-to-Peer Networks, Uncheatable Distributed Computations, Distributed Computing with Payout. In related news, ProcessTree apparently sent out an email to participants indicating it is closing up shop, so although SETI seems to be chugging along, the idea of distributed computing as a business model is perhaps a bit premature.
L'article du NYT est payant mais c'est assez clair je pense.
Oui, mais difficilement applicable au WWW et à un surfeur qui veut voir s'afficher une page dans la seconde qui suit le moment où il a cliqué sur un lien.
-- Tinou
Le 22-09-2005, Eriam Schaffter <eriamschaffter@gmail.com> a écrit:
Non, il n'y a pas besoin de fiabilité de la part des participants... En
fait, chaque participant se voit attribué un "bloc" de recherche. Si au
bout d'un temps donné assez long, il n'a pas retourné ses résultats, le
bloc de recherche est réattribué, et ça arrive tout le temps.
"There's an article in the New York Times about the strategies SETI is
using to avoid fraudulent reports. One trick they're using is multiple
analyses of the same data. Another strategy is the use of "ringer" data,
where they send you fake data for which they know the results." One of
the researchers has several postscript papers on his home page -
Incentives for Sharing in Peer-to-Peer Networks, Uncheatable Distributed
Computations, Distributed Computing with Payout. In related news,
ProcessTree apparently sent out an email to participants indicating it
is closing up shop, so although SETI seems to be chugging along, the
idea of distributed computing as a business model is perhaps a bit
premature.
L'article du NYT est payant mais c'est assez clair je pense.
Oui, mais difficilement applicable au WWW et à un surfeur qui veut voir
s'afficher une page dans la seconde qui suit le moment où il a cliqué sur
un lien.
Non, il n'y a pas besoin de fiabilité de la part des participants... En fait, chaque participant se voit attribué un "bloc" de recherche. Si au bout d'un temps donné assez long, il n'a pas retourné ses résultats, le bloc de recherche est réattribué, et ça arrive tout le temps.
"There's an article in the New York Times about the strategies SETI is using to avoid fraudulent reports. One trick they're using is multiple analyses of the same data. Another strategy is the use of "ringer" data, where they send you fake data for which they know the results." One of the researchers has several postscript papers on his home page - Incentives for Sharing in Peer-to-Peer Networks, Uncheatable Distributed Computations, Distributed Computing with Payout. In related news, ProcessTree apparently sent out an email to participants indicating it is closing up shop, so although SETI seems to be chugging along, the idea of distributed computing as a business model is perhaps a bit premature.
L'article du NYT est payant mais c'est assez clair je pense.
Oui, mais difficilement applicable au WWW et à un surfeur qui veut voir s'afficher une page dans la seconde qui suit le moment où il a cliqué sur un lien.
-- Tinou
Eriam Schaffter
Oui, mais difficilement applicable au WWW et à un surfeur qui veut voir s'afficher une page dans la seconde qui suit le moment où il a cliqué sur un lien.
Difficilement, c'est un point de vue.
Selon moi ce n'est pas difficile mais cela mérite un minimum de moyens pour mettre en place un tel système. Autrement dit ca ne se fait pas tout seul.
Oui, mais difficilement applicable au WWW et à un surfeur qui veut voir
s'afficher une page dans la seconde qui suit le moment où il a cliqué sur
un lien.
Difficilement, c'est un point de vue.
Selon moi ce n'est pas difficile mais cela mérite un minimum de moyens
pour mettre en place un tel système. Autrement dit ca ne se fait pas
tout seul.
Oui, mais difficilement applicable au WWW et à un surfeur qui veut voir s'afficher une page dans la seconde qui suit le moment où il a cliqué sur un lien.
Difficilement, c'est un point de vue.
Selon moi ce n'est pas difficile mais cela mérite un minimum de moyens pour mettre en place un tel système. Autrement dit ca ne se fait pas tout seul.