Folding@Home ajoute maintenant une option Coronavirus

Le par  |  5 commentaire(s) Source : Folding@Home
Foldingathome.

Le projet Folding@Home donne maintenant la possibilité de faire travailler CPU et GPU d'un ordinateur spécifiquement pour la recherche contre le coronavirus.

En permettant à chacun de mettre la puissance de calcul de son ordinateur au service de la recherche contre diverses pathologies, le projet Folding@Home espère créer un vaste réseau capable de défricher le terrain pour mettre au point des remèdes contre de grandes catégories d'affections.

Avec l'émergence de la crise sanitaire liée au coronavirus, Folding@Home a intégré la recherche contre le coronavirus dans la liste des champs de recherche des divers projets, attirant beaucoup de nouveaux utilisateurs prêts à fournir un peu des ressources de leur machine au point de fournir une énorme capacité de traitement de plus de 2,4 Exaflops.

coronavirus

L'application à installer sur les PC donnait la possibilité de choisir une affection particulière ou de laisser le logiciel décider de la pathologie sur laquelle participer aux recherches, mais n'affichait pas encore de spécialisation pour le coronavirus.

Beaucoup de personnes ayant rejoint le projet pour participer à la lutte contre le virus, il est donc maintenant possible de faire le choix de fournir des ressources de calcul spécifiquement pour la recherche contre le coronavirus, plutôt que de choisir l'option générique qui n'était pas très parlante.

Les créateurs du projet indiquent avoir corrigé un certain nombre de bugs signalés par les utilisateurs tout en repoussant ceux qui auraient retardé durablement la mise à jour du logiciel. Ils préparent en outre une version open source plus performante et qui pourra être plus souvent être mise à jour et améliorée grâce à la communauté de développeurs.

Complément d'information

Vos commentaires

Trier par : date / pertinence
Le #2097384
Les 2.4 exaflops sont peut-être trompeur. J'ai peur qu'ils ne prennent pour faire ce calcul que la puissance des cartes et des processeurs des machines mises à disposition. Or ils oublient que ces machines ne sont pour la plupart mises à disposition que quand l'utilisateur les utilise et en plus les utilise avec des logiciels demandant peu de puissance (je doute fort que certains laissent ce logiciel tourné pendant qu'il joue sur de gros jeux en 3D). Sur une machine tournant quatre heures par jour, il faut déjà diviser la puissance par 6.
En outre beaucoup doivent régler ce logiciel pour qu'il ne tourne que quand l'ordinateur ne fait rien ou pas grand-chose et pour qu'il tourne sans utiliser à 100 % les ressources de l'ordinateur. on peut sans doute encore diviser par deux la puissance.

Au final la puissance annoncée et sans doute 10 fois supérieures à la puissance réelle. C'est dommage que même dans les activités à but non lucratif un marketing douteux soit présent...
Le #2097403

J'ai peur qu'ils ne prennent pour faire ce calcul que la puissance des cartes et des processeurs des machines mises à disposition.



.

Au final la puissance annoncée et sans doute 10 fois supérieures à la puissance réelle. C'est dommage que même dans les activités à but non lucratif un marketing douteux soit présent...



Tu présentes une conclusion comme un fait certain, alors qu'elle se base sur la formulation d'une hypothèse incertaine. C'est ça qui est dommage.

Une autre hypothèse serait de dire qu'ils recensent la quantité de données traitée par tous les utilisateurs sur une certaine durée, 24h par exemple, (ce qui est probable car on peut justement visualiser la quantité des données traitées, ca fait partie du projet, il y a même des classements officiels affichés) puis ils font un calcul pour se ramener au nombre d'opérations traitées par seconde pour avoir une puissance de calculs réelle et non pas basée sur un calcul de puissance des procos.
Le #2097450
Les FLOPS étant le nombre d'opération en virgule flottante par seconde, le chiffre n'est certainement pas basé sur l'addition des CPU/CG des PC constituant le supercalculateur.

Il peuvent prendre un calcul particulier, regarder le temps qu'il a pris et le nombre d'opération en virgule flottante qu'il nécessite, puis ramener ça à la seconde.

C'est beaucoup, beaucoup plus simple et pertinent que de calculer les perfs de chaque machine en fonction de ses différents composants, ce qui n'a pas d'intérêt (sachant quand plus, un même composant peut avoir des perfs sensiblement différentes pour moult raisons).

Quand on regarde la puissance de calcul d'une machine, on se base sur ses calculs pas sur son hardware.
Quand on regarde la vitesse d'une Ferrari, on ne calcule pas en fonction de son moteur, de son poids, de son taux de pénétration dans l'air, de sa boite de vitesses... Non, ça ne viendrait à l'idée de personne, on regarde quelle distance elle parcours sur un temps donné, et on ramène cela en km/heure.
Le #2097489
a écrit :


J'ai peur qu'ils ne prennent pour faire ce calcul que la puissance des cartes et des processeurs des machines mises à disposition.



.

Au final la puissance annoncée et sans doute 10 fois supérieures à la puissance réelle. C'est dommage que même dans les activités à but non lucratif un marketing douteux soit présent...



Tu présentes une conclusion comme un fait certain, alors qu'elle se base sur la formulation d'une hypothèse incertaine. C'est ça qui est dommage.

Une autre hypothèse serait de dire qu'ils recensent la quantité de données traitée par tous les utilisateurs sur une certaine durée, 24h par exemple, (ce qui est probable car on peut justement visualiser la quantité des données traitées, ca fait partie du projet, il y a même des classements officiels affichés) puis ils font un calcul pour se ramener au nombre d'opérations traitées par seconde pour avoir une puissance de calculs réelle et non pas basée sur un calcul de puissance des procos.


Quand je dis additionner des CPU et GPU j'entends bien entendu additionner les Tflops des CPU et des GPU.

Ce qui me met la puce à l'oreille c'est que dans les statistiques juste à côté de la puissance totale ils indiquent le nombre de CPU et de GPU. On pourrait imaginer qu'ils prennent le nombre de travaux de calculs effectués comme référence de puissance mais dans les statistiques rien de tout cela, juste le nombre de CPU et de GPU. Ça laisse quand même largement planer le doute.

Et sur les autres projets de calcul distribué, on dirait bien qu'ils calculent comme je l'ai indiqué, en considérant que la machine sera 100 % disponibles 24 heures sur 24 :
https://boinc.bakerlab.org/rosetta/cpu_list.php

Ca mériterait clairement des explications en tout cas. Comme il n'y en a pas, on peut craindre le pire.
Le #2097622
cycnus a écrit :

a écrit :


J'ai peur qu'ils ne prennent pour faire ce calcul que la puissance des cartes et des processeurs des machines mises à disposition.



.

Au final la puissance annoncée et sans doute 10 fois supérieures à la puissance réelle. C'est dommage que même dans les activités à but non lucratif un marketing douteux soit présent...



Tu présentes une conclusion comme un fait certain, alors qu'elle se base sur la formulation d'une hypothèse incertaine. C'est ça qui est dommage.

Une autre hypothèse serait de dire qu'ils recensent la quantité de données traitée par tous les utilisateurs sur une certaine durée, 24h par exemple, (ce qui est probable car on peut justement visualiser la quantité des données traitées, ca fait partie du projet, il y a même des classements officiels affichés) puis ils font un calcul pour se ramener au nombre d'opérations traitées par seconde pour avoir une puissance de calculs réelle et non pas basée sur un calcul de puissance des procos.


Quand je dis additionner des CPU et GPU j'entends bien entendu additionner les Tflops des CPU et des GPU.

Ce qui me met la puce à l'oreille c'est que dans les statistiques juste à côté de la puissance totale ils indiquent le nombre de CPU et de GPU. On pourrait imaginer qu'ils prennent le nombre de travaux de calculs effectués comme référence de puissance mais dans les statistiques rien de tout cela, juste le nombre de CPU et de GPU. Ça laisse quand même largement planer le doute.

Et sur les autres projets de calcul distribué, on dirait bien qu'ils calculent comme je l'ai indiqué, en considérant que la machine sera 100 % disponibles 24 heures sur 24 :
https://boinc.bakerlab.org/rosetta/cpu_list.php

Ca mériterait clairement des explications en tout cas. Comme il n'y en a pas, on peut craindre le pire.


"Quand je dis additionner des CPU et GPU j'entends bien entendu additionner les Tflops des CPU et des GPU."

J'avais bien compris

"Ce qui me met la puce à l'oreille c'est que dans les statistiques juste à côté de la puissance totale ils indiquent le nombre de CPU et de GPU."

Ce que je comprend, c'est qu'il montre le hardware moyen derrière. Ca ne veut pas dire que cela entre dans leurs calculs. Ca fait partie des stats ca ne me choque pas.

https://boinc.bakerlab.org/rosetta/cpu_list.php

Idem ici non plus pas de calcul, juste des remontées d'infos, en gros c'est un benchmark avec tous les procs différents qui participent au projet, absolument rien n'indique que ces chiffres sont utilisés comme base pour le calcul de la puissance globale (et pour cause cela serait assez farfelu).

"en considérant que la machine sera 100 % disponibles 24 heures sur 24"

Les stats que tu montres sont en GFLOP, donc par seconde, absolument rien n'indique qu'ils pensent que ça tourne h24, comme je l'ai dit juste un benchmark.

"Ca mériterait clairement des explications en tout cas."

Je ne suis pas de cet avis.

La puissance de calcul se calcule en prenant le nombre d’opération en virgule flottante par seconde pour base, c'est ainsi, il n'y a pas besoin de plus d'explications.

Il ont vu qu'a un moment ils ont passé les 2,400,000,000,000,000,000 calculs par seconde, ils annoncent donc 2,4 Exaflops.
La ou je te rejoint, c'est qu'effectivement, cette puissance fluctue, contrairement à un supercalculateur dédié ou la puissance reste la même.
Donc oui c'est 2,4Exaflops, ça va remonter, ça va redescendre, et la valeur n'est pas exactement la même à chaque minute, je te l'accorde, néanmoins il faut bien donner un chiffre pour avoir un ordre d'idée. Cela dit, je ne pense pas qu'il soit pertinent de penser qu'ils se basent sur les capacités totales de la somme des hardwares qui participent.

Ils ont aussi annoncé que les données sortent à 6To/heure, ce sont les données issues des calculs, pas la somme des débits max de toutes les cartes réseau.


Ça date de 2009, mais aucune raison que ce soit différent aujourd'hui:

https://www.researchgate.net/publication/220948933_Foldinghome_Lessons_from_eight_years_of_volunteer_distributed_computing

6. Folding@home today
We currently support the seven platforms listed in
Table 1. The table lists the number of machines that
have been active by returning work recently, and the
number of teraflops reported by the cores. We use very
conservative estimates for our teraflops ratings based
on the actual speed of the code, not the theoretic peak
for the chips. We also only count actively participating
clients.

Ce me semble assez clair, même si IMHO il n'y a avait pas besoin d'une telle explication.

Pour info, ce qui limite maintenant, ce n'est plus la puissance disponible c'est le nombre de WU (Working Units) disponibles.
En gros, on a des gros calculs a faire, on les découpe en petits bouts qu'on ne peut pas réduire plus, bah aujourd'hui ya pas assez de petits bouts pour tout le monde.
Suivre les commentaires
Poster un commentaire
Anonyme
Anonyme