RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
ouah
Etait-ce une nouvelle attendue ?
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
ouah
Etait-ce une nouvelle attendue ?
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
ouah
Etait-ce une nouvelle attendue ?
Etait-ce une nouvelle attendue ?
Etait-ce une nouvelle attendue ?
Etait-ce une nouvelle attendue ?
Eric Grambier wrote:Etait-ce une nouvelle attendue ?
Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.
En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...
Merci pour ces informations
Eric Grambier wrote:
Etait-ce une nouvelle attendue ?
Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.
En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...
Merci pour ces informations
Eric Grambier wrote:Etait-ce une nouvelle attendue ?
Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.
En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...
Merci pour ces informations
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
Etait-ce une nouvelle attendue ?
Cela n'a-t-il aucune importance ?
Cela n'a-t-il aucune conséquence sur d'autres produits ou systèmes de
chiffrement qui pourraient pâtir de cete exploit ?
Je demande tout ceci car apparement tout le monde se fout royalement de
cette info et je trouve que fmc est de plus en plus calme, voire quasi
mort :-(
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
Etait-ce une nouvelle attendue ?
Cela n'a-t-il aucune importance ?
Cela n'a-t-il aucune conséquence sur d'autres produits ou systèmes de
chiffrement qui pourraient pâtir de cete exploit ?
Je demande tout ceci car apparement tout le monde se fout royalement de
cette info et je trouve que fmc est de plus en plus calme, voire quasi
mort :-(
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
Etait-ce une nouvelle attendue ?
Cela n'a-t-il aucune importance ?
Cela n'a-t-il aucune conséquence sur d'autres produits ou systèmes de
chiffrement qui pourraient pâtir de cete exploit ?
Je demande tout ceci car apparement tout le monde se fout royalement de
cette info et je trouve que fmc est de plus en plus calme, voire quasi
mort :-(
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
Etait-ce une nouvelle attendue ?
Cela n'a-t-il aucune importance ?
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
Etait-ce une nouvelle attendue ?
Cela n'a-t-il aucune importance ?
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576
http://mathworld.wolfram.com/news/2005-11-08/rsa-640/
Etait-ce une nouvelle attendue ?
Cela n'a-t-il aucune importance ?
Eric Grambier wrote:Etait-ce une nouvelle attendue ?
Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.
En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...
Eric Grambier wrote:
Etait-ce une nouvelle attendue ?
Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.
En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...
Eric Grambier wrote:Etait-ce une nouvelle attendue ?
Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.
En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite
une très belle machine sur la fin, machine rare et cher... Faut faire
du pivot de Gauss sur une matrice, heu, grosse. Si ont pouvait
factoriser
en 12 millions d'heure partagée ça voudrait dire que pas mal de boites
peuvent casser des clés à la chaine, genre avec le temps CPU qui
traine sur les postes de travail...
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite
une très belle machine sur la fin, machine rare et cher... Faut faire
du pivot de Gauss sur une matrice, heu, grosse. Si ont pouvait
factoriser
en 12 millions d'heure partagée ça voudrait dire que pas mal de boites
peuvent casser des clés à la chaine, genre avec le temps CPU qui
traine sur les postes de travail...
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite
une très belle machine sur la fin, machine rare et cher... Faut faire
du pivot de Gauss sur une matrice, heu, grosse. Si ont pouvait
factoriser
en 12 millions d'heure partagée ça voudrait dire que pas mal de boites
peuvent casser des clés à la chaine, genre avec le temps CPU qui
traine sur les postes de travail...
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite une
très belle machine sur la fin, machine rare et cher...
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite une
très belle machine sur la fin, machine rare et cher...
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite une
très belle machine sur la fin, machine rare et cher...
Donc, si on utilise 1 machine, 12.689.689 heures impliquent 1.450 ans ou,
1.450 machines fonctionnant 24/24 pendant un an. J'ai pri ce chiffre de 12
millions et quelque pour rire, mais, tout de même, 1.450 machines pendant 1
an, c'est pas à la portée de "pas mal de boîtes" comme tu dis. Quand au
calcul partagé, si t'utilises le temps CPU "qui traîne", t'es très loin des
24h/24. Alors, ça implique plusieurs dizaines de milliers de machines. T'en
connais des boîtes qui ont ça ?
Donc, si on utilise 1 machine, 12.689.689 heures impliquent 1.450 ans ou,
1.450 machines fonctionnant 24/24 pendant un an. J'ai pri ce chiffre de 12
millions et quelque pour rire, mais, tout de même, 1.450 machines pendant 1
an, c'est pas à la portée de "pas mal de boîtes" comme tu dis. Quand au
calcul partagé, si t'utilises le temps CPU "qui traîne", t'es très loin des
24h/24. Alors, ça implique plusieurs dizaines de milliers de machines. T'en
connais des boîtes qui ont ça ?
Donc, si on utilise 1 machine, 12.689.689 heures impliquent 1.450 ans ou,
1.450 machines fonctionnant 24/24 pendant un an. J'ai pri ce chiffre de 12
millions et quelque pour rire, mais, tout de même, 1.450 machines pendant 1
an, c'est pas à la portée de "pas mal de boîtes" comme tu dis. Quand au
calcul partagé, si t'utilises le temps CPU "qui traîne", t'es très loin des
24h/24. Alors, ça implique plusieurs dizaines de milliers de machines. T'en
connais des boîtes qui ont ça ?
Tout les grands noms de l'informatique et pas mal d'autres
entreprises.
e.g. IBM a plus de 300.000 employés et certainement plus d'une machine
correcte par employé. Google dans les documents de son introduction en
Bourse (il y a un petit moment déjà donc) déclairait plus de 100.000
serveurs.
Il est relativement courant d'avoir plus d'une machine par employé
dans beaucoup d'entreprise et ce n'est pas comme si les entreprise de
dizaines
de milliers d'employés étaient rare...
En règle générale je dirais que la plupart des Fortune 500 peuvent
dégager une très belle puissance parallèle si il y a un effort
concerté...
Largement de quoi factoriser de la clé de 640 bits à la
chaine, mais bon ça ne présente aucun intéret...
Tout les grands noms de l'informatique et pas mal d'autres
entreprises.
e.g. IBM a plus de 300.000 employés et certainement plus d'une machine
correcte par employé. Google dans les documents de son introduction en
Bourse (il y a un petit moment déjà donc) déclairait plus de 100.000
serveurs.
Il est relativement courant d'avoir plus d'une machine par employé
dans beaucoup d'entreprise et ce n'est pas comme si les entreprise de
dizaines
de milliers d'employés étaient rare...
En règle générale je dirais que la plupart des Fortune 500 peuvent
dégager une très belle puissance parallèle si il y a un effort
concerté...
Largement de quoi factoriser de la clé de 640 bits à la
chaine, mais bon ça ne présente aucun intéret...
Tout les grands noms de l'informatique et pas mal d'autres
entreprises.
e.g. IBM a plus de 300.000 employés et certainement plus d'une machine
correcte par employé. Google dans les documents de son introduction en
Bourse (il y a un petit moment déjà donc) déclairait plus de 100.000
serveurs.
Il est relativement courant d'avoir plus d'une machine par employé
dans beaucoup d'entreprise et ce n'est pas comme si les entreprise de
dizaines
de milliers d'employés étaient rare...
En règle générale je dirais que la plupart des Fortune 500 peuvent
dégager une très belle puissance parallèle si il y a un effort
concerté...
Largement de quoi factoriser de la clé de 640 bits à la
chaine, mais bon ça ne présente aucun intéret...