Twitter iPhone pliant OnePlus 11 PS5 Disney+ Orange Livebox Windows 11

RSA-640 cassé

10 réponses
Avatar
ouah
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576

http://mathworld.wolfram.com/news/2005-11-08/rsa-640/

ouah

10 réponses

Avatar
Eric Grambier
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576

http://mathworld.wolfram.com/news/2005-11-08/rsa-640/

ouah


Etait-ce une nouvelle attendue ?


Cela n'a-t-il aucune importance ?

Cela n'a-t-il aucune conséquence sur d'autres produits ou systèmes de
chiffrement qui pourraient pâtir de cete exploit ?

Je demande tout ceci car apparement tout le monde se fout royalement de
cette info et je trouve que fmc est de plus en plus calme, voire quasi
mort :-(

Est-ce l'absence des trolls de M. Lheureux ?
Sont-ce les vacances des spécialistes en crypto ?

Est-ce moi qui me trompe et ce NG est toujours aussi vivant qu'avant ?

Peut-être n'y a-t-il rien à dire à ce propos ?

Bien à vous tous

Eric

Avatar
Arnold McDonald
Eric Grambier wrote:

Etait-ce une nouvelle attendue ?


Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.

En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...

--
Arnold McDonald (AMcD®)

http://arnold.mcdonald.free.fr/

Avatar
Eric Grambier
Eric Grambier wrote:


Etait-ce une nouvelle attendue ?



Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.

En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui
compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...

Merci pour ces informations


Eric


Avatar
Erwann ABALEA
Bonjour,

On Thu, 10 Nov 2005, Eric Grambier wrote:

RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576

http://mathworld.wolfram.com/news/2005-11-08/rsa-640/


Etait-ce une nouvelle attendue ?


Oui. Pas que cette équipe ait cassé cette clé, mais que le record
progresse.

Cela n'a-t-il aucune importance ?


Importance modérée.

Cela n'a-t-il aucune conséquence sur d'autres produits ou systèmes de
chiffrement qui pourraient pâtir de cete exploit ?


Pas à ma connaissance. Il y a peut-être encore quelques abrutis qui font
du RSA512 (je ne parle pas de ceux qui ont des contraintes de perfs ou
taille, balancées par une évaluation correcte du niveau de sécurité
requis), mais la plupart des gens font du RSA1024 au moins, et souvent du
2048bits (Firefox propose par exemple de générer une clé 2048bits par
défaut).

Je demande tout ceci car apparement tout le monde se fout royalement de
cette info et je trouve que fmc est de plus en plus calme, voire quasi
mort :-(


Quasi mort, en effet... Même pas eu de réaction sur le fil concernant la
signature électronique...

--
Erwann ABALEA - RSA PGP Key ID: 0x2D0EABD5
-----
Le neuneu est un con qui débute. C'est une espèce rare mais qui fait
beaucoup de bruit.
-+- JCD in : Guide du Neuneu d'Usenet -- Bien configurer son neuneu.-+-


Avatar
Jean-Marc Desperrier
Eric Grambier wrote:
RSA-640 factorisé hier par l'équipe allemande qui avait déjà établi le
précdent
record de décembre 2003 avec la factorisation de RSA-576

http://mathworld.wolfram.com/news/2005-11-08/rsa-640/

Etait-ce une nouvelle attendue ?



Oui, comme les autres, mais surtout pour dire que ...

Cela n'a-t-il aucune importance ?


Oui ! Car les autres ont oublié de le signaler mais une clé de taille
plus importante, 7 chiffres décimaux de plus, soit donc un rsa-663
approximativement, a déjà été cassée par la même équipe il y a plusieurs
mois en mai 2005.

Donc on apprend pas vraiment grand chose.
Sauf que l'écart de temps entre mai et novembre est peu important, et
c'est vrai que ce n'est pas rassurant qu'une clé de cette taille déjà
importante resiste aussi peu de temps.

Les clés de 768 bits qui sont encore utilisées à certains endroits ne
semblent de ce fait plus très en sécurité.


Avatar
Bruno Rohee
On 2005-11-10, Arnold McDonald wrote:
Eric Grambier wrote:

Etait-ce une nouvelle attendue ?


Bah oui. De toute façon, ils seront tous cassés/factorisés un jour ou
l'autre. L'intérêt n'en est que relatif.


Oui bon d'autant plus attendu qu'un nombre plus gros avait déjà été
factorisé...

En ce qui me concerne, ce qui importe, c'est de savoir combien de bits sont
cassables avec le matériel de tout le monde, parce que bon, casser x bits
avec 12.689.689 heures de calcul partagé, heu ben, oui, on s'en fout. Ce qui


Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite une
très belle machine sur la fin, machine rare et cher... Faut faire du
pivot de Gauss sur une matrice, heu, grosse. Si ont pouvait factoriser
en 12 millions d'heure partagée ça voudrait dire que pas mal de boites
peuvent casser des clés à la chaine, genre avec le temps CPU qui traine
sur les postes de travail...

compte plutôt, pour moi toujours, c'est de savoir si ça fait avancer les
méthodes de factorisation. C'est pas toujours évident à voir dans ces
concours...



Avatar
Arnold McDonald
Bruno Rohee wrote:

Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite
une très belle machine sur la fin, machine rare et cher... Faut faire
du pivot de Gauss sur une matrice, heu, grosse. Si ont pouvait
factoriser
en 12 millions d'heure partagée ça voudrait dire que pas mal de boites
peuvent casser des clés à la chaine, genre avec le temps CPU qui
traine sur les postes de travail...


Hum, je crains que tu n'as pas saisi mon humour...

Cela étant, 365 x 24 = 8.760 heures par an. 12.689.689 / 8.760 = 1.450 ans
(arrondissons pour rire un peu).

Donc, si on utilise 1 machine, 12.689.689 heures impliquent 1.450 ans ou,
1.450 machines fonctionnant 24/24 pendant un an. J'ai pri ce chiffre de 12
millions et quelque pour rire, mais, tout de même, 1.450 machines pendant 1
an, c'est pas à la portée de "pas mal de boîtes" comme tu dis. Quand au
calcul partagé, si t'utilises le temps CPU "qui traîne", t'es très loin des
24h/24. Alors, ça implique plusieurs dizaines de milliers de machines. T'en
connais des boîtes qui ont ça ?

--
Arnold McDonald (AMcD®)

http://arnold.mcdonald.free.fr/

Avatar
pornin
According to Bruno Rohee :
Ca serait pourtant une nouvelle intéressante, parce que pour l'instant
l'algo de factorisation le plus performant pour la taille de nombre
dont nous parlons, le GNFS, se parrallélise plutôt mal et nécessite une
très belle machine sur la fin, machine rare et cher...


C'est là que cette factorisation du RSA-640 est intéressante d'ailleurs :
la phase de crible a été faite, classiquement, sur un bataillon de PC
de base (80 Opteron à 2.2 GHz), mais la phase finale a aussi été faite
sur ce cluster de PC, donc avec de la parallélisation. Bon, il faut
dire qu'il y avait de l'ethernet 1 Gbits/s entre les PC, et c'était
probablement ce débit le point limitant, mais ça indique quand même
qu'il y a eu pas mal de boulot scientifique et technique, parce que pour
les records précédents, c'est _une_ machine avec beaucoup de mémoire
rapide.


--Thomas Pornin

Avatar
Bruno Rohee
Donc, si on utilise 1 machine, 12.689.689 heures impliquent 1.450 ans ou,
1.450 machines fonctionnant 24/24 pendant un an. J'ai pri ce chiffre de 12
millions et quelque pour rire, mais, tout de même, 1.450 machines pendant 1
an, c'est pas à la portée de "pas mal de boîtes" comme tu dis. Quand au
calcul partagé, si t'utilises le temps CPU "qui traîne", t'es très loin des
24h/24. Alors, ça implique plusieurs dizaines de milliers de machines. T'en
connais des boîtes qui ont ça ?


Tout les grands noms de l'informatique et pas mal d'autres entreprises.
e.g. IBM a plus de 300.000 employés et certainement plus d'une machine
correcte par employé. Google dans les documents de son introduction en
Bourse (il y a un petit moment déjà donc) déclairait plus de 100.000 serveurs.

Il est relativement courant d'avoir plus d'une machine par employé dans
beaucoup d'entreprise et ce n'est pas comme si les entreprise de dizaines
de milliers d'employés étaient rare...

En règle générale je dirais que la plupart des Fortune 500 peuvent dégager
une très belle puissance parallèle si il y a un effort concerté... Largement
de quoi factoriser de la clé de 640 bits à la chaine, mais bon ça ne présente
aucun intéret...

Avatar
Arnold McDonald
Bruno Rohee wrote:

Tout les grands noms de l'informatique et pas mal d'autres
entreprises.
e.g. IBM a plus de 300.000 employés et certainement plus d'une machine
correcte par employé. Google dans les documents de son introduction en
Bourse (il y a un petit moment déjà donc) déclairait plus de 100.000
serveurs.


1 - Je doute que les serveurs de Google disposent d'un grand temps CPU de
libre...
2 - Quel que soit le nombre de machines, il te faut prendre en compte divers
paramètres :
a ) - La probable hétéroclité du matos, qui fait, que peut-être, le
logiciel ne pourra pas être distribué dessus.
b) - le fait que je doute que beaucoup d'entreprises aient envie de payer
l'electricité pour accomplir des tâches pour lesquelles n'ont pas été
achetées leurs machines...
c) - La qualité des réseaux locaux, bande passante, etc. Combien de
résultats vont se perdre au passage ?
d) - tu ne peux pas déduire la puissance d'un cluster distribué en
additionnant le nombre de machines. Ce serait bien trop simple. Exemple, je
prend deux machines sous Windows qui ne font "rien". Sur la mienne, en tâche
de fond, services, etc., il y a 280 threads qui tournent, sur celle de mon
voisin, 145. Tu te doutes bien que le taux d'utilisation du CPU ne va pas
être le même, alors que les deux machines ne font rien.
e) - Prends en compte aussi les différents OS, versions d'OS, au sein
d'une même entreprise, qui vont jouer également.
f) - tous les PC ne tournent pas 24/24, pour des raisons de coût
nottament.

Il est relativement courant d'avoir plus d'une machine par employé
dans beaucoup d'entreprise et ce n'est pas comme si les entreprise de
dizaines
de milliers d'employés étaient rare...


Voir plus haut...

En règle générale je dirais que la plupart des Fortune 500 peuvent
dégager une très belle puissance parallèle si il y a un effort
concerté...


Encore faut-il que cet effort soit désiré et... possible.

Largement de quoi factoriser de la clé de 640 bits à la
chaine, mais bon ça ne présente aucun intéret...


Je ne pense pas que ce soit si simple. AMHA, le mieux c'est d'utiliser les
usines à gaz des gros gros CPU, Facs, labos, etc. qui, la nuit, ne font pas
grand chose. Je doute qu'il passe son temps à se tourner les pouces, mais
bon, 1 jour férié du matos de Météo France, ça doit valloir quelques
semaines de centaines de PCs de base :-).

--
Arnold McDonald (AMcD®)

http://arnold.mcdonald.free.fr/