Le modèle de calcul quantique va révolutionner l’informatique

Le par Carolina T.  |  15 commentaire(s)
quantique

De nombreux chercheurs souhaitent adapter le modèle de calcul quantique à l’informatique pour créer des machines bien plus performantes.

L’arrivée des tout premiers ordinateurs quantiques est proche, mais les chercheurs doivent encore résoudre de nombreux défis. Et ils sont nombreux à se pencher sur le sujet. À tel point que cela ressemble plus à une course planétaire qu’à une recherche. En effet, les laboratoires publics comme les privés convoitent le brevet de l’ordinateur quantique.

Cette machine a été imaginée au début des années 1980 par le Nobel de physique Richard Feynman. Contrairement à un ordinateur classique, un système quantique n’utilise pas des bits à deux valeurs, à savoir zéro ou un. Il se base sur des qubits qui présentent des états différents de plus en plus nombreux au fur et à mesure qu’on ajoute de nouveaux qubits. Ainsi, chaque qubit supplémentaire double la puissance de l’ensemble. De quoi créer des puissances de calcul exponentielles.

 ordinateur quantique

Bien que la solution théorique soit développée depuis de nombreuses années, il faut à présent développer les méthodes et les outils nécessaires. Un véritable travail de fourmis qui devra être réalisé au cas par cas pour vérifier l’utilité d’une solution quantique. Certains thèmes semblent déjà prometteurs comme la machine learning , l’optimisation de systèmes complexes, les simulations, etc... Il faudra cependant être patient, nous n’en sommes qu’au tout début de l’apprentissage de la maîtrise de cette technologie.

  • Partager ce contenu :
Cette page peut contenir des liens affiliés. Si vous achetez un produit depuis ces liens, le site marchand nous reversera une commission sans que cela n'impacte en rien le montant de votre achat. En savoir plus.

Vos commentaires Page 1 / 2

Trier par : date / pertinence
LinuxUser offline Hors ligne VIP icone 17490 points
Le #2126504
On y est pas encore.
Théoriser est une chose, prototyper en est une autre, et industrialiser est l'ultime rempart.
Aujourd’hui on a des prototypes, mais rien ne dit qu'on aura cette technologie industrialisable dans quelques années.

Alors oui il va y avoir une révolution, mais dans combien de temps ? 5 ans, 10 ans, 50 ans, plus ? Aujourd'hui difficile de le dire.
tmtisfree offline Hors ligne VIP icone 6050 points
Le #2126508
C'est quoi cet article vide ? Même le titre n'a pas de sens.

https://www.youtube.com/watch?v=b-aGIvUomTA
LinuxUser offline Hors ligne VIP icone 17490 points
Le #2126509
tmtisfree a écrit :

C'est quoi cet article vide ? Même le titre n'a pas de sens.

https://www.youtube.com/watch?v=b-aGIvUomTA


Mdr, dire que j'ai hésité a faire la comparaison avec la fusion.
Le #2126517
Un peu comme la fusion nucléaire qui doit produire de l'énergie sans se soucier de l'avenir et sans se préoccuper du Premier Principe de Carnot, cet empêcheur de tourner en rond !
Phil995511 offline Hors ligne Vétéran icone 2432 points
Le #2126520
LinuxUser a écrit :

On y est pas encore.
Théoriser est une chose, prototyper en est une autre, et industrialiser est l'ultime rempart.
Aujourd’hui on a des prototypes, mais rien ne dit qu'on aura cette technologie industrialisable dans quelques années.

Alors oui il va y avoir une révolution, mais dans combien de temps ? 5 ans, 10 ans, 50 ans, plus ? Aujourd'hui difficile de le dire.


Sachant que la gravure au delà de 1 nm risque de poser de très sérieux problème étant donné qu'un cristal de silicium mesure 0,543 071 0 nm.

Sachant que TSMC prévoit la gravure à 2 nm pour 2023 et une production en madde à cette échelle dès 2024.

Les seules solutions qui nous resteront bientôt pour gagner en puissance de calcul seront :

a) l'optimisation des architectures des CPU / GPU

b) le passage au mode de calcul cantique avec des CPU's fonctionnant à base de fibres optiques ou des CPU's supra-conductif

Le problème avec le point "b" étant qu'on ne maîtrise toujours pas la supra-conductivité à température ambiante ce qui laisse supposer que les prototypes US existants doivent consommer énormément d'énergie et que fabriquer un CPU à base de fibres optiques comme le fond les chinois c'est faisable mais ça prend beaucoup de place...

Il va donc falloir investir extrêmement massivement en R&D si on veux y parvenir, ou être très patients en effet avant d'avoir de tels CPU's dans nos PC's @ home...

A part ça rien que pour le transport de l'énergie électrique de la côte est des US vers la côte ouest il y a +/- 30 % de pertes la supra-condictivité pourrait régler ce type de problèmes. Et puis quand on médite à propos l'efficacité énergétique de moteurs conçus sur une base supra-conductive on se dit qu'on que le rendement d'un tel moteur serait juste gigantesque...

Je pense qu'on devrait investir autant en R&D dans la supraconductivité si ce n'est plus encore qu'on le fait dans la recherche sur la fusion à froid et les tokamak. La supraconductivité est un élément principal semble-t-il, manquant encore cruellement à notre savoir faire. Elle semble bien plus cruciale encore à maîtriser que la notion de production énergétique. Ca à tout simplement "la forme et la couleur" du Saint Gral énergétique...
TheDarkgg offline Hors ligne Vénéré icone 3002 points
Le #2126549
L'informatique quantique ce n'est pas pour maintenant je pense ...

Basé exclusivement sur un algorithme spécifique (le temps de résoudre un calcul spécifique) , le quantique peut rivaliser avec le PC binaire mais on oublie que le PC binaire peut exécuter de multiple algorithme sans être reprogrammer pour l'effectuer.

D'ailleurs, il a été démontrer par plusieurs scientifiques qu'un ordinateur binaire (traditionnel) pouvait rivaliser avec l'ordinateur quantique en se basant sur d'autres types d'algorithmes pour effectuer le même calcul !

Le quantique est très prometteur mais ne sera pas optimal pour tous type d'utilisation je pense et sera surtout exploité dans le milieu scientifique.
Anonyme
Le #2126556
tmtisfree a écrit :

C'est quoi cet article vide ? Même le titre n'a pas de sens.

https://www.youtube.com/watch?v=b-aGIvUomTA



Anonyme
Le #2126558
lobo14 a écrit :

Un peu comme la fusion nucléaire qui doit produire de l'énergie sans se soucier de l'avenir et sans se préoccuper du Premier Principe de Carnot, cet empêcheur de tourner en rond !



LinuxUser offline Hors ligne VIP icone 17490 points
Le #2126559
nozero a écrit :

lobo14 a écrit :

Un peu comme la fusion nucléaire qui doit produire de l'énergie sans se soucier de l'avenir et sans se préoccuper du Premier Principe de Carnot, cet empêcheur de tourner en rond !


j'ai regardé le principe de Carmot, mais t'es parti trop loin pour moi.
Explique mieux ta pensé, en pensant au non initié ...

Mais de toute manière, vu que ton premier constant est faux (sans se soucier de l'avenir), je ne te prend pas au sérieux sur le deuxième (Carmot).

Surtout que la science ca évolue, c'est pas quelque chose de fixé et immuable ....


Le but de la fusion est totalement le contraire.
C'est pour se soucier de l'avenir énergétique (et écologique) que l'on veux pouvoir maitriser cette technologie...
(le fait que se sera probablement détenu par une minorité est Hors Sujet)


Je suppose qu'il veut parler du premier principe de la thermodynamique (dont le travail de Carnot a contribué ) , que la fusion ne romps pas bien entendu, contrairement a ce qu'il semble affirmer.
Anonyme
Le #2126561
Phil995511 a écrit :

LinuxUser a écrit :

On y est pas encore.
Théoriser est une chose, prototyper en est une autre, et industrialiser est l'ultime rempart.
Aujourd’hui on a des prototypes, mais rien ne dit qu'on aura cette technologie industrialisable dans quelques années.

Alors oui il va y avoir une révolution, mais dans combien de temps ? 5 ans, 10 ans, 50 ans, plus ? Aujourd'hui difficile de le dire.


Sachant que la gravure au delà de 1 nm risque de poser de très sérieux problème étant donné qu'un cristal de silicium mesure 0,543 071 0 nm.

Sachant que TSMC prévoit la gravure à 2 nm pour 2023 et une production en madde à cette échelle dès 2024.

Les seules solutions qui nous resteront bientôt pour gagner en puissance de calcul seront :

a) l'optimisation des architectures des CPU / GPU

b) le passage au mode de calcul cantique avec des CPU's fonctionnant à base de fibres optiques ou des CPU's supra-conductif

Le problème avec le point "b" étant qu'on ne maîtrise toujours pas la supra-conductivité à température ambiante ce qui laisse supposer que les prototypes US existants doivent consommer énormément d'énergie et que fabriquer un CPU à base de fibres optiques comme le fond les chinois c'est faisable mais ça prend beaucoup de place...

Il va donc falloir investir extrêmement massivement en R&D si on veux y parvenir, ou être très patients en effet avant d'avoir de tels CPU's dans nos PC's @ home...

A part ça rien que pour le transport de l'énergie électrique de la côte est des US vers la côte ouest il y a +/- 30 % de pertes la supra-condictivité pourrait régler ce type de problèmes. Et puis quand on médite à propos l'efficacité énergétique de moteurs conçus sur une base supra-conductive on se dit qu'on que le rendement d'un tel moteur serait juste gigantesque...

Je pense qu'on devrait investir autant en R&D dans la supraconductivité si ce n'est plus encore qu'on le fait dans la recherche sur la fusion à froid et les tokamak. La supraconductivité est un élément principal semble-t-il, manquant encore cruellement à notre savoir faire. Elle semble bien plus cruciale encore à maîtriser que la notion de production énergétique. Ca à tout simplement "la forme et la couleur" du Saint Gral énergétique...



icone Suivre les commentaires
Poster un commentaire