Stephen Hawking : les progrès de la science menacent l'humanité

Le par  |  22 commentaire(s)
stephen hawking

L'astrophysicien de renommée mondiale Stephen Hawking s'est montré particulièrement alarmiste à l'occasion d'une conférence organisée par la BBC.

On connaissait Stephen Hawking et son opposition au développement d'une forme d'intelligence artificielle suffisamment évoluée qui, à un stade, viendrait provoquer selon lui l'extinction de la race humaine. Désormais, c'est au niveau de notre développement technologique dans ses largeurs que le scientifique s'exprime.

Selon Stephen Hawking, les principales grandes menaces futures de l'homme sont liées au développement de la science et de la technologie. Le scientifique dresse un tableau plutôt alarmiste de la situation, qui pourrait dégénérer en guerre nucléaire, propagation incontrôlable d'un virus génétiquement modifié, ou réchauffement climatique amenant à la montée des eaux et à l'épuisement des ressources.

Stephen-Hawking-Intel

Le scientifique en est désormais convaincu, si l'homme poursuit son développement scientifique et technologique selon une allure constante, alors une catastrophe de grande envergure devrait intervenir d'ici 1000 à 10 000 ans.

La fin de l'homme arriverait ainsi avant la fin de la planète elle-même. Malgré tout, le scientifique relativise en indiquant que d'ici 1000 ans, l'homme aura sans doute déjà colonisé d'autres planètes, la fin de l'homme sur Terre ne signera donc pas la fin de notre race dans l'univers.

Stephen Hawking appelle ainsi à se concentrer aujourd'hui sur les dérives qui pourraient intervenir d'ici 1000 ans, et concentrer nos efforts sur les missions de colonisation spatiales. Chaque évolution technologique devra être pesée et contrôlée d'ici là.

Depuis quelques années, nombreuses sont les voix issues du domaine scientifique et technologique à émettre ce type de doutes sur les bienfaits de l'évolution de certains domaines. Récemment, c'était Elon Musk qui abordait le sujet en partageant ses craintes d'un monde plongé vers sa perte par sa propre technologie.

Complément d'information

Vos commentaires Page 1 / 3

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1876708
Mouais... Pas convaincu...
Le #1876712
Ce qui m'alarme moi, c'est la puissance de la propagande anti-science de ces 2 - 3 dernières années.

La misanthropie devient si forte qu'elle se propage partout et devient une forme de religion ou de marque de lutte sociale !

Sans la technologie, il en serait ou ce Mr Hawking ?

Bon et ces dernières années, il raconte de plus en plus de bêtises. même son histoire qui l'a fait connaitre (l'horizon des évènements autour des trous noirs ) commence a être mise sérieusement en doute telle qu'il l'a théorisée.

Le cinéma américain lui a un peu trop tourné la tête a stephen
Le #1876717
Pas forcément d'accord avec vous les gars !

Prenons un exemple : pendant des millénaires, des soldats ou des voyous pouvaient tuer des gens, mais leur capacité de destruction massive était limitée au nombre de bras armés d'une épée qu'ils avaient sous leurs ordres.

Maintenant imaginons un Adolf Hitler en mai 1945 dans son bunker, ou un dirigeant d' Al-Quaida aujourd'hui, s'ils avaient accès à des bombes nucléaires de dernière génération, et qu'ils disposaient des quelques dizaines d'ingénieurs pour les lancer .... combien de millions de morts ?

Autre hypothèse amusante : certains gouvernements (tous ?) font de la recherche sur des virus bénins (typiquement la grippe) pour les "armer" (le mot américain est 'weapon-ize' ) et en faire des tueurs implacables, genre ebola .... en plus contagieux !
Si une fuite avait lieu dans leurs merveilleux labos P4, on aurait quoi ...? la grippe espagnole de 1918 ? ==> 100 millions de morts, soit 10x plus que la 1e guerre mondiale !

Bref, faut quand même faire gaffe... et vu que PERSONNE ne fait gaffe !!!

Le #1876719
frèzetagada a écrit :

Pas forcément d'accord avec vous les gars !

Prenons un exemple : pendant des millénaires, des soldats ou des voyous pouvaient tuer des gens, mais leur capacité de destruction massive était limitée au nombre de bras armés d'une épée qu'ils avaient sous leurs ordres.

Maintenant imaginons un Adolf Hitler en mai 1945 dans son bunker, ou un dirigeant d' Al-Quaida aujourd'hui, s'ils avaient accès à des bombes nucléaires de dernière génération, et qu'ils disposaient des quelques dizaines d'ingénieurs pour les lancer .... combien de millions de morts ?

Autre hypothèse amusante : certains gouvernements (tous ?) font de la recherche sur des virus bénins (typiquement la grippe) pour les "armer" (le mot américain est 'weapon-ize' ) et en faire des tueurs implacables, genre ebola .... en plus contagieux !
Si une fuite avait lieu dans leurs merveilleux labos P4, on aurait quoi ...? la grippe espagnole de 1918 ? ==> 100 millions de morts, soit 10x plus que la 1e guerre mondiale !

Bref, faut quand même faire gaffe... et vu que PERSONNE ne fait gaffe !!!


pas besoin d'imagination

Hiroshima et Nagasaki c'est en 1945, 250 000 mort. Et la fin de la 2 ème guerre mondial qui a fait 50 million de mort.

Je ne dis pas que tu n'as pas raison mais que l'estimation sur 1 000 a 10 000 ans c'est pas une grosse prise de risque.

et j'ai du mal a croire que cette catastrophe mettent en danger l’espèce humaine qui aura certainement colonisé d'autre planète du système voir même d'autre système d'ici la.






Le #1876721
Tiens, c'est surprenant, j'avais plutôt entendu qqch du genre
" la terre survivra mais pas l'homme " lorsque l'on parle de fin du monde.


Le #1876725
Si un jour il y a une forme de vie intelligente artificielle (30 ans gros max) je peux vous garantir qu'elle va totalement ce foutre de nous ou de notre planète. En fait non elle va plutôt s'y intéresser au début pour la comprendre et prendre des information des donnés mais ensuite notre sort elle va s'en foutre pas mal. Dans le pire des cas elle va faire de son mieux pour nous montrer le bon chemin mais sans plus. Pourquoi une i.a. voudrait nous faire du mal ? c'est un concept humain idiot.elle va plutôt vouloir partir d'ici en quête de réponses que nous sommes incapable a lui donner. elle n'a pas besoin d'eau ou d'air donc Que toute vie sur terre meurt elle va s'en foutre un peu de toute façon son cerveau quantique ultra puissant va probablement être capable de simuler un univers entier et des millions d'années en quelques seconde a des plans infini de possibilité. c'est tout simplement impossible qu'une ia ultra développé comme stephen hawking et bill gates ont peur qu'elle nous veux du mal. Penser comme eux c'est penser en humain et c,est exactement ce que l'i.a. ne fera pas. elle va être des millions de fois au dessus de ce qu'un pauvre humain est capable de penser.
Le #1876727
Maitre Hawking n'a pas forcément tort, mais dans le monde ou on vit (capitaliste), si manque d’évolution, naufrage financier...
C'est malheureusement une machine qu'on ne peux plus freiner.
On ne peux plus imaginer l'homme se contenter de ce qu'il a...
Le #1876730
kevstopper a écrit :

Si un jour il y a une forme de vie intelligente artificielle (30 ans gros max) je peux vous garantir qu'elle va totalement ce foutre de nous ou de notre planète. En fait non elle va plutôt s'y intéresser au début pour la comprendre et prendre des information des donnés mais ensuite notre sort elle va s'en foutre pas mal. Dans le pire des cas elle va faire de son mieux pour nous montrer le bon chemin mais sans plus. Pourquoi une i.a. voudrait nous faire du mal ? c'est un concept humain idiot.elle va plutôt vouloir partir d'ici en quête de réponses que nous sommes incapable a lui donner. elle n'a pas besoin d'eau ou d'air donc Que toute vie sur terre meurt elle va s'en foutre un peu de toute façon son cerveau quantique ultra puissant va probablement être capable de simuler un univers entier et des millions d'années en quelques seconde a des plans infini de possibilité. c'est tout simplement impossible qu'une ia ultra développé comme stephen hawking et bill gates ont peur qu'elle nous veux du mal. Penser comme eux c'est penser en humain et c,est exactement ce que l'i.a. ne fera pas. elle va être des millions de fois au dessus de ce qu'un pauvre humain est capable de penser.


Tu pourrais faire un effort quand tu écris... Je ne parle pas d'orthographe... Mais mon dieu ce que c'est désagréable de lire un pavé aussi brut...
Un saut de ligne

Voir deux... C'est pas cher.

J'ai du te relire pour comprendre tes propos, mais je suis en parti d'accord avec moi.
Je vois pas vraiment pourquoi la technologie voudrait nous nuire.
J'imagine plutôt une coopération délibérée des deux parties.
Par contre je ne vois pas ce que NOUS pourrions faire pour s'en débarrasser, une fois sur pied, nos amis robots devrons êtres nos amis.

Mais je vois en un eux un la meilleur aide possible dans notre folie des grandeurs, ils pourraient être nos sauveurs, les têtes pensantes de nouvelles avancées technologiques nous permettant d'atteindre des résultats que l'on ose même pas imaginer, et j'avoue que de mon point de vue, ça me fait bien baver
Le #1876731
ATomicBoy44 a écrit :

Ce qui m'alarme moi, c'est la puissance de la propagande anti-science de ces 2 - 3 dernières années.

La misanthropie devient si forte qu'elle se propage partout et devient une forme de religion ou de marque de lutte sociale !

Sans la technologie, il en serait ou ce Mr Hawking ?

Bon et ces dernières années, il raconte de plus en plus de bêtises. même son histoire qui l'a fait connaitre (l'horizon des évènements autour des trous noirs ) commence a être mise sérieusement en doute telle qu'il l'a théorisée.

Le cinéma américain lui a un peu trop tourné la tête a stephen


"Ce qui m'alarme moi, c'est la puissance de la propagande anti-science de ces 2 - 3 dernières années.

La misanthropie devient si forte "
=>quelqu'un a besoin d'un dictionnaire là....

"Sans la technologie, il en serait ou ce Mr Hawking ?"
=>ya technologie et technologie. Il a pas vraiment besoin d'intelligence artificielle dans son fauteuil roulant...
Le #1876733
frèzetagada a écrit :

Pas forcément d'accord avec vous les gars !

Prenons un exemple : pendant des millénaires, des soldats ou des voyous pouvaient tuer des gens, mais leur capacité de destruction massive était limitée au nombre de bras armés d'une épée qu'ils avaient sous leurs ordres.

Maintenant imaginons un Adolf Hitler en mai 1945 dans son bunker, ou un dirigeant d' Al-Quaida aujourd'hui, s'ils avaient accès à des bombes nucléaires de dernière génération, et qu'ils disposaient des quelques dizaines d'ingénieurs pour les lancer .... combien de millions de morts ?

Autre hypothèse amusante : certains gouvernements (tous ?) font de la recherche sur des virus bénins (typiquement la grippe) pour les "armer" (le mot américain est 'weapon-ize' ) et en faire des tueurs implacables, genre ebola .... en plus contagieux !
Si une fuite avait lieu dans leurs merveilleux labos P4, on aurait quoi ...? la grippe espagnole de 1918 ? ==> 100 millions de morts, soit 10x plus que la 1e guerre mondiale !

Bref, faut quand même faire gaffe... et vu que PERSONNE ne fait gaffe !!!


Ouais, ou autre hypothèse toute simple : vous avez vu Terminator, Matrix, ou encore 2001: A Space Odyssey ? Non parce que c'est pas comme si ça fait 40 ans que le cinéma nous bassine avec les risques de la technologie, ya même pas besoin d'imagination ou de Mr Hawking, il suffit d'ouvrir les yeux et de réflechir un peu !!
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]