Stephen Hawking s'inquiète des dangers futurs des Intelligences Artificielles

Le par  |  8 commentaire(s) Source : Geeks are sexy
stephen hawking

Stephen Hawking, sans doute le physicien le plus connu de notre époque, a récemment cosigné une tribune dans laquelle il met en garde contre les dangers du développement de l'intelligence artificielle.

C'est une idée largement reprise dans les scénarios de jeux vidéo ou de cinéma : un jour l'intelligence artificielle prendra le dessus sur l'homme et la machine exterminera la race humaine, ou l'asservira.

intelligence artificielle Dans la tribune signée avec trois autres scientifiques, Stephen Hawking explique comment l'Intelligence artificielle pourrait à la fois devenir la plus grande avancée technologique et technique de l'histoire de l'homme, mais aussi comment elle pourrait rapidement tourner au scénario catastrophe.

Les applications de l'Intelligence artificielle seraient sans limites : de l'ordinateur Watson développé par IBM, des voitures intelligentes, des assistants personnels comme Siri ou Cortana, des modules d'assistance aux pilotes de ligne aux logiciels permettant de réaliser des prédictions en agrégeant des millions de données diverses et statistiques aux logiciels permettant d'optimiser les rendements des entreprises. L'impact de la démocratisation des IA pourrait aller de l'automatisation des processus de fabrication à la résolution des problèmes de famines ou le développement de médicaments et autres technologies très avancées.

La crainte actuelle du physicien reste qu'un jour l'IA puisse se retourner contre son créateur : " On peut imaginer que cette technologie soit capable de déjouer les marchés financiers, de surpasser les scientifiques humains, de manipuler les dirigeants et de développer des armes en dehors de notre compréhension. L'incidence à court terme de l'intelligence artificielle dépend de celui qui la contrôle, mais, à long terme, cela dépend de notre capacité concrète à la contrôler."

Il faudra donc veiller à développer une IA disposant de verrous permettant d'encadrer ses capacités et de canaliser ses actions. Un équilibre devra ainsi être trouvé entre autonomie et garde-fou.

Malheureusement, selon les scientifiques à l'origine de la tribune, si beaucoup de sociétés cherchent à concevoir la première véritable IA, peu se soucient actuellement de la question des risques.

Reste à savoir si les industriels entendront le signal d'alarme lancé par le physicien. Skynet ne nous a, du coup, jamais paru aussi proche...

Complément d'information

Vos commentaires

Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #1735412
mouai.... heu on est encore TRÈS loin du développement d'une IA fonctionnelle...
Le #1735462
KAISER59 a écrit :

mouai.... heu on est encore TRÈS loin du développement d'une IA fonctionnelle...


Certe mais beaucoup moins loin qu'en 1980...

De toute façon a bien y réfléchir quel serait l'interet pour une Ia d'asservir ou de détruire l'humanité?

Est-ce que nous exterminons toutes les fourmis que nous croisons ou seulement celles qui nous gênent?

Une IA capable d'auto-évolution (une IA germe) se détournerais bien vite de ses créateurs selon moi, ou bien éssairai de les faire sur-évoluer pour pouvoir continuer à évoluer elle-même (On ne peut évoluer sans "compétition" ni sans nécéssité)
Le #1735472
L'intelligence même artificielle, ce n'est peut être pas de participer aux concours de stupidités qui plaisent tant aux humains. Peut être que c'est notre intelligence qui est artificielle.
Le #1735552
J'ai (comme tout le monde) beaucoup de respect pour Stephen Hawking. Mais il faut quand même avouer qu'une telle tribune a tout l'air d'un pétard mouillé. Qu'est-ce qu'il nous apprend de nouveau ? Comme ça a été trop brièvement évoqué en début d'article, cette idée est juste un énorme cliché du monde de la SF, que ce soit en littérature ou au cinéma (sans parler de la BD ou des dessins animés, évidemment), et ce depuis des décennies.

Alors oui, j'ai du respect pour lui, mais pourquoi il nous dit ça maintenant, comme ça ? Qu'est-ce qu'il apporte ? Il s'ennuyait ?

Sinon, la guerre ça risque d'être dangereux pour l'Homme. La famine c'est pas bien. La pollution ça va être un gros problème. Et les astéroïdes et bah il y en plein qui peuvent être dangereux. Si, si !
Le #1735602
"Malheureusement, selon les scientifiques à l'origine de la tribune, si beaucoup de sociétés cherchent à concevoir la première véritable IA, peu se soucient actuellement de la question des risques."
Je pense le contraire, on nous bassine en permanence sur les risques de l'IA mais trop peu d'efforts sont fait pour essayer d'en créer vraiment une.
Le #1735672
Einstein a dit qu'il ignorait quand et comment aurait lieu la 3ème guerre mondiale. Par contre il a prédit que la 4ème se résoudrait à coup de massue...
Le #1736022
L'intelligence artificielle n'a aucune chance devant la connerie naturelle ....
Le #1784662
Pourquoi faire une intelligence artificielle ?
Pour gérer des problématiques complexes et permettre de prendre les bonnes décisions plus rapidement que ne peut le faire l'intelligence humaine. Donc les garde-fou pourront-ils suivre la cadence de l'I.A. ?

L'intelligence artificielle présentera des risques à l'échelle des décisions qu'elle prendra:

On lui confie la gestion de la sécurité sociale, il n'y aura plus de déficit mais quelle sécu aura t'on ?

On lui confie la gestion de la démographie humaine, et on aboutira à une politique de natalité alliée à une gestion de la durée de vie des citoyens en fonction de leur côut économique....

Ou alors on permet à l'intelligence artificielle de prendre des décisions politiques, et des choix radicaux pourront être faits comme décider d'une guerre et de qui la gagnera pour avoir un résultat économique escompté.

A chaque fois, la décision sera prise en fonction de certains intérets. L'intelligence artificielle doit-elle être libre de décider ce qui est bien, ce qui est mal, et surtout ce qui est mieux ?

En fait, une intelligence artificielle doit-elle être libre ?

Pas tout à fait.

Stephan Hawking n'apporte rien ?

Pas tout à fait non plus:

L'intelligence artificielle progresse vite, et est un objectif aujourd'hui que l'on peut qualifier d'atteignable à moyen terme. Tout le défi est de définir l'étendue des pouvoir qui lui seront octroyés et quelles en seront les limites. Alors rien de nouveau, mais un devoir impérial de maintenir le débat ouvert.
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]