Intelligence Artificielle: objectifs&possibilités

Le par  |  8 commentaire(s)

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

Vidéos High-Tech et Jeu Vidéo
Téléchargements
Vos commentaires
Gagnez chaque mois un abonnement Premium avec GNT : Inscrivez-vous !
Trier par : date / pertinence
Le #169329
Beau travail !! et assez interessant.

Reste a savoir en combien de temps ce dossier va etre pompe par des eleves pour les besoins d un rapport !
Le #169330
plus d'info j'aime bien ici :
http://afia.lri.fr/node.php'lang=fr&node=9
http://www.dmi.usherb.ca/~proj592/2003/apprentissage/AppAuto/Accueil.htm

un apprentissage tres simpa :
http://y.20q.net:8095/btest
Le #169331
Il serait plus correct de parler du test "de" Turing.
Le #169332
dimanche prochain à 22H sur Direct8, l'émission "8-Fi" devrait être consacrée aux robots et objets communicants avec Frédéric Kaplan de Sony Computer Science Laboratory, etc... Pour ceux qui n'ont pas la TNT, il y a le live à cette adresse :
http://www.direct8.fr/live.html
Le #169333
je suis très étonné par cet article. je ne suis pas un pro du domaine de l'IA, mais je suis surpris qu'aucune allusion ne soit faite a des travaux de recherche beaucoup plus expérimentaux et porteux que la reconnaissance vocale qui reste un gadget, au plus une nouvelle interface d'entrée. l'apprentissage, l'entretien, et la reproduction sont des voies en pleine exploration, et qui sont prometteurs à de nombreux points de vue. je n'ai plus les noms des travaux/chercheurs, mais une simple recherche sur google devrait vous éclairer d'avantage.
J'en ai plus qu'assez d'entendre parler de cette "Loi de Moore" qui n'est qu'un argument marketing d'Intel. En effet, cela n'a jamais été une loi, mais bien une volonté d'évolution d'Intel. Ainsi sur les processeurs existant, quasiment aucun ne suit cette évolution, et meme Intel a du mal a s'y soumettre. de plus, le nombre de transistor n'a pas d'influence directe sur la puissance de calcul, elle reste un facteur important, certes mais sans plus.
pour finir, je suis estomacqué par le rappel de ce que certains redoutent : les robots deviendraient l'espèce dominante, et écraseraient l'homme (merci matrix et autres X-Or)
l'IA n'implique en rien une robotisation des agents intelligents, le mouvement n'étant pas une nécessité absolue. Je me pose plus de question sur la réaction de l'Homme devant une "chose" qui pourrait devenir plus intelligente que lui, ou suffisament pour qu'il se sente menacer dans son role d'espèce "dominante".
sinon l'article me semble interessant sur les notions et définitions d'intelligence que chercherait a reproduire un agent intelligent.
dommage que la fin s'apparente plus a une exposition des dernières trouvailles marketing du géant de Redmond.
Le #169336
A voir ce que l'Homme (dit "intelligent") est capable de réaliser, je ne suis pas presser que mon ordinateur le devienne !

Mais d'abord c'est quoi l'intelligence '
Le #169337
Article eminemment intelligible : je me demande si une IA serait à même de rendre la pareille à l'humain, à pareillement bien le discerner. J'en doute, mais surtout je suis enclin à croire en douter toujours

Le #169338
http://www.vieartificielle.com/

Un parmi tant d'autre...
Suivre les commentaires
Poster un commentaire
Anonyme
:) ;) :D ^^ 8) :| :lol: :p :-/ :o :w00t: :roll: :( :cry: :facepalm:
:andy: :annoyed: :bandit: :alien: :ninja: :agent: :doh: :@ :sick: :kiss: :love: :sleep: :whistle: =]