Définition de la notion d' Intelligence Artificielle ou IA

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

De HAL 9000 aux robots de SONY

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

Les clés de l'Intelligence Artificielle

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

Pour quelle utilité '

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

Possibilités et limites actuelles de l'IA

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

Les objectifs de l'autonomie d'un système d'IA

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..

Premières conclusions

Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.

Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')

La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse,  mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.

Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.


- La puissance de calcul
tout d'abord : nous travaillons actuellement avec des brouettes à traîner et nous sommes en position d'attente devant nos ordinateurs au moins 20% du temps ; certes, les processeurs évoluent et donc les programmes avec mais, à moins d'utiliser de vieux logiciels, on peste contre cette machine qui gratte encore et encore et qui permet d'écrire cet article. Dieu soit loué, dans ce cas-là, cela reste très correct. Cette technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le nombre de transistors dans un microprocesseur double tous les 18 mois) mais quelques interrogations subsistent : les coûts de fabrication des usines de CPU doublent aussi à chaque nouvelle génération (ce qui pose un problème pour une concurrence pure et parfaite et qui va plutôt nous tourner dans les prochaines années vers un oligopole) mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en 1986, les ingénieurs utilisaient une finesse de gravure de 1.5 Micron (micromètre soit 0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron d'épaisseur.
Aujourd'hui, on vient de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les transistors seront tellement petits que se manifestera « l'effet tunnel », c'est-à-dire que l'information sautera de transistors en transistors et se perdra finalement, du fait de la petitesse et du rapprochement de ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les technologies actuelles pour la fabrication de microprocesseurs sont là aussi limitées à court terme mais ne nous inquiétons pas outre mesure, des solutions sont déjà en place (dont le dual-core mais ce n'est pas l'objet de cet article).

Image

- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.


- Enfin, la troisième et dernière limite de nos ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est le système d'exploitation. Noyau central de l'ordinateur, il devra être stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies demain, il faut que cette dernière ne dépende pas d'un constructeur (on pourrait apparenter cela à terme à une forme d'esclavage !). Il faut des noyaux spécialement réécrit pour de l'IA avec par exemple une optimisation de recherche dans une base de données ou des API déjà écrites pour que les programmeurs puissent écrire des programmes faisant appel à cette IA : l'agent intelligent régissant tout cela devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau de l'OS pour comprendre son environnement et le connaître. Il faut d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin 2006 devrait intégrer un peu d'Intelligence Artificielle de manière plus visible que pour Windows 2000 (je parle bien sûr des menus qui s'affichent en fonction des utilisations) et reposerait sur un format de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles, WinFS (Windows Future Storage) ; cependant, cela restera une couche de NTFS et ce système de fichiers devrait aussi être disponible pour Windows XP.


Bref, on le voit bien ici, les technologies actuelles n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la logique mais pour appliquer des formules mathématiques et des automatismes qui ne nécessitent aucune réflexion. Elles sont cependant sur la bonne voie car le système binaire, derrière son étonnante simplicité, cache une déconcertante complexité et un formidable potentiel.

../..