Le dialogue entre humains et robots devra bien à un moment dépasser le seul cadre de la programmation aride ou du bouton-poussoir pour faire germer les nouvelles possibilités permises par la technologie.

Des chercheurs du MIT ont donc mis au point une interface permettant un contrôle des robots par la détection conjointe des gestes et des ondes cérébrales pour optimiser une tâche.

Issu du CSAIL (Computer Science and Artificial Intelligence Laboratory), ce mode de fonctionnement doit permettre par exemple de corriger instantanément l'erreur d'un robot et de lui indiquer la bonne marche à suivre, sans devoir se plonger dans les arcanes d'un langage de programmation.

Le suivi des ondes cérébrales du superviseur humain permet notamment au robot de déterminer s'il est en train de faire une erreur dans la tâche assignée. La détection de l'activité musculaire permet pour sa part à l'humain d'indiquer la bonne marche à suivre.

  

L'exemple type est ici le déplacement du bras d'un robot amené à percer un trou parmi trois cibles possibles. Le point fort de l'interface du CSAIL / MIT est qu'elle fonctionne avec n'importe quel humain, sans entraînement préalable, permettant un déploiement rapide de la solution.

Dans la plupart des systèmes n'utilisant que les ondes cérébrales, il est nécessaire pour l'humain de se concentrer et de penser d'une certaine façon pour que le système reconnaisse les ondes appropriées, ce qui n'est pas nécessaire ici.

Et si l'on savait déjà déclencher des réactions plus ou moins précises à partir des ondes cérébrales, l'ajout de la détection musculaire permet une plus grande précision et de plus larges possibilités dans le contrôle fin du robot.

L'interface s'attache ici à détecter les ErrPs (error-related potentials), des signaux cérébraux émis naturellement quand les sujets remarquent une erreur. Le système fonctionne donc en mode autonome et s'arrête en cas de détection d'un ErrP, permettant au superviseur humain d'appliquer une correction en montrant le bon geste, avant de continuer.

Pour Joseph DelPetro, auteur principal de l'article décrivant ce nouveau mode d'interaction, cette méthode "aide à communiquer avec un robot un peu plus comme si l'on communiquait avec une autre personne".

Une partie des applications envisagées porte d'ailleurs sur des systèmes d'assistance pour les personnages âgées ou pour des collaborateurs à mobilité réduite au sein des entreprises.

Source : MIT