Avec l'introduction de l'assistant vocal Siri à bord de l'iPhone 4S, Apple a donné un grand coup de projecteur sur ce type d'application qui existait déjà précédemment mais dans des proportions et des scénarios plus restreints.
Ces approches sont encore encore limitées mais elles donnent un aperçu de l'ergonomie et des interactions homme-machine à venir. Et l'avenir s'annonce encore plus symbiotique.
Bright, le super assistant
Son objectif est plus ambitieux puisqu'il vise à aider les décideurs en situation d'afflux massifs d'information ou de situation de stress élevé, mais avec la possibilité de se retrouver dans les ordinateurs et les smartphones pour du divertissement.
Mais pour y parvenir, il faut des informations personnelles, et en grandes quantités. Pas seulement les données de l'utilisateur mais aussi ses actions en temps réel surveillées par des webcams afin de déterminer ce que l'utilisateur est en train de faire ou s'apprête à faire, afin de mettre en place des actions pour épauler la tâche en cours, et ce aidé par de l'intelligence artificielle capable d'apprentissage, dite CALO (cognitive agent that learns and organizes).
Selon ses concepteurs, le projet Bright va plus loin qu'un simple assistant car il ne réagit pas seulement à l'utilisateur mais aussi à un cadre collaboratif impliquant d'autres personnes. Le système peut détecter où se pose le regard de l'utilisateur sur l'écran d'un ordinateur et déterminer ce qu'il cherche à faire, ouvrant les dossiers et applications automatiquement, par exemple.
A noter que l'un des axes de Bright est de parvenir à deviner les intentions de l'utilisateur à partir d'un petit nombre de données, ce qui se révèle redoutablement difficile et implique des généralisations sans donner l'impression à l'utilisateur de se sentir prisonnier du système et...sans risquer d'aggraver une situation délicate par des automatismes inadéquats. Le syndrome HAL 9000 ou SkyNet, au choix.