Google livre ainsi son application Look to Speak qui s'adresse en priorité aux personnes souffrant de troubles moteurs et de la parole, ainsi qu'aux patients souffrant de handicaps lourds.

Disponible à partir d'Android 9.0 et Android One, l'application repose sur le capteur photo selfie du smartphone pour repérer les yeux de l'utilisateur. A l'écran, des mots et phrases formatées sont proposées dans deux colonnes et l'utilisateur n'a qu'à balayer son regard à gauche ou à droite pour sélectionner la colonne qui comporte le message qu'il souhaite partager, les sélections étant progressivement divisées à nouveau dans chaque colonne, il faut alors répéter le mouvement du regard jusqu'à ce que l'expression souhaitée se retrouve seule dans la colonne de son choix.

Look to speach

Une fois l'expression choisie, elle est lue par le smartphone à l'aide d'une synthèse vocale. Le système permet ainsi de faciliter la communication des patients avec leur entourage. Différents groupes de mots ou phrases sont proposés et l'on peut personnaliser 8 expressions en accès plus direct.

  

Look to Speak s'inscrit dans le programme "Start with One" de Google qui vise à exploiter le machine learning pour aider certaines catégories d'utilisateurs aux besoins spécifiques.

Les logiciels permettant de s'exprimer avec le regard existent déjà depuis plusieurs années, mais leur fonctionnement reste plus complexe et le matériel nécessaire est également plus cher et moins accessible qu'un simple smartphone.