google car 1 Les voitures autonomes sont déjà à l'essai sur les routes et préparent un avenir où la conduite sera confiée à une intelligence artificielle et des algorithmes, aidée de capteurs laser et de systèmes anti-collision qui pourraient rendre la conduite plus sûre dépourvue du jugement pas toujours avisé du pilote humain.

L'émergence des véhicules autonomes pourrait révolutionner le secteur des transports de multiples façons mais que se passe-t-il si les capteurs laser LIDAR qui constituent les "yeux" du véhicule autonome sont trompés ?

C'est la question posée par un expert en sécurité qui a fait la démonstration de la possibilité d'obliger un véhicule autonome à suivre un parcours obligé ou à s'arrêter en utilisant un système de faux signaux faisant croire aux capteurs LIDAR à la présence d'un véhicule, d'un piéton ou d'un mur, le forçant à modifier son comportement.

Jonathan Petit, de la société Security Innovation, affirme ainsi pouvoir contraindre un véhicule autonome vers un parcours par lui défini en utilisant un système de quelques dizaines de dollars capable de tromper les capteurs LIDAR de plusieurs milliers de dollars.

Google-voiture-autonome Le principe est presque le même qu'un pointeur laser et peut être contrôlé depuis une plate-forme basique de type Raspberry Pi ou Arduino. Si d'autres recherches avaient démontré la possibilité de tromper le système GPS intégré ou les capteurs de pression des pneus, il s'agit ici de profiter du fait que, dans le système commercial LIDAR testé, les impulsions laser des capteurs LIDAR se font sur des fréquences libres et sans chiffrement ou encodage, la seule difficulté étant de retourner des signaux au bon moment pour faire croire à la présence d'un objet dans le champ de vision du véhicule et l'obliger à s'en détourner.

Jonathan Petit affirme ainsi être en mesure de simuler un obstacle à une portée de 20 à 350 mètres du capteur Lidar et de reproduire ce faux signal régulièrement pour orienter la prise de décision du véhicule autonome. Voire même de réaliser l'équivalent d'une attaque DDoS en multipliant les signaux de manière à ce que le capteur ne puisse plus distinguer les vrais et faux obstacles.

Le chercheur en sécurité suggère que le constructeurs pourraient trouver une parade en combinant les signaux de plusieurs sources d'information pour détecter les signaux fantômes mais cela nécessitera un travail de sécurisation en amont, lors de la conception de la plate-forme de conduite autonome.

Source : IEEE Spectrum