Dans un marché des véhicules électriques devenu beaucoup plus concurrentiel, le constructeur Tesla et son dirigeant Elon Musk placent leurs espoirs dans les promesses de la conduite autonome.

Longtemps promise par le milliardaire, elle prend peu à peu forme avec l'option FSD (Full Self Driving) du système Autopilot déjà proposée à certains propriétaires des véhicules électriques de la marque.

Elon Musk a beau évoquer une capacité de conduite autonome intégrale ou quasi-intégrale qui ne demanderait qu'une attention minimale du conducteur ou une absence totale d'intervention, la réalité est plus prosaïque avec des imperfections et une conduite autonome qui ne fonctionne correctement qu'avec une armée de vérificateurs humains derrière.

telsa-fsd-enfant-dans-la-rue

Faute de nouveaux modèles de véhicules électriques à présenter, Elon Musk mise cette année sur des annonces autour des robotaxis et de la conduite autonome. Elles étaient prévues pour le mois d'août mais ne seront finalement dévoilées qu'en octobre, le temps de finaliser les prototypes d'un premier véhicule sans volant ni pédales.

La conduite autonome, de la hype à la réalité

La conduite autonome est donc un nouvel eldorado pour les constructeurs automobiles mais les lendemains qui chantent sont pour le moment contredits par les limitations techniques et les imprécisions des systèmes d'intelligence artificielle encore incapables de réagir à toute situation imprévue.

Un accident mortel survenu en avril entre un véhicule Tesla et une moto en avril dernier à Seattle pose de nouveau des questions sur la finalisation de cette technologie.

L'examen des circonstances de la collision a mis en lumière le fait que le conducteur du véhicule Tesla était en train de regarder son téléphone (et non la route) au moment de la collision tandis que le système Full Self Driving était activé.

tesla-autopilot-fsd-mode-elon-greentheonly

Si Tesla indique noir sur blanc que son option FSD nécessite toujours une supervision humaine et ne peut en l'état être considéré comme un système de conduite autonome intégrale, la confusion persiste dans l'esprit des conducteurs, tout comme la dénomination "Autopilot" a régulièrement été attaquée pour son caractère trompeur.

C'est le deuxième accident impliquant l'option FSD de Tesla que le régulateur américain, la NHTSA (National Highway Traffic Safety Administration), étudie plus précisément pour déterminer les causes et le danger potentiel de la technologie.

Limitations techniques et imprudences

En ne s'appuyant pas sur les capteurs LiDAR comme peuvent le faire des spécialistes de la condutie autonome comme Waymo ou Cruise, Tesla s'appuie sur l'interprétation des flux des caméras des véhicules par l'intelligence artificielle pour prendre les décisions de conduite.

La NHTSA ne mène pour le moment que des investigations et des collectes d'information, sans préjuger de la dangerosité éventuelle du FSD, mais ses conclusions pourraient orienter vers un durcissement des réglementations qui ne ferait pas les affaires du milliardaire.

Ce dernier a déjà indiqué en début d'année être quasi-certain que Tesla pourra proposer de la conduite autonome avant la fin de l'année mais certains observateurs et experts restent très dubitatifs quant à ce type d'affirmation formulé d'année en année.

Tesla FSD

Comme dans d'autres domaines, Elon Musk veut aller vite pour ne pas se faire doubler par la concurrence mais la crainte reste que cette course ne tourne à la précipitation, sans toutes les garanties de sécurité associées.

Plus qu'une insuffisance de la conduite autonome de Tesla, c'est la fausse sensation de sécurité qui est généralement pointée du doigt, avec des conducteurs ne respectant pas les recommandations de vigilance pour pouvoir reprendre le volant à tout moment en cas de problème.

Si des mesures devaient être prises, il ne s'agirait sans doute pas d'interdire le dispositif FSD mais plutôt de renforcer les mesures pour obliger les conducteurs à respecter le protocole...en attendant une vraie conduite autonome intégrale.

Source : Reuters