La promesse d'une conduite autonome plus sûre que l'humain est sérieusement mise à l'épreuve. À Austin, le district scolaire a rapporté une série d'incidents alarmants où les véhicules Waymo n'ont pas respecté l'arrêt obligatoire pour les bus scolaires en train de charger ou décharger des enfants, une infraction grave dans tous les États américains. Cette situation a conduit la National Highway Traffic Safety Administration (NHTSA) à ouvrir une enquête dès décembre. L'accumulation des incidents, même après le déploiement d'un correctif, jette un doute sur la capacité de la technologie à gérer des scénarios complexes et imprévisibles.

Pourquoi le correctif logiciel de Waymo est-il inefficace ?

Après les premiers signalements, Waymo a rapidement réagi en publiant une mise à jour logicielle. Cependant, cette solution s'est avérée insuffisante. Le district scolaire d'Austin a confirmé que plusieurs violations supplémentaires ont eu lieu après le déploiement du patch, dont une filmée le 19 janvier où un véhicule a contourné un bus à l'arrêt alors que des enfants attendaient pour traverser. Au total, le décompte s'élève désormais à 24 infractions présumées, dont sept où des enfants étaient clairement visibles sur les enregistrements.

L'entreprise se défend en soulignant qu'aucun de ces incidents n'a provoqué de collision ou de blessure à Austin. Un argument fragilisé par un autre événement survenu à Santa Monica le 23 janvier, où un de ses véhicules a heurté un enfant près d'une école primaire. Bien que les blessures aient été mineures, l'incident démontre que le risque est bien réel. La situation est d'autant plus préoccupante que Waymo cherche à rendre ses véhicules plus « affirmés » pour paraître moins hésitants, un changement qui pourrait leur faire hériter de certains des comportements les plus dangereux des conducteurs humains.

L'IA des robotaxis peut-elle vraiment gérer l'imprévu ?

La gestion d'un arrêt d'autobus scolaire est l'une des situations les plus complexes sur la route. Elle ne se résume pas à suivre des règles strictes ; elle exige de l'intuition et un jugement basés sur l'expérience pour anticiper le comportement imprévisible des enfants. Selon des experts, c'est précisément ce « bon sens » qui fait défaut aux systèmes actuels. Wendy Ju, professeure à Cornell Tech, explique que les développeurs ne peuvent anticiper toutes les situations du monde réel, ce qui rend la phase de test actuelle particulièrement délicate.

Certains spécialistes, comme Missy Cummings de l'Université George Mason, suggèrent que ces défaillances pourraient être liées à une transition technologique vers des modèles d'apprentissage « de bout en bout ». Ces systèmes, qui prennent des décisions de manière probabiliste en imitant des comportements humains, peuvent sembler plus « naturels » mais aussi introduire des risques additionnels dans des scénarios à enjeux élevés. Ils réagissent sur la base de schémas appris plutôt que de règles de sécurité explicites, ce qui pourrait expliquer les erreurs de jugement face à un bus scolaire.

Quelle est la réponse de Waymo face à la controverse ?

Face à la montée des inquiétudes, le district scolaire d'Austin a officiellement demandé à Waymo de suspendre ses opérations près des écoles aux heures de ramassage. Une requête que l'entreprise a refusée. Mauricio Peña, le responsable de la sécurité de Waymo, a assuré que l'entreprise évaluait chaque incident et travaillait à des solutions, notamment en collectant des données sur place. Cependant, le refus de cesser temporairement ses activités est perçu par beaucoup comme une décision irresponsable.

Cette approche a été vivement critiquée. Philip Koopman, expert en sécurité des véhicules autonomes, a déclaré que « Waymo fait le choix explicite de jouer avec la vie des enfants ». Cette posture intransigeante pourrait nuire durablement à l'image de l'entreprise et inciter d'autres municipalités à la prudence avant d'autoriser le déploiement de ses robotaxis. Les enquêtes fédérales en cours pourraient, à terme, menacer la licence d'exploitation de Waymo, qui semble avoir sous-estimé l'impact de sa gestion de crise.