Accident mortel: la voiture autonome Uber aurait "décidé" d’ignorer la victime
Faux positif. Uber aurait déterminé pour quelle raison l’une des ses voitures autonomes a percuté mortellement une piétonne sur une route mal éclairée de l’Arizona en mars dernier. Les capteurs, longtemps accusés, ne seraient pas en cause. Les voitures sont en effet dotées de caméras, radars et lidar capables de repérer les obstacles, même de nuit. Selon le média américain The Information, l’ordinateur de bord aurait bien repéré la victime, mais ne l'aurait pas identifiée. Comme d'autres systèmes de véhicules autonomes, le logiciel d’Uber a la capacité d'ignorer les «faux positifs», ces formes ou objets qui peuvent avoir l’apparence d’obstacles, comme un sac plastique flottant sur une route ou un nuage de poussière. Les logiciels sont programmés pour ne pas surréagir à ce type d’événements, mais les réglages sont délicats. S’ils s’avèrent trop restrictifs, les véhicules autonomes risquent de freiner à tout bout de champ.
Formation des opérateurs. Lors des tests des premières navettes autonomes françaises sur voies privées, des petits malins s’amusaient ainsi à stopper les véhicules en jetant des graviers devant les roues, quand ce n’était pas un pigeon qui déclenchait le freinage. Uber a probablement considéré qu’un véhicule qui freine trop souvent peut s’avérer pénible pour ses passagers, voire dangereux. L’expérience vient de prouver l’inverse. Des opérateurs concurrents comme Waymo ou GM ont d'ailleurs fait le choix d’une conduite plus heurtée, mais finalement plus sûre. Il semblerait en outre que la femme qui surveillait le pilotage automatique lors de l’accident fatal a quitté des yeux la route au moment critique. Selon le Financial Times, elle n’aurait reçu qu’une formation de quelques jours. En général, les personnes censées surveiller ces véhicules suivent une formation très disparate selon les opérateurs. La formation théorique et pratique d’Uber est censée durer trois semaines.
G. H.