Newsletter S'inscrire à notre newsletter

Magazine

Voiture autonome: la sécurité des systèmes d'Uber en questions

Image

Crédit photo

Problème d’identification. La voiture autonome d’Uber qui avait percuté mortellement une passante en mars 2018 n’avait pas appris à reconnaître correctement les piétons. C’est l’un des éléments donnée le National Transport Safety Board (NTSB) dans son rapport de 400 pages sur les causes de l’accident, rendu public le 5 novembre dernier. Selon le bureau de sécurité américain, le logiciel d’Uber comportait des «failles de sécurité» et ne pouvait détecter des piétons hors des passages protégés. Juste avant l'accident, la piétonne marchait en poussant un vélo sur un tronçon mal éclairé d'une route à plusieurs voies en Arizona. Le radar de la voiture l’avait bien détectée près de six secondes avant l'accident, mais le système d'auto-conduite n’était pas parvenu à l’identifier correctement (en la qualifiant d’«objet», puis de vélo, puis de voiture). «Le système était incapable de prédire correctement la trajectoire de l'objet détecté», souligne le rapport. Pendant plusieurs seconde, le système de pilotage proposait une nouvelle classification et devait calculer une nouvelle trajectoire pour l'«objet». Le système était conçu pour s’arrêter de réfléchir une seconde avant l’impact en laissant la décision au pilote de sécurité, qui n’a rien fait en l’occurrence puisque la femme chargée de cette tâche avait le nez plongé dans son smartphone. En dernier recours, le système de pilotage automatique a pu freiner, mais de manière partielle. Notons que le système de freinage d'urgence automatique du SUV Volvo utilisé par Uber avait été désactivé pour ne pas perturber le système de conduite autonome. Cette décision a été mise en évidence comme l’une des causes de défaillance possible, mais les experts en sécurité estiment qu'il est probablement logique d'éviter tout conflit entre le système d'auto-conduite et celui du véhicule lui-même.

37 accidents mineurs. Dans les mois qui ont suivi l'accident, Uber a modifié son processus de traitement des ambiguïtés, tout en appliquant un freinage d'urgence maximal en cas de collision. Avec cette nouvelle configuration, le véhicule aurait freiné quatre secondes plus tôt, indique l’entreprise, ce qui aurait évité de tuer la passante. Le NTSB soulève également d’autres dysfonctionnement. Ainsi, Uber n’avait pas suffisamment pris de mesures en matière de sécurité, en ne disposant pas «de plan de sécurité officiel, de procédure opérationnelle normalisée, ni de document d'orientation pour la sécurité». De même, le rapport pointe un total de 37 collisions impliquant des véhicules autonomes Uber entre septembre 2016 et mars 2018, mais sans conséquences fâcheuses. Les conclusions sur les responsabilités de l’accident seront rendues le 19 novembre.

G. H.

Auteur

  • Grégoire Hamon
Div qui contient le message d'alerte
Se connecter

Identifiez-vous

Champ obligatoire Mot de passe obligatoire
Mot de passe oublié

Déjà abonné ? Créez vos identifiants

Vous êtes abonné, mais vous n'avez pas vos identifiants pour le site ? Remplissez les informations et un courriel vous sera envoyé.

Div qui contient le message d'alerte

Envoyer l'article par mail

Mauvais format Mauvais format

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format

Div qui contient le message d'alerte

Contacter la rédaction

Mauvais format Texte obligatoire

Nombre de caractères restant à saisir :

captcha
Recopiez ci-dessous le texte apparaissant dans l'image
Mauvais format