La voiture autonome d'Uber avait vu la piétonne mais pas le danger

Florian Innocente |

La responsabilité d'un accident mortel survenu en mars dernier, entre un prototype de véhicule autonome Uber et une piétonne, relève très probablement d'un défaut dans le logiciel qui détermine si le véhicule doit réagir après qu'un objet a été détecté.

Deux sources chez Uber ont expliqué à The Information que les capteurs de la Volvo d'Uber avaient bien repéré quelque chose devant la voiture. Cependant le logiciel a classé cet événement comme un faux positif. C'est à dire qu'il a bien vu un objet sur la trajectoire mais qu'il a considéré qu'il ne présentait pas de danger. Comme peut l'être par exemple un sac en plastique qui traverse la route.

La voiture a donc fauché à 61 km/h Elaine Herzberg, qui traversait cette artère de circulation en tenant son vélo à côté d'elle. La scène s'est déroulée le 18 mars à 22h, à Tampa en Arizona.

La voiture n'a fait montre d'aucune hésitation et quelques instants avant l'accident, l'unique personne présente dans l'habitacle, était concentrée sur quelque chose qui attirait son regard en dessous du volant et non sur la route. La conductrice n'a réagi qu'à l'instant précédent le choc.

D'autres informations, détaillées le même mois par le New York Times montraient que le niveau de sécurité des tests de voitures d'Uber était largement insuffisant.

Uber n'a pas commenté les éléments recueillis par The Information mais l'entreprise a annoncé qu'elle avait recruté l'ancien responsable du Conseil national de la sécurité des transports aux États-Unis de 2014 à 2017. Parallèlement, Uber a entrepris de remettre à plat tout son programme de conduite autonome, depuis ses systèmes embarqués jusqu'à la formation des conducteurs.

avatar Devs | 

Probablement une personne comme d hab qui regardait son Smartphone, je leur collerai 1500€ d amende , y a que ça qui les calmeraient ces cons inconscients .

avatar Bruno de Malaisie | 

@Devs

Tout à fait d’accord avec toi.
Les gens ont tendance à oublier qu’ils se déplacent car les voitures sont de lieux insonorisées et donnent l’impression de tout pouvoir contrôler.
A 60 dans une 4L, on savait qu’on se déplaçait.
Maintenant dans une voiture moderne, on a même sensation quand on roule à 130 sur autoroute.
Le bug est entre le tableau de bord et le siège.

avatar Devs | 

@Bruno de Malaisie

J étais Directeur de deux autos motos école et j enseignais principalement la conduite des motos, mes moniteurs enseignants la voiture et à moto c est hyper dangereux tous ces cons avec leurs téléphones, on peut soit installer un kit mains libres , soit s arrêter , soit rappeller plus tard

avatar Bruno de Malaisie | 

@Devs

Viens en Malaisie, c’est bien pire. Celui sans smartphone dans les mains en conduisant est une exception...
J’étais en moto mais je suis passé sur 4 roues à cause de cela.

avatar Devs | 

@Bruno de Malaisie

Oui et c est bien dommage.
La faute en incombe en partie aux pouvoirs publics qui ne contrôlent jamais le sérieux des autos école, préférant faire des contrôles fiscaux et tous les margoulins autos école, car avant de verbaliser il faut former les conducteurs correctement, faire du recyclage et des visites médicales régulières.

avatar C1rc3@0rc | 

@Devs

La legislation americaine rend illegal le port d'un casque (audio) ainsi que l'usage d'un smartphone lorsque le vehicule n'est pas stationné, cela quel que ce soit le type de vehicule (velo y compris... et c'est salé de porter un casque a velo...).
Si l'enquete confirme que le conducteur utilisait son smartphone dans le cas présent on peut s'attendre a une condamnation exemplaire. L'autre hypothese est qu'il etait en train de lire les informations de fonctionnement du vehicule, et la se pose la question du systeme d'information du vehicule qui empecherait de conserver le regard sur la route...

La question du réglage de la "tolérance" du logiciel est une aberration si elle est avérée. La présence d'un objet sur la route doit effectivement entraîner l'alerte du conducteur et l’arrêt du véhicule, pas de passer dessus... Cela est d'autant plus grave qu'il s'agit de vehicules de test...

Tout cela démontrerait l’entière responsabilité humaine dans cette tragédie.

Dans l'article original on apprend aussi que Uber aurait passé un accord avec la famille de la victime.

On ne peut qu'attendre maintenant les résultats officiels de l’enquête en espérant un très lourde condamnation pour Uber et le conducteur si tout cela est avéré.

Il faut aussi que la législation évolue vers la responsabilisation de l'editeur et de l'utilisateur du logiciel en general.
L'erreur de programmation mais aussi l'usage inapproprié du logiciel doivent engager la responsabilité de l'editeur et de l'utilisateur, surtout que l'on voit qu'avec le deep learning et autres trucs du genre on va vers des implications de plus en plus importantes en terme de consequences.

avatar ovea | 

@C1rc3@0rc

«la "tolérance" du logiciel est une aberration si elle est avérée»

Elle est avéré !
Aucun questionnement sur une approche de
— l'algorithme humaniste —
Là est l'aberration

«Uber aurait passé un accord avec la famille de la victime»

C'est la Théorie de l'indemnisation des victimes ayant la capacité à réguler le risque … en insistant pour le maintenir.

Bien venu au pays des agnostiques

avatar ecosmeri | 

@Devs

Je suis motard et pour moi c'est l'infraction la plus grave. Le mec qui fait un exces de 100km/h est pour moi moins dangeureux que celui qui a son telephone dans la main.

avatar r e m y | 

@ecosmeri

L'un n'empêche pas l'autre... genre le motard qui filme son compteur pour montrer qu'il tape les 200 et poster sur sa page Facebook!

avatar Devs | 

@ecosmeri

Je suis entièrement d accord et au lieu de mettre des radars rapporte pognons , il faudrait faire de l information et de la prévention, Mais ça rapporte rien à l état .

avatar Grug | 

Mais quel peut bien être l'intérêt d'un véhicule autonome… ?
On ne parle pas là de conducteur, mais de personne présente dans l'habitacle.

avatar r e m y | 

@Grug

L'intérêt pour Uber semble évident!
Pouvoir enfin se passer de ces humains qui ne se satisfont pas de leur statut d'auto entrepreneurs, finissent par revendiquer des droits en tant que salariés ... et vont finir par se syndiquer! ?

Sans compter qu'avec des véhicules autonomes, plus besoin de se soucier du nombre d'heures de conduite accumulées par le conducteur... le véhicule peut prendre des passagers 24h/24 7j/7!

avatar Grug | 

:D
C'était surtout une réponse aux commentaire du dessus qui semblaient incriminer le fait que la personne dans le véhicule autonome regardait son smartphone. :D

avatar getnuts | 

A partir de quelle probabilité le véhicule autonome doit continuer/ralentir/freiner ? Si on avait dit à l'IA que l'humain était par nature improbable, le véhicule aurait refusé de rouler à cette allure, calculant que le risque d'un accident ne pouvait en aucun cas être de 0.

La solution serait de n'autoriser la conduite autonome que sur des axes dédiés, genre autoroute, même si ça n'empêche pas les accidents, ça leur en retire au moins la responsabilité.

avatar Matlouf | 

Bonne remarque. Cela illustre toute la complexité de la conduite autonome. Aujourd'hui, les systèmes autonomes, ou semi autonomes, de transport de passagers fonctionnent dans des environnements fermés, dans lesquels toutes les éventualités ont été identifiées. Et ces systèmes sont validés et re-validés et re-re-validés en tenant compte des hypothèses sur ces éventualités.

L'objectif, c'est de garantir à l'opérateur (l'exploitant d'une ligne de métro par exemple) que sa responsabilité ne sera pas engagée en cas d'accident. Ces systèmes ne sont pas conçus à base d'intelligence artificielle, car les IA ne peuvent être validées. Il n'est donc pas possible de garantir l'absence de responsabilité de l'opérateur avec une IA (enfin, dans l'état actuel de la science informatique).

Le pari de la voiture autonome, c'est de s'affranchir d'un environnement fermé en utilisant l'IA pour gérer toutes les situations, même improbables. Mais alors, quid de la responsabilité ?

Limiter l'emploi de la conduite autonome aux axes autoroutiers, c'est limiter les contraintes d'environnement, c'est-à-dire accepter que l'IA n'est pas capable de gérer toutes les situations. Soit. Mais c'est aussi se priver de ce qui est pour moi l'intérêt premier de la voiture autonome : en environnement urbain, disposer de taxis robots, ou de véhicules autonomes partagés. Cela veut dire ne pas avoir à gérer le stationnement, ni l'entretien. Disposer du véhicule dont on a besoin, quand on en a besoin, et n'en payer que l'utilisation effective. Envoyer une voiture aller chercher les enfants après l'école. Mais sur autoroute, la conduite autonome, pour quoi faire ?

avatar getnuts | 

En environnement urbain, l'être humain sera toujours une variable imprévisible, nous même prenons ce risque à chaque fois qu'on démarre la voiture, avec la responsabilité que ça incombe.

Mais dans le cas de la voiture autonome, c'est la responsabilité du fabricant qui est mis en cause et son seul ressort est de réduire la vitesse au plus proche du 0 pour limiter le risque en présence d'êtres vivants, sachant qu'aucun algorithme ne pourra jamais garantir le risque 0 à vitesse "normale humaine" dans un milieu ouvert.

En l'absence de loi et de jurisprudence on joue les apprentis sorciers, mais la peur légitime des fabricants limitera grandement l'idée qu'on se fait aujourd'hui de la conduite autonome, j'en suis convaincu.

avatar C1rc3@0rc | 

@getnuts

Le comportement humain est majoritairement previsible, les gens font principalement la répétition de la meme chose (pareil en terme cognitif) et restreignent a un sous-ensemble tres limité de possibilités .
Par contre ce comportement est souvent absurde, et c'est la que ça pose probleme parce que l'absurdité est illogique par définition.

Quelques exemples:
- le piéton traverse au feu rouge au milieu des bagnoles pour ne pas attendre 5 minutes que le traffic soit arrêté: il a des probabilités de gagner 5 minutes mais surtout de mourir... c'est absurde
- le chauffard va rouler a 150km/h sur un trajet de 130 bornes, ce qui va lui permettre d'arriver... 8 minutes plus tot que s'il respecte la vitesse!
- le cyclisme va rouler les mains dans les poches et un casque BT sur les oreilles...
- un troupeau de vache traverse la route, c'est peu probable en plein milieu de Paris, mais en intercité les probabilités augmentent... La verification qu'un troupeau de vache traverse la chaussée doit elle etre desactivé en entrant dans Paris? Pourquoi, pour quel benefice?

Bref, comment mettre en relation un comportement absurde face a une situation cohérente...
En fait on a des probabilités, mais comme ce sont des humains qui programment les "IA" ils vont avoir tendance a minorer l'absurdité et établir des relations logiques...

Ce que l'on demande a l'ordinateur n'est pas d'etre aussi efficace que l'humain, on lui demande d'etre plus efficace, voire infaillible. On veut bien etre remplacé par un robot a condition de le robot fasse mieux que tout ce qui nous est humainement possible de faire. Un abruti qui a l'habitude de prendre le volant apres 2 whisky sera le premier a clamer son inquietude face a un pilote automatique qui reduirait de 98% les risques d'accidents, avec l'argument que les 2%, l'ethylique derriere son volant, il en est certain, il pourra eviter tous ceux de son fait car le probleme dans les accidents ce sont bien sur les autres...

avatar getnuts | 

@C1rc3@0rc

Exactement.

Il est impossible de mettre la variable humaine dans un algorythme et de prendre le résultat comme fiable alors que c'est ce qu'on demande à ces fabricants. Le risque 0 n'existera jamais, donnons ça à manger a nos algos d'analyse et on va voir si ils vont continuer à faire rouler la voiture :)

La vérité c'est que jusqu'à présent on leur ment, en leur faisant croire que non non c'est pas un humain t'inquiète c'est un robot au comportement très prévisible très lisse :)

avatar r e m y | 

Comme beaucoup de commentateurs l'avaient relevé, la faute de l'accident est donc bien celle de la piétonne qui aurait dû faire comprendre à la voiture qu'elle n'était pas un simple sac en plastique!

C'est vrai quoi... un truc d'1m80 de haut, 1m50 de large et qui traverse la voie, c'est pas évident de comprendre que c'est autre chose qu'un emballage de burger!?‍♂️

avatar mat 1696 | 

@r e m y

1m50 de large ??? Elle doit avoir du bide...

avatar Bruno de Malaisie | 

@mat 1696

On parle d’un humain décédé. Un peu de respect...
Elle poussait son vélo. D’où le 1,50m...

avatar r e m y | 

@mat 1696

Tu oublies le vélo! Et malheureusement pour elle et sa famille, il faut parler de cette jeune femme au passé ☹️

avatar mat 1696 | 

@r e m y

Ah oui, autant pour moi.

avatar Avenger | 

L'inconvénient de cette dramatique expérience de voiture autonome, c'est qu'on se concentre sur un seul fait pour tout remettre en cause. Mais pour être réellement objectif, il faudrait tenir en compte tous les accidents que ces véhicules particuliers ont pu éviter, évitant certainement des blessés et/ou des tués. Combien de véhicules autonomes ont circulé? Quel est le kilométrage total réalisé? Quel est le nombre total de personnes et véhicules qui ont croisé leurs routes? Le nombre total d'accidents et de victimes, etc. Prenons en compte les mêmes critères concernant les véhicules conduits par des humains et analysons, comparons tout cela de façon scientifique. Je serais alors curieux de voir quel est le moins dangereux... l'humain ou l'AI?
Peu importe la puissance d'analyse d'un véhicule autonome, penser qu'un jour ce système ne sera jamais confronté à un bug, une mauvaise analyse, une situation improbable qui n'a pas été prise en compte, et donc incapable d'éviter un accident avec ou sans victime(s), c'est se mettre le doigt dans l'oeil. Il suffit déjà de voir les déboires Tesla, avec ses robots, qui sont programmés pour réaliser des tâches bien moins complexes que le fait de devoir conduire un véhicule en plein trafic.

avatar rocroc7 | 

@Avenger

Je sui OK avec toi. Et pour aller dans ce sens , il faudrait comparer l’accident (toujours regrettable) de la voiture Uber automatisée avec le même cas s’il n’y avait eu qu’un humain au volant. L’humain aurait-il vu et eu le temps de réagir face à un piéton traversant de nuit hors des clous ?

avatar xDave | 

@rocroc7

La question n'est pas un humain aurait il évité l'accident mais plutôt un humain AURAIT-IL TENTÉ d'éviter l'accident.

Ça c'est la nuance essentielle !

si un humain conduit, à priori, il regarde la route contrairement aux assistés "autonomes" qui vont de plus en plus se laisser aller à des errements voire s'endormir au volant.

Donc
Soit il ralentit ;c'est quoi ce truc au loin?
Soit il tente un évitement/ freine
Soit il fait des appels de phares

Mais je doute qu'un humain se dise c'est un faux positif alors je fonce.

Un humain ferait un écart même pour un caillou ou un sac en plastique parce que son intelligence non artificielle va se dire mais si ce sac/lapin/etc se bloque dans mes roues/calandre/se colle sur mon pare-brise etc...

avatar Avenger | 

@ xDave

Faudrait-il encore que l'humain ne soit pas sous influence de l'alcool ou de médicaments, ne soit pas trop fatigué, ne soit pas occupé à donner un appel téléphonique ou écrire un sms, etc. Ou, tout simplement, rien ne peut garantir qu'un humain n'aurait pas regardé ailleurs au mauvais moment. Je doute qu'il existe un seul conducteur pour dire qu'il n'a jamais été distrait lors d'un trajet, qu'il n'a jamais été surpris par le comportement d'un piéton et/ou d'un autre véhicule, qu'il n'a jamais sous-estimé une situation.

Et faut aussi vraiment être stupide d'attendre qu'un humain, occupé à se laisser conduire par sa voiture autonome soit aussi vigilant que s'il conduisait.

Personnellement, si j'étais obligé d'avoir les mains sur le volant et de rester hyper vigilant, dans une voiture autonome (totale ou partielle), je préfèrerais encore de loin conduire même-même. Si je demande à quelqu'un de me lire un livre, ce n'est pas pour suivre la lecture du regard et tourner les pages.

avatar xDave | 

@Avenger

Oui évidemment le gars bourré etc.

Mais comme tu le dis à se laisser conduire on risque surtout de s'assoupir, être moins concentré.

En mode passager quoi

avatar C1rc3@0rc | 

«La question n'est pas un humain aurait il évité l'accident mais plutôt un humain AURAIT-IL TENTÉ d'éviter l'accident. »

Non en fait la question c'est: si le paramètre de tolérance de faux positif avait été mis au minimum, est ce que le véhicule aurait évité l'accident?

avatar anonx | 

Tu regardes à gauche puis à droite puis si pas de voitures ou voitures stoppées tu traverses... sur un passage piéton... bref la base de la vie dehors ?

Traverse n'importe où n'importe quand et n'importe comment tu limites tes chances pour rester en vie.

N'importe qui l'aurait écrasé...

avatar iVador | 

Les voitures autonomes vont permettre d’éviter les accidents liés à l’alcoolémie, aux stupefiants et à la fatigue. Même si le 0 mort est impossible à atteindre et que cette dame en a malheureusement fait les frais (mes pensées pour sa famille) , le nombre de victimes sera forcément réduit de manière drastique au bout du compte
Un seul accident ne doit pas tout remettre en cause

avatar John McClane | 

@iVador

Tout à fait d’accord.
Bien que dramatiques et insupportables, les morts dues à l’intelligence artificielle seront de toute façon moins nombreuses que celles actuellement dues aux humains (excès de vitesse, alcoolémie, cannabis, fatigue, inattention, mauvais réflexes, âge trop avancé, etc.).

avatar Matlouf | 

Certes. Mais ce n'est pas une raison non plus pour faire n'importe quoi, comme le fait Uber. Et franchement cela me ferait mal que cette racaille s'approprie une part conséquente du gâteau.

avatar Espcustom | 

En même temps on ne voit pas gd chose jusqu’à l’impact. C’est ps éclairé, donc ps de passage piéton?!
La femme sort de nul part avec son vélo. Pas sûr que qq1 au volant aurait vraiment pu l’éviter. Après la vidéo assombri peut être un peu plus.

Et j’ai pas l’impression que la piétonne ai vraiment regardé avant de traverser. Ne pas voir un XC60 avec ses phares arriver ça ne me parait pas normal.

avatar byte_order | 

le boulevard est en coubre et passe d'abord sous un pont, la visibilité n'est pas bien grande en pratique à cette endroit, cf StreetView

Reste le classement en faux positif sans autre forme d'action préventive.
Un humain ne l'aurait surement pas évité en effet, mais la nuance c'est que les chances qu'il aurait tenté de le faire (réduisant donc la vitesse de l'impact à minimum, premier facteur de mortalité routière) sont plus grande qu'ici.
Le logiciel d'Uber, lui, n'a eu aucune forme de doute à aucun instant.
Cela va surement servir de leçon, mais le plus gros prix à payer pour l'apprendre ne le sera pas par Uber.

avatar Paul_M | 

@Espcustom

En fait il y a une confusion entre le contexte de la conduite autonome comme produit, et comme expérimentation.
Si on arrive à un niveau satisfaisant de succès, que la technologie se généralise et est commercialisée, on pourra commencer à se pencher sérieusement sur la responsabilité des usagers de la route comme on le fait actuellement avec les voitures "normales" (le piéton était-il évitable ? est-ce que c'est de sa faute ? etc).
Sauf qu'on en est pas là. On en est au stade où des entreprises testent leurs voitures et collectent des données sur la route pour leurs systèmes qui ne sont pas finis. Il est inacceptable que des gens (même une seule personne !!) meurent dans des tests auquels ils n'ont pas accepté de participer. Non seulement le système d'Uber est défaillant puisqu'il confond des gens avec des sacs plastiques mais surtout le garde-fou qui sert à éviter les morts, à savoir ici la conductrice, est complètement inefficace puisqu'elle regarde ailleurs.
Pour moi il devrait y avoir 1) un audit des technologies d'Uber pour vérifier qu'ils mettent bien en place un système d'alerte puissant du conducteur dans leurs voitures de test si il est inattentif ne serait-ce qu'une seule seconde 2) un audit de leur système de recrutement des conducteurs de test pour vérifier qu'on embauche pas le chauffard du coin. S'il s'avère qu'ils font tout dans les règles, cette conductrice doit être condamnée, c'est malheureux mais son incapacité à faire son travail correctement à coûté la vie de quelqu'un, si ce n'est pas le cas, une révocation de leur autorisation à mettre sur les routes leurs voitures. Ça me parait être le minimum.

avatar Katsini | 

Accident terrible et navrant pour cette pauvre femme.
Cependant, ce fait divers ne doit pas remettre en cause l’interêt des véhicules autonomes qui restent encore perfectibles, mais qui seront présents dans notre utilisation quotidienne.
Par ailleurs, bien regarder avant de traverser une route, la nuit, dans un environnement obscure, doit aussi être une nécessité...

avatar PHX23 | 

Petite précision journalistique, le lieu de l’accident est Tempe en Arizona.

avatar Hoppy | 

Cet incident est bien regrettable il est vrai.
Cependant on peut constater que les capteurs de la Volvo avaient repérés quelque chose, la faute est donc du logiciel qui l’a classé comme sans importance. Pour ce qui est de la personne qui était dans la voiture, c’est clair qu’elle a aussi sa part de responsabilité.

avatar r e m y | 

@Hoppy

...incident regrettable...
On parle de la mort d'une jeune femme!! ?

avatar Cockring | 

@Hoppy

comme la personne décède qui n a pas regardé en traversant !

avatar 0MiguelAnge0 | 

Et dire que les gros boulets d’Uber font de la promo pour leur taxi volant: le prochain faux positive sera un immeuble....

avatar Espcustom | 

Ok. Mais toute cette technologie et toute cette philosophie n’empêchent pas et ne doivent pas se soustraire à être vigilants avant tout en tant que piéton !!

avatar pfurno | 

On dirait un titre du Gorafi ...

avatar Issou la chancla | 

Uber et ses voitures autonomes c'est à peu près aussi légitime qu'H&M qui se lance dans l'aéronautique.

avatar Avenger | 

Amusant, certains crachent leur venin sur Uber et sa technologie. Ils oublient l'accident encore plus stupide mais tout aussi mortel, arrivé avec une Tesla.
https://www.huffingtonpost.fr/2018/04/03/crash-mortel-dune-tesla-en-autopilot-ce-quil-sest-probablement-passe-lors-de-laccident_a_23401452/
Le jour où les algorithmes seront au point, je pense qu'on ne pourra pas éviter une défaillance quelconque d'un capteur/caméra avec, à la clé, un risque d'accident plus ou moins sérieux. Quand je vois déjà le nombre élevé de voitures modernes, qui crament, suite à un court -circuit car une fouine ou autre rongeur est venu grignoter des câbles électriques. Je n'ose donc imaginer les conséquences qu'un fil partiellement endommagé pourrait causer.
Mais rien à faire, il me semble malgré tout évident que ces technologies permettront de diminuer drastiquement les accidents et donc le nombre de blessés ou morts.

avatar r e m y | 

@Avenger

Pour info, même si ça ne change pas grand chose, le "conducteur" de cette Tesla était un ingénieur d'Apple.
http://www.scmp.com/news/world/united-states-canada/article/2139785/tesla-says-model-x-suv-crash-killed-apple-engineer

avatar Avenger | 

@ Remy,

Hmmm, serait-ce alors une Tesla à la sauce Apple? Cela expliquerait alors bien la défaillance!
Comme je suis médisant, oui, oui, je sais, je sais :)

avatar gela | 

@Avenger

Je me disais à peu près la même chose. Si Apple s'y met, à chaque mise à jour la voiture sera de plus en plus lente à réagir. Tel mon Mini 4, ?.
Ce ne sera pas 1 mort mais deux ou trois avant qu'elle ne s'arrête, ??

Pages

CONNEXION UTILISATEUR