La voiture autonome d'Uber avait vu la piétonne mais pas le danger

Florian Innocente |

La responsabilité d'un accident mortel survenu en mars dernier, entre un prototype de véhicule autonome Uber et une piétonne, relève très probablement d'un défaut dans le logiciel qui détermine si le véhicule doit réagir après qu'un objet a été détecté.

Deux sources chez Uber ont expliqué à The Information que les capteurs de la Volvo d'Uber avaient bien repéré quelque chose devant la voiture. Cependant le logiciel a classé cet événement comme un faux positif. C'est à dire qu'il a bien vu un objet sur la trajectoire mais qu'il a considéré qu'il ne présentait pas de danger. Comme peut l'être par exemple un sac en plastique qui traverse la route.

La voiture a donc fauché à 61 km/h Elaine Herzberg, qui traversait cette artère de circulation en tenant son vélo à côté d'elle. La scène s'est déroulée le 18 mars à 22h, à Tampa en Arizona.

La voiture n'a fait montre d'aucune hésitation et quelques instants avant l'accident, l'unique personne présente dans l'habitacle, était concentrée sur quelque chose qui attirait son regard en dessous du volant et non sur la route. La conductrice n'a réagi qu'à l'instant précédent le choc.

D'autres informations, détaillées le même mois par le New York Times montraient que le niveau de sécurité des tests de voitures d'Uber était largement insuffisant.

Uber n'a pas commenté les éléments recueillis par The Information mais l'entreprise a annoncé qu'elle avait recruté l'ancien responsable du Conseil national de la sécurité des transports aux États-Unis de 2014 à 2017. Parallèlement, Uber a entrepris de remettre à plat tout son programme de conduite autonome, depuis ses systèmes embarqués jusqu'à la formation des conducteurs.

avatar Devs | 

Probablement une personne comme d hab qui regardait son Smartphone, je leur collerai 1500€ d amende , y a que ça qui les calmeraient ces cons inconscients .

avatar Bruno de Malaisie | 

@Devs

Tout à fait d’accord avec toi.
Les gens ont tendance à oublier qu’ils se déplacent car les voitures sont de lieux insonorisées et donnent l’impression de tout pouvoir contrôler.
A 60 dans une 4L, on savait qu’on se déplaçait.
Maintenant dans une voiture moderne, on a même sensation quand on roule à 130 sur autoroute.
Le bug est entre le tableau de bord et le siège.

avatar Devs | 

@Bruno de Malaisie

J étais Directeur de deux autos motos école et j enseignais principalement la conduite des motos, mes moniteurs enseignants la voiture et à moto c est hyper dangereux tous ces cons avec leurs téléphones, on peut soit installer un kit mains libres , soit s arrêter , soit rappeller plus tard

avatar Bruno de Malaisie | 

@Devs

Viens en Malaisie, c’est bien pire. Celui sans smartphone dans les mains en conduisant est une exception...
J’étais en moto mais je suis passé sur 4 roues à cause de cela.

avatar Devs | 

@Bruno de Malaisie

Oui et c est bien dommage.
La faute en incombe en partie aux pouvoirs publics qui ne contrôlent jamais le sérieux des autos école, préférant faire des contrôles fiscaux et tous les margoulins autos école, car avant de verbaliser il faut former les conducteurs correctement, faire du recyclage et des visites médicales régulières.

avatar C1rc3@0rc | 

@Devs

La legislation americaine rend illegal le port d'un casque (audio) ainsi que l'usage d'un smartphone lorsque le vehicule n'est pas stationné, cela quel que ce soit le type de vehicule (velo y compris... et c'est salé de porter un casque a velo...).
Si l'enquete confirme que le conducteur utilisait son smartphone dans le cas présent on peut s'attendre a une condamnation exemplaire. L'autre hypothese est qu'il etait en train de lire les informations de fonctionnement du vehicule, et la se pose la question du systeme d'information du vehicule qui empecherait de conserver le regard sur la route...

La question du réglage de la "tolérance" du logiciel est une aberration si elle est avérée. La présence d'un objet sur la route doit effectivement entraîner l'alerte du conducteur et l’arrêt du véhicule, pas de passer dessus... Cela est d'autant plus grave qu'il s'agit de vehicules de test...

Tout cela démontrerait l’entière responsabilité humaine dans cette tragédie.

Dans l'article original on apprend aussi que Uber aurait passé un accord avec la famille de la victime.

On ne peut qu'attendre maintenant les résultats officiels de l’enquête en espérant un très lourde condamnation pour Uber et le conducteur si tout cela est avéré.

Il faut aussi que la législation évolue vers la responsabilisation de l'editeur et de l'utilisateur du logiciel en general.
L'erreur de programmation mais aussi l'usage inapproprié du logiciel doivent engager la responsabilité de l'editeur et de l'utilisateur, surtout que l'on voit qu'avec le deep learning et autres trucs du genre on va vers des implications de plus en plus importantes en terme de consequences.

avatar ovea | 

@C1rc3@0rc

«la "tolérance" du logiciel est une aberration si elle est avérée»

Elle est avéré !
Aucun questionnement sur une approche de
— l'algorithme humaniste —
Là est l'aberration

«Uber aurait passé un accord avec la famille de la victime»

C'est la Théorie de l'indemnisation des victimes ayant la capacité à réguler le risque … en insistant pour le maintenir.

Bien venu au pays des agnostiques

avatar ecosmeri | 

@Devs

Je suis motard et pour moi c'est l'infraction la plus grave. Le mec qui fait un exces de 100km/h est pour moi moins dangeureux que celui qui a son telephone dans la main.

avatar r e m y | 

@ecosmeri

L'un n'empêche pas l'autre... genre le motard qui filme son compteur pour montrer qu'il tape les 200 et poster sur sa page Facebook!

avatar Devs | 

@ecosmeri

Je suis entièrement d accord et au lieu de mettre des radars rapporte pognons , il faudrait faire de l information et de la prévention, Mais ça rapporte rien à l état .

avatar Grug | 

Mais quel peut bien être l'intérêt d'un véhicule autonome… ?
On ne parle pas là de conducteur, mais de personne présente dans l'habitacle.

avatar r e m y | 

@Grug

L'intérêt pour Uber semble évident!
Pouvoir enfin se passer de ces humains qui ne se satisfont pas de leur statut d'auto entrepreneurs, finissent par revendiquer des droits en tant que salariés ... et vont finir par se syndiquer! ?

Sans compter qu'avec des véhicules autonomes, plus besoin de se soucier du nombre d'heures de conduite accumulées par le conducteur... le véhicule peut prendre des passagers 24h/24 7j/7!

avatar Grug | 

:D
C'était surtout une réponse aux commentaire du dessus qui semblaient incriminer le fait que la personne dans le véhicule autonome regardait son smartphone. :D

avatar getnuts | 

A partir de quelle probabilité le véhicule autonome doit continuer/ralentir/freiner ? Si on avait dit à l'IA que l'humain était par nature improbable, le véhicule aurait refusé de rouler à cette allure, calculant que le risque d'un accident ne pouvait en aucun cas être de 0.

La solution serait de n'autoriser la conduite autonome que sur des axes dédiés, genre autoroute, même si ça n'empêche pas les accidents, ça leur en retire au moins la responsabilité.

avatar Matlouf | 

Bonne remarque. Cela illustre toute la complexité de la conduite autonome. Aujourd'hui, les systèmes autonomes, ou semi autonomes, de transport de passagers fonctionnent dans des environnements fermés, dans lesquels toutes les éventualités ont été identifiées. Et ces systèmes sont validés et re-validés et re-re-validés en tenant compte des hypothèses sur ces éventualités.

L'objectif, c'est de garantir à l'opérateur (l'exploitant d'une ligne de métro par exemple) que sa responsabilité ne sera pas engagée en cas d'accident. Ces systèmes ne sont pas conçus à base d'intelligence artificielle, car les IA ne peuvent être validées. Il n'est donc pas possible de garantir l'absence de responsabilité de l'opérateur avec une IA (enfin, dans l'état actuel de la science informatique).

Le pari de la voiture autonome, c'est de s'affranchir d'un environnement fermé en utilisant l'IA pour gérer toutes les situations, même improbables. Mais alors, quid de la responsabilité ?

Limiter l'emploi de la conduite autonome aux axes autoroutiers, c'est limiter les contraintes d'environnement, c'est-à-dire accepter que l'IA n'est pas capable de gérer toutes les situations. Soit. Mais c'est aussi se priver de ce qui est pour moi l'intérêt premier de la voiture autonome : en environnement urbain, disposer de taxis robots, ou de véhicules autonomes partagés. Cela veut dire ne pas avoir à gérer le stationnement, ni l'entretien. Disposer du véhicule dont on a besoin, quand on en a besoin, et n'en payer que l'utilisation effective. Envoyer une voiture aller chercher les enfants après l'école. Mais sur autoroute, la conduite autonome, pour quoi faire ?

avatar getnuts | 

En environnement urbain, l'être humain sera toujours une variable imprévisible, nous même prenons ce risque à chaque fois qu'on démarre la voiture, avec la responsabilité que ça incombe.

Mais dans le cas de la voiture autonome, c'est la responsabilité du fabricant qui est mis en cause et son seul ressort est de réduire la vitesse au plus proche du 0 pour limiter le risque en présence d'êtres vivants, sachant qu'aucun algorithme ne pourra jamais garantir le risque 0 à vitesse "normale humaine" dans un milieu ouvert.

En l'absence de loi et de jurisprudence on joue les apprentis sorciers, mais la peur légitime des fabricants limitera grandement l'idée qu'on se fait aujourd'hui de la conduite autonome, j'en suis convaincu.

avatar C1rc3@0rc | 

@getnuts

Le comportement humain est majoritairement previsible, les gens font principalement la répétition de la meme chose (pareil en terme cognitif) et restreignent a un sous-ensemble tres limité de possibilités .
Par contre ce comportement est souvent absurde, et c'est la que ça pose probleme parce que l'absurdité est illogique par définition.

Quelques exemples:
- le piéton traverse au feu rouge au milieu des bagnoles pour ne pas attendre 5 minutes que le traffic soit arrêté: il a des probabilités de gagner 5 minutes mais surtout de mourir... c'est absurde
- le chauffard va rouler a 150km/h sur un trajet de 130 bornes, ce qui va lui permettre d'arriver... 8 minutes plus tot que s'il respecte la vitesse!
- le cyclisme va rouler les mains dans les poches et un casque BT sur les oreilles...
- un troupeau de vache traverse la route, c'est peu probable en plein milieu de Paris, mais en intercité les probabilités augmentent... La verification qu'un troupeau de vache traverse la chaussée doit elle etre desactivé en entrant dans Paris? Pourquoi, pour quel benefice?

Bref, comment mettre en relation un comportement absurde face a une situation cohérente...
En fait on a des probabilités, mais comme ce sont des humains qui programment les "IA" ils vont avoir tendance a minorer l'absurdité et établir des relations logiques...

Ce que l'on demande a l'ordinateur n'est pas d'etre aussi efficace que l'humain, on lui demande d'etre plus efficace, voire infaillible. On veut bien etre remplacé par un robot a condition de le robot fasse mieux que tout ce qui nous est humainement possible de faire. Un abruti qui a l'habitude de prendre le volant apres 2 whisky sera le premier a clamer son inquietude face a un pilote automatique qui reduirait de 98% les risques d'accidents, avec l'argument que les 2%, l'ethylique derriere son volant, il en est certain, il pourra eviter tous ceux de son fait car le probleme dans les accidents ce sont bien sur les autres...

avatar getnuts | 

@C1rc3@0rc

Exactement.

Il est impossible de mettre la variable humaine dans un algorythme et de prendre le résultat comme fiable alors que c'est ce qu'on demande à ces fabricants. Le risque 0 n'existera jamais, donnons ça à manger a nos algos d'analyse et on va voir si ils vont continuer à faire rouler la voiture :)

La vérité c'est que jusqu'à présent on leur ment, en leur faisant croire que non non c'est pas un humain t'inquiète c'est un robot au comportement très prévisible très lisse :)

avatar r e m y | 

Comme beaucoup de commentateurs l'avaient relevé, la faute de l'accident est donc bien celle de la piétonne qui aurait dû faire comprendre à la voiture qu'elle n'était pas un simple sac en plastique!

C'est vrai quoi... un truc d'1m80 de haut, 1m50 de large et qui traverse la voie, c'est pas évident de comprendre que c'est autre chose qu'un emballage de burger!?‍♂️

avatar mat 1696 | 

@r e m y

1m50 de large ??? Elle doit avoir du bide...

avatar Bruno de Malaisie | 

@mat 1696

On parle d’un humain décédé. Un peu de respect...
Elle poussait son vélo. D’où le 1,50m...

avatar r e m y | 

@mat 1696

Tu oublies le vélo! Et malheureusement pour elle et sa famille, il faut parler de cette jeune femme au passé ☹️

avatar mat 1696 | 

@r e m y

Ah oui, autant pour moi.

avatar Avenger | 

L'inconvénient de cette dramatique expérience de voiture autonome, c'est qu'on se concentre sur un seul fait pour tout remettre en cause. Mais pour être réellement objectif, il faudrait tenir en compte tous les accidents que ces véhicules particuliers ont pu éviter, évitant certainement des blessés et/ou des tués. Combien de véhicules autonomes ont circulé? Quel est le kilométrage total réalisé? Quel est le nombre total de personnes et véhicules qui ont croisé leurs routes? Le nombre total d'accidents et de victimes, etc. Prenons en compte les mêmes critères concernant les véhicules conduits par des humains et analysons, comparons tout cela de façon scientifique. Je serais alors curieux de voir quel est le moins dangereux... l'humain ou l'AI?
Peu importe la puissance d'analyse d'un véhicule autonome, penser qu'un jour ce système ne sera jamais confronté à un bug, une mauvaise analyse, une situation improbable qui n'a pas été prise en compte, et donc incapable d'éviter un accident avec ou sans victime(s), c'est se mettre le doigt dans l'oeil. Il suffit déjà de voir les déboires Tesla, avec ses robots, qui sont programmés pour réaliser des tâches bien moins complexes que le fait de devoir conduire un véhicule en plein trafic.

Pages

CONNEXION UTILISATEUR