Le conducteur mort au volant de sa Tesla allait un peu trop vite

Florian Innocente |

Le conducteur décédé au volant de sa Tesla en mai dernier avait dépassé la limite de vitesse autorisée. C’est le premier constat publié par l’agence américaine de la sécurité routière.

Le véhicule n’excédait pas énormément cette limite mais il roulait à 74 miles/h (120 km/h) au lieu des 65 miles/h autorisés (104 km/h). La voiture s’est engouffrée sous la remorque d’un poids lourd.

Ce camion était en train de traverser la route perpendiculairement à la trajectoire de la voiture. D’après les premières hypothèses formulées par Tesla, le système de freinage automatique a probablement confondu la grande masse unie et claire du flanc du camion avec un large panneau surplombant les voies de circulation. La voiture n’a aucunement tenté de freiner.

Le rapport préliminaire ne propose encore aucune explication, ni n’aborde la question de ce que faisait le conducteur quelques secondes avant l’impact.Il est seulement apparu que le système d’assistance au maintien du cap était activé, de même que la surveillance du trafic autour de la voiture.

Normalement, la direction automatique empêche la voiture de dépasser la vitesse maximale de plus de 5 miles/h (8 km/h). Du moins, si l’on se trouve sur une voie résidentielle ou sur une route dépourvue de glissière centrale. Autant qu’on puisse en juger sur la photo des lieux de l’accident, la route semble pourtant répondre à ce second cas de figure. L’enquête se poursuit.


avatar CNNN | 

Mais comment peut on autoriser à la circulation un système en phase de développement ?
Bon commercialement c'est tentant mais au niveau des autorités ??

avatar thesupertimal | 

@CNNN :
Ben à la base, le véhicule n'a pas freiné, donc le conducteur faisait quoi ? Comment tu peux rater un semi-remorque qui te coupe la route ?

avatar iPoivre | 

@CNNN :
Ben le mec est censé se concentrer sur la route, comme la voiture l'annonce à l'activation de l'auto pilote...

C'est comme en vouloir à un vendeur d'armes quand quelqu'un se fait tuer alors que l'acheteur n'est pas censé tuer quelqu'un...

avatar Paquito06 | 

@iPoivre :
Exactement. Ca va faire comme avec les avions, on va s'apercevoir que dans 90% des crashs ou plus ca ne vient pas de la technologie mais d'une erreur humaine.

avatar iapx | 

+1 iPoivre, très drôle :)

avatar cecemf | 

@iPoivre :
C'est exactement ça. Ça le fait halluciner quand les gens blêmes la voiture car c'est clairement la faute du chauffer. Oui le système de la voiture peut être améliorée, mes le système n'est pas fait pour être 100% auto pilot. C'est une assistance. Il le dit très bien au début que le système c'est juste pour le chauffeur ce repose sort le pied de la pédale mais doit garder un œil sur la route.

Si l'utilisateur le fait pas ont peut pas plaindre la voiture.

avatar marc_os | 

@cecemf :
Le pb s'est que le système est trompeur ! Car il n'est pas abouti, n'est qu'en beta.
Imaginez un Airbus qui se crashe.
"Euh.... Désolé, l'auto-pilote était en beta 0.2"... Inacceptable !

avatar pat3 | 

@cecemf :
Faut quand même penser que l'humain est humain! Si on dit à un humain que sa vigilance peut être réduite parce qu'une machine le relaie, ben… il réduit sa vigilance. Déjà, quand tu demandes à quelqu'un d'être tout le temps vigilant, il flanche à un moment où à un autre, alors si en plus tu lui dit qu'une machine peut prendre le relai.
C'est un peu une injonction contradictoire, non, soyez vigilant mais détendu?

C'est normal qu'une telle proposition conduise à la catastrophe, et plus tôt on s'en rend compte, mieux c'est. Le système n'est juste pas prêt pour une mise en circulation sur route, je ne comprends pas qu'on n'arrive pas tous à cette conclusion évidente. La correction automatique, la traduction automatique, la reconnaissance automatique de forme non plus ne sont pas prêtes, ou du moins ne sont pas optimales, mais on ne risque pas sa vie ni celles des autres à les utiliser, c'est là toute la différence.

avatar marc_os | 

@iPoivre :
Comme disait l'autre, « Ce n'est pas parce qu'on fabrique et qu'on leur vend des armes qu'ils sont obligés de les utiliser ! »

avatar MrCrvsr | 

Et les conducteurs de 16 ans (aux US), ils ont fini leurs développements, eux?

avatar Paquito06 | 

@MrCrvsr :
Selon certains Etats tu peux commencer a conduire a 14 ou 15 ans meme. Mais l'auto est indispensable dans la majorite du temps aux US, dans toutes les grandes villes car c'est tres etale (sauf NY, special).
Aussi, on aurait tendance a incriminer la voiture, mais si le conducteur appuie sur la pedale de frein, la voiture freine, et commencer par controler la vitesse :(

avatar hedi3 | 

@Paquito06 :
Oui enfin y a pas que NY qui est une ville pas étalée... y en a une centaine d'autres

avatar Paquito06 | 

@hedi3 :
Avec autant d'habitants/une densite qui est des plus elevees au monde, et un systeme de transport en commun assez efficace comparé aux autres villes. Tu peux te passer de voiture a NY easy (surtout que ca coute cher et que tu peux pas/plus te garer ^^).

avatar Arpee | 

@MrCrvsr :
Là, il faudrait faire une analyse des stats sur la question avant de faire des commentaires.

avatar DG33 | 

Tesla jailbreakée dont le conducteur n'ira pas en jail ?

avatar pariscanal | 

Mais le camion faisait quoi ici ?!
Devait il traverser ?

avatar le ratiocineur masqué | 

"Mais le camion faisait quoi ici ?!"

Heu... des trucs de camions voyons. Pourquoi cette question ?

avatar sinbad21 | 

Un système incapable de détecter qu'un obstacle est placé suffisamment bas pour lui barrer la route n'est pas un système abouti, c'est le moins qu'on puisse dire.

avatar iapx | 

C'est un système embouti plutot :)

avatar povpom | 

Un autre problème américain : les barres anti encastrement. C'est la première fois que je vois les photos. La différence de dégâts entre le camion et la voiture est impressionnante.
Mais je remarque également que la Tesla s'est bien encastrée sous le camion. La législation américaine n'impose pas les barres anti encastrement. Ni arrières. Ni latérale. Dans le cas présent, ça aurait suffit à sauver le conducteur ??? Combien d'autres sont sauvés en Europe grâce à ce dispositif pourtant basique ?

avatar CBi | 

+1. C'est l'absence d'une technologie basique sur le camion plus que l'excès de technologie sur la voiture, qui a tué ici. Mais le lobby des companies de camionneurs est fort aux USA, et la pression économique qu'ils ont a supporter, sans doute encore plus grande qu'en Europe.

avatar Pas-un-philosophe | 

@povpom
La présence de ces barres aurait en plus permis de faire détecter le camion à la voiture comme obstacle.
Ces barres sont en plus peu efficaces selon l'euroncap américain car elles n'empêchent m'as la voiture de s'encastrer. La barre casse.

avatar 421 | 

Vivement un véritable cabriolet Tesla !!!

avatar moon21 | 

Apple ne sait pas faire de Mac pro, alors Tesla a le droit de ne pas savoir faire de voitures...
ceci dit, c'est bien triste pour ce pauvre conducteur qui a dû croire que sa caisse allait freiner...

avatar pn10000 | 

@moon21 :
En aucun cas Tesla est une voiture autonome. Tesla indique bien au conducteur qu'il ne doit pas faire autre chose que surveiller la route. D'ailleur le système se désactive au bout de 3 minutes (ou du moins averti au conducteur d'être vigilant).

Donc je ne vois pas en quoi Tesla ne sait pas faire des voitures.

Sur mon véhicule j'ai un radar anti-collision, ce n'est pas pour ça que je ne freine pas. Et un systeme de correction de trajectoire sur la direction, ce n'est pas pour ça que je ne tiens pas le volant. Tous ces systèmes ont des limites et les constructeur l'annonce.

avatar Oliviou | 

Ce que je ne comprends pas, c'est que la voiture est sensée être équipée de "capteurs". Et on ne parle que du fait qu'elle n'aurait pas "vu" le camion parce qu'il se confondait avec l'environnement. Mais elle n'a que des caméras? Elle ne compte que sur ses "yeux"? Pas de radars? Pas de détecteurs de masse et de proximité ? Ça paraît fou.

avatar iapx | 

le fond du truc c'est que visiblement (pun intended), la Tesla est extrêment myope sur son environnement, et que donc pour ne pas qu'elle s'arrête tout le temps en AutoPilot™ (qui n'est bien sur pas un pilotage automatique, non non, Monsieur), le logiciel conserve le cap et la vitesse quand il ne vois pas ou ne comprend pas son environnement.

Un choix clair et délibéré de Tesla, et là...

avatar iLionel | 

Son système d'auto pilotage ne doit être mis que sur autoroute (tous les véhicules dans le même sens), où il n'y a pas de circulations parasitaires comme dans ce cas fatal.
Il y a toujours un homme pour sortir du contexte et se mettre en danger (ou les autres).

avatar rikki finefleur | 

iLionel
Attends avec les supers trucs nommés gps, tesla aurait pu autoriser cela que sur autoroute , non ?

Je crois que c'est tesla qui a perdu ce bon sens.
Si la voiture n'est pas apte a distinguer un camion, elle ne peut être utilisé sur la route (et mettre la vie des gens en danger)..
On balance des fonctions un peu comme les ordis, ca bug, c'est a moitié fini, et c'est toujours jamais le constructeur se défausse, alors que manifestement son soft marche à moitié, et les gens et les passants servent de beta test.
SI tesla avait déjà autorisé la mise en route de cet autopilot que sur autoroute ce drame ne serait pas arrivé.

D'autre part lors d'un accident , une voiture ou un camion peut très bien se trouver en travers sur une autoroute. Que faire dans ce cas là pour les voitures arrivant derrière ?

avatar mac-a-dames | 

Ce que je trouve dingue, c'est que la plupart incriminent la voiture et son système de "pilote automatique"... le conducteur n'est pas censé baisser sa vigilance parce que sa voiture "conduit toute seule". C'est de sa faute à lui plus qu'à la voiture !
En tout cas, que l'exemple de ce pauvre homme serve à tous ceux qui pensent que leur voiture peut conduire toute seule.

avatar rikki finefleur | 

@mac-a-dames
Ce qui est dingue, c'est d'autoriser une voiture rouler toute seule sur une route alors qu'elle ne sait même pas reconnaître un camion.
Le conducteur n'est pas responsable de ce manque technique. Il en est même mort.

avatar Paquito06 | 

@rikki finefleur :
Ce qui est dingue, c'est ce genre de commentaire. Ca va qu'on donne le permis hein... Pourquoi l'homme se repose t il sur la technologie ? C'est censee etre une aide, vois ca comme une aide a la decision, elle ne remplace pas l'humain. Le jour ou il n'y aura plus de volant et que l'ordinateur controlera tout a bord, si accident dans ce genre il y a, alors on pourra parler d'erreur technique. Ici, l'erreur est humaine un point c'est tout. L'ordinateur a ete trompé mais n'est pas responsable, il ne prend pas la derniere decision. En d'autres termes, tu fonces dans un mur tu ne peux pas accuser la voiture. Tout ce qu'on peut reprocher c'est qu'en depis des capteurs et autres fonctions avancees offertes sur ce vehicule, celle-ci ait ete bernee et n'a pas su avertir. Mais a 120km/h avec un camion en travers de la route, c'est avant tout l'humain qui doit etre maitre du vehicule. On peut refaire l'action 10 fois, l'ordinateur se plantera encore et encore quand d'autres cerveaux feront la difference et fraineront.

avatar Vanton | 

@Paquito06 :
Le problème c'est qu'il est sans doute très dur de déterminer ce qu'on peut laisser faire à la voiture quand c'est elle qui dirige et ce qu'on devrait faire nous mêmes derrière un volant qu'on ne tourne même pas... Beaucoup parlent de l'autopilote comme d'une aide à la conduite, comme si c'était un simple limitateur de vitesse. Alors qu'en réalité l'autopilote remplace le conducteur ! Il rend le conducteur passif, il en fait un simple observateur. C'est dans ces circonstances très difficile pour le pilote devenu passager de savoir quand il est nécessaire de réagir. C'est en ça que ce système est dangereux en l'état. Il donne l'illusion qu'on a rien à faire, mais il ne parvient pas à assurer dans son rôle et nous demande dans des circonstances totalement imprévisibles de reprendre la main.

avatar rikki finefleur | 

@vanton
Excatement l'autopilot ne devrait etre autorisé que dans certaines conditions.
C'est juste incompréhensible qu'on laisse piloter une voiture seule alors que celle ci ne sait pas reconnaître un camion.
Et c'est aux autorités de réglementer très durement cela .
Car les constricteurs issus de l'informatique , prennent leurs clients pour des betas testeurs.
et au delà du client , il y a aussi les passant et autres conducteurs qui peuvent croiser ces voitures auto pilotés.

Comme le dit très bien Vanton, un client n'est pas susceptible de savoir comment fonctionne le logiciel , sur tel événement se passant sur la route.

avatar rikki finefleur | 

Paquito06
Ce qui est dingue c'est que tu n'arrives pas a comprendre.
Les systemes automatisés doivent se faire de facon très stricts quand il peut mettre en jeu la vie des gens. L'erreur est souvent fatale.

Que cela soit pour une conduite automatisé d'avion, de train , ou de voiture.
Or la voiture est sans doute le systeme le plus complexe a automatiser à cause de la diversité de l'environnement dans lequel elle évolue.

avatar Paquito06 | 

@rikki finefleur :
J'ai tres bien saisi, merci. Donc si on doit appliquer des regles strictes, ce n'est plus le probleme de l'ordinateur on est d'accord? Donc on blame l'humain et pas l'auto, cqfd.

avatar Sébastien R. | 

@povpom idem, je comprends pas que la législation US n'impose pas les barres anti encastrement aux semi-remorque ! Pour avoir eu une expérience similaire en France, la barre m'a sauvé la vie sur l'autoroute, sans celles-ci j'aurais fini encastre sous le camion ... et comme dise certains, même si le système n'est pas abouti, sa reste de l'aide à la conduite, la vigilance est quand même à garder lors de la conduite comme les réflexes en cas d'urgence !

avatar marc_os | 

@TheRainb0w :
Ah tu sais les législations...
En France la sécurité par thermocouple qui coupe le gaz de la gazinière si un courant d'air a soufflé la flamme n'est PAS obligatoire en appartement ! Elle est obligatoire uniquement en caravane ! Alors qu'en Allemagne cette sécurité est obligatoire partout... Pourtant, c'est pas comme s'il n'y avait jamais eu d'incendie à cause du gaz en ville !!

avatar Paquito06 | 

@Vanton :
Je comprends ce point de vue. Mais on sait par experience que l'erreur est humaine. La machine ne se trompe quasiment jamais, si ce n'est jamais. Quand on aura un circuit fermé avec des vehicules auto regulés, cela n'arrivera plus. C'est la transition qui est difficile en melangeant hommes et machines dans le meme monde. Ici, si on souhaite deliberement accuser Tesla, alors c'est l'ordinateur qui a pris le camion pour un panneau d'affichage, ce n'est pas une erreur de l'ordinateur, mais peut etre une erreur humaine de conception, de reglage, par rapport a la luminosite ambiante/la distance. Encore une fois, est ce que c'est l'ordinateur qui decide en dernier ressort? Non. Lmhumain reste maitre. Si l'ordinateur peut eviter 9 accidents sur 10 quand l'humain peut en eviter 5/10, ce n'est pas a l'humain de se reposer et laisser l'ordinateur gerer. Et je pense que Tesla a du se proteger a ce sujet en le specifiant. C'est regrettable que l'ordinateur n'ait pas pu jouer son role dans cet accident, mais ce n'est pas sa faute, l'ordi n'est pas, je pense, fiable à 100%, sinon on aurait retiré pedales et volant...

avatar pat3 | 

@Paquito06 :
Je comprends ce point de vue. Mais on sait par experience que l'erreur est humaine. La machine ne se trompe quasiment jamais, si ce n'est jamais. Quand on aura un circuit fermé avec des vehicules auto regulés, cela n'arrivera plus. C'est la transition qui est difficile en melangeant hommes et machines dans le meme monde. Ici, si on souhaite deliberement accuser Tesla, alors c'est l'ordinateur qui a pris le camion pour un panneau d'affichage, ce n'est pas une erreur de l'ordinateur, mais peut etre une erreur humaine de conception, de reglage, par rapport a la luminosite ambiante/la distance.

Ce que tu dis est contradictoire. La machine ne se trompe jamais? Faux, ne serait-ce que parce qu'elle est pensée par l'homme, et que la réflexion humaine qui préside aux calculs est faillible, même si les calculs sont supposément juste (on n'y est pas encore).
Ça n'arrivera plus quand on sera en circuit fermé? Qu'est-ce qui n'arrivera plus? Les accidents? Les morts humaines? Ben si : il n'y aura peut-être plus d'erreur humaine, mais il y aura des erreurs machines, et elles pourront coûter cher (le bug d'un bus automatisé, par exemple), surtout s'il n'y a pas moyen de protéger l'humain en situation de non vigilance (puisqu'il n'aura plus la responsabilité de la situation).
C'est la transition qui est difficile en mélangeant hommes et machines dans le même monde? Mais, nous sommes dans un monde humain peuplé de machines créées par l'homme pour le suppléer. Hommes et machines seront toujours mélangés, du moins jusqu'à ce que certains appellent la singularité technologique (et là, on constatera peut-être que les machines ne veulent plus du mélange…). Il n'y a pas de circuit fermé, et si c'est le cas, c'est que les humains seront enfermés dedans.

avatar Paquito06 | 

@pat3 :
La machine ne se trompe pas si elle est bien parametree. Quand tu utilises une calculatrice, elle se trompe? Mais quand tu demandes a un humain de faire des calculs? Et bien voila. Derriere tout ca on a avant tout de l'humain, donc oui si on entre de mauvais parametres l'ordinateur va se "tromper". Ici, l'ordi a pris le camion pour un panneau publicitaire, ca se comprend clairement vu le camion, mais un humain fait la difference, la machine aurait pu aussi, c'est une question de parametrage, certes complexe, mais pas impossible.

avatar JIBB | 

Si j'ai bien compris ce système, l'humain ne conduit pas... mais doit être aussi attentif que s'il conduisait. Des fois que la machine l'encastre dans dans un camion sans même ralentir...

En cas de danger, il ne doit donc pas laisser la main : il doit réagir sans attendre de voir ce que décide la machine (ou alors il perdrait les quelques dixièmes ou centièmes de seconde qui dans ces situations décident souvent de la vie ou de la mort).

Conclusion : si l'humain reste aussi attentif qu'il le doit, la sécurité n'est pas améliorée par la machine.

On me rétorquera peut-être que la machine est plus rapide que lui et peut donc lui sauver la vie avant qu'il ne réagisse.
Oui, tout comme elle peut le foutre dans le camion (et l'expérience montre qu'elle en est capable) avant qu'il ne réagisse.
Quoi qu'il en soit, dans ces cas où la machine prend l'humain de vitesse, on ne peut plus imputer à ce dernier la responsabilité finale de la sécurité.

Bref, ça ne tient pas la route (sans jeu de mot). Soit la machine conduit et est en charge de la sécurité et l'humain voyage les doigts de pied en éventail, soit c'est lui qui conduit et elle ne sert à rien. La demi-mesure ne me parait pas possible.

avatar marc_os | 

@JIBB :
Si. Un radar anti-collision pourrait te dire avec précision :
« Attention, obstacle à 200 m, vu votre vitesse et la sienne, il vous reste 15 secondes pour pouvoir ralentir en toute sécurité. Passé ce délais vous ne pourrez que tenter de l'éviter en changeant votre trajectoire. »
En plus concis peut-être. Un système comme ça, je prends !

avatar JIBB | 

Je suis d'accord, mais là on est dans le cas où c'est l'humain qui conduit. La machine ne sert qu'à fournir de l'information (comme un GPS ou même un rétroviseur).

Je trouvais juste particulièrement retors ce système où on se retrouve moniteur d'auto-école dans sa voiture : on ne conduit pas mais il faut surveiller et être prêt à sauter sur les pédales à tout moment.
A part le stress, je ne vois pas la plus-value...

Sans compter que plus la machine se montrera fiable, plus on aura tendance à relâcher sa vigilance, et donc plus on risquera de ne pas réagir à temps le jour où la machine confondra le gros camion blanc en travers de la route avec le ciel ou un panneau de signalisation. En clair : le jour du bug !

avatar cecemf | 

Le conducteur regarder un DVD ça était reporter quelque jours après l'accident.

La faute est évidement du chauffeur car même en automatique il est supposer quand même surveiller la route et pas regarder un film !

Deuxièmement, les camions au USA devrait avoir une protection installer comme il l'oblige en EU. S'il y avait la barrière de sécurité sous le camion comme ont as, la voiture ne serait j'aimais allez en dessous.

avatar rikki finefleur | 

oui mais pourquoi autoriser la vision d'un film quand on roule ?
Ces grans écrans déportés vont provoquer bon nombre d'accident.
Souvenons nous des changements de stations sur les anciens autoradios, alors permettre de regarder un film, c'est fou , ou de l’inconscience de la part du constructeur ?

avatar feefee | 

@rikki finefleur :

"Souvenons nous des changements de stations sur les anciens autoradios, alors permettre de regarder un film, c'est fou , ou de l’inconscience de la part du constructeur ?"

Pas la peine d'aller si loin , le nombre de conducteur devant moi qui discutent avec le passager sans pouvoir s'empêcher de regarder son voisin dans les yeux ..
Interdire les passagers ?

Bref si on devait interdire tout ce qui engendre un danger en voiture on aurait droit à une manifestation de l'association des conducteurs illico ...

avatar rikki finefleur | 

feefee

Oui mais de la part d'un constructeur, permettre de voir un film en conduisant relève de l'inconscience ou de l'absurdité.
Déjà téléphoner en voiture est dangereux, alors voir un film..

Pour ma part étant doté de 2 yeux, j'ai de la peine a voir avec l'oeil droit un film , et avec l'oeil gauche la route. Mais je désespère pas d'y arriver.

avatar marc_os | 

@cecemf :
En l'occurrence, cela n'aurait probablement servi à rien. Tu peux changer sa configuration comme tu veux, y a pas grand chose à faire si tu fonces à 120 sur un mur !!
Au contraire, si le chauffeur avait vu ce qui arrivait, il aurait peut-être pu se pencher côté passager façon cascadeur pour être protégé par le tableau de bord... Ça aurait pu marcher vu que l'impact a eu lieu assez haut sur la voiture. En théorie.

Pages

CONNEXION UTILISATEUR