Depuis quelques mois, Tesla semble tout miser sur l’autopilot : présentation du Cybertaxi, ouverture d’un service de véhicules « autonomes » à Austin (un humain reste toujours sur le siège de droite « au cas où »), extension du service en Californie (où cette fois l’humain est sur le siège conducteur)... Cependant la justice pourrait, avec la décision rendue dans un procès opposant le constructeur à des victimes d’un accident de la route, mettre un gros coup de frein à ces ambitions.

Lancement en demi-teinte pour les Robotaxis de Tesla, pas encore complètement autonomes

En effet, en 2019 a eu lieu un accident impliquant une Tesla Model S dont le conducteur, ayant mis l’autopilot et ayant été distrait par son smartphone, a percuté un SUV à l’arrêt. La collision a provoqué la mort d’une jeune femme, et son compagnon s’en est tiré avec des séquelles conséquentes.
Ce n’est pas la première fois que l’autopilot de la firme est mis en cause dans un accident, mais les précédents n’étaient pas allés jusqu’au procès : à chaque fois, la firme a trouvé un arrangement avec les victimes, pour lui éviter la case justice. Cette fois, les victimes ont souhaité aller jusqu’au bout.
En conséquence, un procès s’est tenu en Floride, et Tesla a été reconnue coupable à 33 % de l’accident, comme le rapporte LesNumeriques : la justice a estimé que Tesla a exagéré les capacités de son système, et minimisé les risques. De plus, la société aurait tenté de dissimuler des preuves, et menti à la police chargée de l’enquête. La société est donc condamnée à verser plus de 240 millions de dollars de dommages et intérêts.
L’enquête menée par les journalistes d’Electrek est particulièrement accablante concernant la gestion de l’accident et de ses données par Tesla : au moment du crash, la voiture a envoyé immédiatement une copie de ses données aux serveurs de Tesla, avant d’automatiquement effacer ses données, comme le résume Alan Moore, un ingénieur spécialisé en récupération de données :
[Les données récupérées] me montrent que dans les minutes qui ont suivi cet accident, Tesla avait toutes les données. La voiture a reçu un accusé de réception, puis s’est dit « Ok, c’est bon pour moi, je supprime mes liens avec ces données ».
Les plaignants ont ensuite tenté d’obtenir de Tesla une copie des données reçues, sans succès, la firme indiquant n’avoir rien reçu.
Plus tard, un enquêteur de la Florida Highway Patrol a demandé l’aide de Tesla afin de récupérer les données de télémétrie de la voiture et reconstituer l’accident. Demande à laquelle l’avocat de Tesla a répondu, d’une manière peu ordinaire :
Envoyez-moi un courrier, et je vous dirai quoi écrire dans votre rapport.
Bien entendu, l’avocat de Tesla n’a jamais parlé du fichier envoyé par le véhicule, contenant pourtant des vidéos prises par les caméras intégrées, les datas de l’autopilot ainsi que la position des différents capteurs de la voiture. À la place, la marque s’est contentée d’envoyer des fragments de « l’infotainment » du véhicule, contenant les appels passés par l’interface et... le manuel de l’utilisateur de la voiture. Pendant ce temps, Tesla était en possession des données spécifiques à l’accident depuis déjà plus d’un mois.
L’enquêteur s’est ensuite penché sur le matériel intégré à la voiture, et a voulu récupérer les données restantes dans le MCU (le module de divertissement) et l’autopilot. Encore une fois, il a demandé l’aide de Tesla, pensant que la marque coopérerait.
Après avoir amené les modules dans un centre de service Tesla à la demande de l’avocat, ceux-ci ont été branchés sur une autre Model S. Le technicien de l’entreprise est revenu ensuite en disant que la tentative avait échoué, et que les données étaient corrompues. Étrangement, le technicien une fois interrogé sous serment a dit qu’il n’avait jamais mis sous tension les éléments, et qu’il ne lui avait pas été demandé d’extraire les données.
Plusieurs années plus tard, la famille a fait appel à Alan Moore, et c’est grâce à lui que les mensonges et omissions ont été découvert : se penchant sur ces mêmes modules, il a pu prouver que non seulement les données étaient intactes, que les modules ont bien été mis sous tension durant le passage en atelier, mais aussi que Tesla était en possession d’une copie de ces données depuis le début, envoyée par le réseau mobile. En résumé :
- Tesla a été en possession des données dans les minutes qui ont suivi l’accident
- Quand la police a demandé ces données, la marque leur a donné d’autres fichiers sans importance
- Quand les enquêteurs ont demandé à Tesla d’extraire les données de l’ordinateur de bord, la marque a répondu qu’elles étaient corrompues
- Tesla a inventé un processus d’effacement automatique des données présentes sur l’autopilot en cas d’accident
- Quand les plaignants ont demandé une copie des données en possession de Tesla, la marque a répondu qu’il n’y en avait pas
- Tesla n’a admis l’existence de ces données en leur possession qu’une fois mis celles-ci sous leur nez par l’ingénieur en récupération de données, qui a démontré qu’un envoi de fichier avait eu lieu vers les serveurs de la marque.
Une fois décortiqué les données restées sur le boîtier de l’autopilot, Alan Moore a été capable de récupérer nombre de vidéos et de positions de capteur. Certaines parties sont endommagées, mais le nombre de données est impressionnant et permet de reconstituer une grande partie de l’accident, même si certaines alertes ou autres logs concernant les décisions de l’autopilot reste corrompues. Cerise sur le gâteau, le technicien a donc retrouvé les traces d’un fichier compressé, dont les logs indiquent quand il a été envoyé sur les serveurs de Tesla et à quel endroit précis, avant d’être supprimé par la routine intégrée à l’autopilot.
Afin d’éviter des sanctions supplémentaires, Tesla a fini par plier devant les preuves et fournir le fichier reçu sur ses serveurs. La marque a admis les avoir reçues dès le crash.
Au final, les éléments récupérés sur ces fichiers sont accablants pour la marque et son système de conduite semi-autonome : l’autopilot était actif, contrôlait le véhicule, n’a envoyé aucune alerte au conducteur alors que l’accident était imminent, la voiture se trouvait dans une zone où les actions de l’autopilot étaient normalement limitées, mais celui-ci est resté actif et à grande vitesse.
Alan Moore a complété la signification de la zone dans laquelle se trouvait la voiture, indiquant que selon la carte utilisée par l’autopilot, il aurait dû afficher une alerte demandant la reprise de contrôle ou se désengager. Ni l’un ni l’autre n’a été fait par l’autopilot. Le NTSB (le bureau d’enquête accident US) a pourtant plusieurs fois alerté Tesla sur ces manquements à l’implémentation de limites géographiques, mais la marque ne les a jamais intégrées.
Bien entendu, Tesla a indiqué vouloir faire appel de la décision, un nouveau procès se tiendra donc un peu plus tard. Reste à voir les suites qu’auront ces mensonges et omissions de la marque sur un accident mortel, qu’elles soient judiciaires ou médiatiques, et comment réagiront les propriétaires de ces voitures.