Tesla : l'Autopilot était actif lors du dernier accident mortel aux États-Unis

Florian Innocente |

Le conducteur de la Tesla Model 3 qui a perdu la vie le 1er mars en Floride, avait enclenché la fonction Pilotage automatique de son véhicule, a révélé le Conseil national de la sécurité des transports (NTSB) qui enquête sur les causes de cet accident.

La Model 3 accidentée ce 1er mars 2019

C'est le troisième accident mortel enregistré aux Etats-Unis pour une Tesla où l'Autopilot était actif. Les circonstances de celui-ci rappellent la toute première affaire de juillet 2016. Dans ce dernier cas comme dans le premier, le conducteur a perdu la vie lorsque sa voiture est passée sous une semi-remorque qui traversait la voie. Un obstacle imposant qui n'a pas troublé les capteurs de la voiture.

L'accident de 2016

Le poids-lourd était au milieu de la route et sortait d'une voie perpendiculaire au trajet emprunté par la Tesla. Il manœuvrait pour prendre cette même route, dans l'autre sens de circulation.

Le poids-lourd est venu de la droite et a ralenti au milieu de la voie principale pour s'y aligner

La vitesse est limitée à 55 mph (88 km/h) à cet endroit et la Tesla conduite par Jeremy Banner, 50 ans, roulait à 68 mph (109 km/h). La première analyse des données témoigne qu'il avait activé la fonction Pilotage automatique 10 secondes avant de percuter l'obstacle. Pendant les 8 secondes qui ont précédé le choc, il n'avait pas les mains en contact avec le volant.

L'enclenchement de l'Autopilot n'exonère pas le conducteur de tenir son volant, même à minima comme l'illustrent les vidéos de Tesla. Des alertes sont également prévues pour rappeler le conducteur à l'ordre. Cette fonction de conduite s'occupe de réguler la vitesse avec la circulation autour de soi et de déboiter toute seule après que le conducteur a initié un mouvement de volant.

D'autres fonctions encore en bêta s'occupent des changements de voie, de prendre les sorties d'autoroute et de garer la voiture. Plus tard dans l'année il est prévu que la voiture utilise les feux de signalisation et les panneaux Stop et qu'elle conduise seule en milieu urbain.

Cependant des images vidéo ainsi que les informations de bord montrent que ni le conducteur, ni cette assistance à la conduite n'ont réagi, de quelque manière que ce soit pour éviter la semi-remorque ou tout au moins pour freiner. L'accident s'est produit à 6h17 et le NTSB ne laisse pas supposer que les conditions météo ou la visibilité étaient difficiles.

Entre les deux accidents de 2016 et celui-ci il y en a eu un le 23 mars 2018, en Californie et en matinée également. Le Pilotage automatique était allumé, le conducteur avait reçu plusieurs alertes audio et visuelles l'intimant de remettre les mains sur le volant, mais jusqu'à 6 secondes avant un violent crash contre une rambarde en béton il n'y a pas donné suite.

L'accident de mars 2018. Photo Mercury News.

Ces accidents font l'objet d'enquêtes par le NTSB, ainsi que d'autres, où des victimes sont aussi à déplorer alors qu'elles n'avaient pas activé l'Autopilot. Pour l'heure, en l'absence de conclusions aucune consigne ou contrainte n'ont été émises pour les concepteurs de ces systèmes de navigation.

À la suite de la communication du NTSB sur l'accident de Floride, Tesla a rappelé ses consignes d'utilisation de l'Autopilot et insisté sur les bénéfices en termes de sécurité que peuvent en attendre les conducteurs qui les suivent à la lettre. Mais sur la raison pour laquelle son système est semble-t-il resté comme interdit devant l'imminence du choc, le constructeur n'a rien dit.

Un responsable de Consumer report aux États-Unis s'est ému que l'Autopilot ne sache pas détecter un obstacle aussi conséquent qu'une remorque de poids-lourds barrant la route ou qu'il ne réagisse pas en conséquence : « Ce système ne peut pas gérer seul des situations routières courantes et ne parvient pas à maintenir le conducteur attentif au moment voulu ». Il préconise une surveillance plus drastique de la tenue du volant ou une restriction sur le cadre d'utilisation de l'Autopilot.

Tags
avatar broketschnok | 

On laissera les autres faire les bêta testeurs

avatar YARK | 

Le problème c'est quand t'arrives en face d'un gros bêta de testeur....

avatar broketschnok | 

@YARK

Haha ??. Tellement vrai

avatar ForzaDesmo | 

@YARK

Le problème c'est quand t'arrives en face d'un gros bêta de testeur....

Le problème c'est que le principal intéressé ne peut pas en dire autant. Heureusement que tu es là pour le dire à sa place.

avatar whocancatchme | 

109km/h de face et sans freiner (même freiner quelques mètres avant fais tomber la vitesse drastiquement) le mec n’avait aucune chance

avatar SyMich | 

20% de dépassement de la vitesse limite, c'est pas top non plus de la part du système autopilot...
Il était en service mais complètement planté en mode zombie, non? ?

avatar Tomtomrider | 

@SyMich

Oui mais ce que ne semble pas dire l’histoire c’est si l’auto pilote a accéléré, conservé la vitesse initiale ou ralentit après enclenchement. Si le conducteur était à 150 et qu’il a activé la fonction, la voiture pouvait être en phase de décélération.

avatar Paul_M | 

Le mec allait 20km/h trop vite, et a activé son Autopilot et lâché son volant 10 secondes avant de croiser une voie sur la droite.
Bien sûr, on peut blâmer Elon Musk tant qu'on veut et avoir peur des voitures autonomes. Mais je comprends pas comme on peut à ce point négliger son instinct de survie sur la route. Comment le mec peut avoir déjà lâché son volant seulement 2 secondes après avoir lancé le pilote auto alors qu'il est en excès de vitesse ? Je pense que le seul tort de Tesla est de provoquer avec son marketing un excès de confiance chez ses utilisateurs.

avatar daxr1der | 

@Paul_M

La personne a s’en doute voulu se suicider !

avatar Paul_M | 

@daxr1der

Ben il aurait pas mis l'autopilote dans ce cas là

avatar Guizilla | 

@Paul_M

C’était un bêta testeur suicidaire

avatar Spuolg | 

@Paul_M

Ben… si, justement. Avant, il y avait la corde ou les médicaments. Maintenant, il y a l’autopilote. C’est plus sûr : moins de risques de se rater…

avatar marenostrum | 

C’est ce que l’ordinateur dit. C’est facile le programmer qu’en cas de chocs violents il montre que l’assistant a été allumé que 10 sec avant pour ne pas avoir aucune responsabilité civile.

avatar Paul_M | 

@marenostrum

Ah oui. Un complot.

avatar marenostrum | 

Non tesla va dire que il a perdu la vie à cause de notre voiture. Et demander pardon publiquement.

avatar stewbaba | 

@Paul_M

Le seul tort et pas des moindres ..

avatar Paul_M | 

@stewbaba

Et je suis d'accord avec toi. Même le nom autopilote est mauvais.

avatar teejay | 

@Paul_M

Ceci dit l’autopilot n’est pas si intelligent que ça : pourquoi peut il s’enclencher alors qu’il devrait automatiquement redescendre à la vitesse maximale autorisée...

avatar Paul_M | 

@teejay

C'est pas faux. Il serait peut-être utile que l'Autopilot exige un retour à la vitesse autorisée, un environnement dégagé et les mains du conducteur sur le volant pendant un moment avant de s'enclencher.

avatar cedric1997 | 

Considérant qu'en Amérique tout le monde roule au dessus de la limite (110 dans une zone de 90 comme cet homme a fait est tout à fait normal et ne serait pas réprimandé par la police), je ne suis pas certain que ce soit une bonne idée de se bloquer à la vitesse autorisée, même d'un point de vue de sécurité.

Ceci dit, le pilote automatique de Tesla s'enclenche à la limite de vitesse + quelques km/h (à régler dans les réglages). Et il est possible ensuite de le forcer à aller plus vite, tout comme un régulateur de vitesse traditionnel. C'est sans doute ce que cet homme a fait.

Cependant, je crois que Tesla devrait être beaucoup plus agressif sur les avertissements lorsque le volant n'est pas tenu, voir utiliser la caméra intérieure (uniquement dispo sur la Model 3) pour surveiller si le conducteur regarde devant, un peu comme GM fait avec son propre pilote automatique (SuperCruise).

avatar sensass | 

Je ne vois pas trop l'intérêt de l'autopilote s'il faut en plus poser les mains sur le volant et accompagner les rotations du volant à chaque virage. C'est embêtant donc autant conduire soi-même.
Un peu comme si on me disait de devoir poser ma main sur le pommeau de vitesses pour qu'il les change lui même, autant le faire soi même.

avatar 33man | 

@Paul_M

Il a voulu tester l autopilot en pensant que oui bah la physique ne s'applique pas au pilotes électroniques
, c'est connu

avatar 0MiguelAnge0 | 

@Paul_M

Comment ce fameux Autopilot qui n’a pas besoin de Lidar car cela ne sert à rien à accepter de s’enclencher s’il y avait danger??

Et s’il y avait danger, en 10s il y a moyen de faire une tentative d’évitement ou freinage: compte jusqu’à 10 et tu verras que c’est long!

A moins que le fabuleux Autopilot ne soit pas actif avant un certain temps car il n’a pas suffisament aquis de contexte.

En tout cas même si le gars avait amener sa caisse à 110km/h, ce système est censé respecté les limitations et freiner.

Par contre rouler en excés de vitesse sur les Expressway, c’est un sport national là-bas.

avatar appleadict | 

@Paul_M

ca a été le cas avec l'ABS aussi : le conducteur en déduit qu'il peut prendre plus de risques (conséquence directe de la communication qui est faite), ce qui est peut-être vrai ... le
problème c'est qu'il n'a pas connaissance de la marge de sécurité supplémentaire dont il bénéficie ... du coup il la dépasse sans le savoir ...

avatar DVP | 

la communication sur l'ABS a été deplorable.
Dans l'inconscient collectif, ca sert à freiner plus court.
Alors que son role est avant tout permettre au conducteur de conserver la direction lors d'un freinage violent.
Roues bloquées, rien ne sert de tourner le volant la voiture continue tout droit.
Avec l'ABS ont peut eviter l'obstacle.

Accessoirement ca peut reduire les distances de freinage, mais pas toujours.
Sur sol glissant, ca peut meme les rallonger.

avatar Crunch Crunch | 

Aie aie…
109km/h de face et sans freiner !

Autant j'admire M Musk pour ces innovation. Autant je ne souhaite pas être à ça place pour tous les gens qui vont lui tomber dessus, suite à ce genre d'affaire…

Toutes mes condoléances à la famille.
Un jour, les autopilotes seront quasi parfait, j'y crois :-)

avatar oomu | 

" Un jour, les autopilotes seront quasi parfait, j'y crois :-) "

pourquoi croyez vous ?

avatar François31400 | 

Personnellement je ne blâmerai rien car il y a 3 semaines une Tesla Model 3 m’a fait éviter à mes amis et moi même un accident très probablement mortel. La voiture a eu de meilleurs réflexes que moi. L’autopilot était activé.

avatar Malouin | 

Oui mais comme toujours, c'est la "masse" qui fait la vérité ! Il n'y a qu'à lire les commentaires qui suivent le tien...

avatar melen | 

@François31400

Sans cherchez l'indiscrétion, pouvez-vous précisez si vous voulez bien ce que la voiture a fait grâce à l'autopilot, et qui aurait été difficile dans une voiture classique ?
Est-ce lié à une situation réflexe liée au contexte ?

avatar François31400 | 

@melen

L’animal a essayé de traverser sur l’autoroute. La voiture a détecté l’animal, elle a fait un écart sur la voie de gauche pour l’éviter.
C’est le temps de réaction qui aurait changé avec une voiture classique. Ni mon passager ni moi même n’avons eu le temps de voir l’animal et la voiture avait déjà fait l’écart.

avatar ForzaDesmo | 

@François31400

L’animal a essayé de traverser sur l’autoroute. La voiture a détecté l’animal, elle a fait un écart sur la voie de gauche pour l’éviter.
C’est le temps de réaction qui aurait changé avec une voiture classique. Ni mon passager ni moi même n’avons eu le temps de voir l’animal et la voiture avait déjà fait l’écart.

On a déjà parlé ici lors d'un article ou justement c'est le véhicule autonome qui n'a rien détecté (aucun freinage) et qui écrasé un piéton qui traversait à cause de la luminosité (zone entre lampadaires en peine ombre).
De même en campagne le conducteur peut voir un animal en lisière de forêt qui risque de couper la route et que la voiture autonome ne détectera bien trop tard au moment où celui-ci coupera la route et là la distance pour décélérer/freiner pour éviter l'animal na sera pas suffisante et tout évitement impossible sauf à percuter éventuellement la voiture qui vient en sens inverse ou aller tout droit dans le fossé.
Chacun pourra trouver des arguments de situation et des accidents qui iront dans son sens. Et quant à penser que le conducteur sera plus vigilant avec une voiture autonome, c'est tout le contraire, y a qu'à voir les abrutis de piéton absorbés avec leur smartphone et qui te rentre dedans si jamais tu ne fais pas l'effort de les éviter.
Et comme déjà dit ça les déresponsabilisera en cas de problème (mort), c'est pas eu c'est la machine, ils s'en laveront les mains.

avatar melen | 

@François31400

Merci pour le témoignage. Cela a dû être impressionnant. Une conduite classique n'aurait pas eu le temps de réaction, d'autant plus qu'après avoir observé la situation anormale, il faut analyser (la voie de gauche est-elle libre ?).
De plus, un écart brutal sur autoroute doit être maîtrisé. Ici, visiblement l'automate a parfaitement ajusté.

avatar fousfous | 

Même pas vu le camion la voiture, ça montre à quel point le système est fiable...
Devant la presse la voiture est autonome mais quand y a un accident ce n'est plus qu'une assistance en bêta...

avatar oomu | 

Vous exagérez à la fois la presse et à la fois le discours post-accident.

Quand au terme "beta" il fut utilisé explicitement au près des clients. En ce qui me concerne, l'idée même de faire du "beta", comme si on était en présence d'un logiciel de jeux vidéo, me dérange. Mais ce ne fut pas caché. Cela indiquait bien qu'il était impossible de se reposer sur ces outils.

-
En pratique, non ces voitures ne sont pas autonomes. La presse a maintes fois rappelé et montré. Et si Ironm..heu Elon Musk se permet d'être dithyrambique sur les trucs de geeks, l'entreprise elle même rappelle constamment que ce sont des assistances à la conduite.

A un moment, les geeks, en bien ou en mal, s'aveuglent volontairement. Ils sensationnalisent l'entreprise et quand ça va mal, ils la démonisent. Dans les deux cas, c'est absurde.

(bien sur quand je dis "ils" ce n'est pas nécessairement les même personnes, cependant je remarque des phénomènes de marée dans les forums et communautés de technophiles. Peut être faut il simplement se dépassionner de la techno. Ce ne sont que des machines, des automates. Et ils ont leur limites, clairement exprimées.)

-
Aussi, il y a des limites à ces machines, en particulier de déterminer présence en hauteur d'obstacles sans provoquer un constant flot de faux-positifs (un feu tricolores en hauteur serait vu comme un obstacle, etc).

Bref, la machine ne conduit pas. La technologie est fantasmée, voir fétichisée. Quand ses limites sont atteintes, d'un revers de la main on indique "demain elle marchera !".

Mais demain c'est naze, c'est aujourd'hui qui compte.

avatar malcolmZ07 | 

@fousfous

Les voitures non électrique ont déjà un decteur de collision plutôt efficace. Je suis très étonné que la Tesla n'ait pas pu réagir.

avatar fousfous | 

@malcolmZ07

Oui y a que tesla qui se vante le plus et qui produit le moins de résultats...

avatar oomu | 

"Les voitures non électrique ont déjà un decteur de collision plutôt efficace. Je suis très étonné que la Tesla n'ait pas pu réagir."

dans un cadre donné
pour un type d'obstacle
dans des circonstances précises
dans des contraintes pré-établies

etc etc etc.

avatar reborn | 

L'enclenchement de l'Autopilot n'exonère pas le conducteur de tenir son volant, même à minima

Il a choisit de faire confiance à la voiture

avatar oomu | 

il est prévu de faire confiance à un ordinateur et ses capteurs ?

avatar reborn | 

@oomu

Le but à terme c’est bien de laisser la voiture traverser toute seule les etats-unis. Donc faire confiance à la voiture.. ?‍♂️

avatar oomu | 

à terme oui.

A terme, en effet, le Soleil mourra.

A terme, oui, on arrivera (peut être) à faire des machines capable de vivre ma vie à ma place (ça me fera des vacances, "ha robot, et n'oublie pas d'écrire une absurdité sur macg" "-mais cela va de soi" )

A terme, oui, c'est de laisser la voiture traverser toute seule les etats-unis (je vois pas en quoi cela me servira , je traverse jamais seul les USA..., la Corse à la rigueur).

Mais c'est quand CE TERME ? Demain. 20 ans, 12 milliards d'année avec l'aide d'une IA occupant le trou noir central ???

A l'heure ACTUELLE, 17 MAI 2019, IL EST PAS PREVU qu'on fasse confiance à une MACHINE.

CEs voitures sont vendues avec des assistances, plus ou moins sophistiquées, qui aident, mais personne ne dit "c'est prévu pour rouler tout seul, yolo".

Non.
C'est ça le sens de mon commentaire: les actuelles voitures vendues, il n'est pas prévu que vous vous reposiez sur l'ordinateur. Il n'est qu'une aide.

On peut vous le promettre qu'un jour oui, y aura un tel produit
on peut vous jurer qu'un jour on vous mettre à jour vers un tel produit
et on peut rêver ensemble en communion geek que les IAs auront enfin percé le Secret d'une Vie Réussie et de nous aimer d'un amour vrai

mais c'est un jour.

A l'heure actuelle personne ne vous vend une voiture en vous disant "faites confiance à l'ordi, dormez". Il vous le dise en long, en large, en travers : tiens le volant, ouvre les yeux !

avatar max351 | 

@ oomu

Entièrement d'accord. Toutefois je suis allé par curiosité sur le site de Tesla pour voir comment la marque parle de l'Autopilot et je tombe directement sur une vidéo où le conducteur est assis à la place du conducteur "pour des raisons légales" (dixit le site) et où il ne touche jamais le volant...

avatar sinbad21 | 

Pourtant on a prévenu Elon, les LIDAR ne permettent pas de détecter ce genre d’obstacles, il faut des caméras vidéos. Il faut être inconscient pour se reposer sur l’autopilot de Tesla.

avatar Crunch Crunch | 

Ben justement…
Les Tesla sont équipée UNIQUEMENT de caméra vidéo, et non de LIDAR !

avatar oomu | 

? curieux commentaire. Tesla utilise des caméras et a critiqué l'intérêt des LIDAR.

Un exemple d'article tout chaud autour des choix des uns et des autres concernant les LIDARS et Caméras
https://www.teslarati.com/tesla-nissan-adopts-camera-based-full-self-driving-approach/

avatar Malouin | 

Dis donc, le "sachant", tu as lu les commentaires d'un possesseur de ce genre de véhicule plus haut ? Et de ceux sur ta fine analyse, plus bas ?

avatar marenostrum | 

Comment faire confiance au GPS ? Les deux soldats perdus récemment sont à cause de la haute technologie.

avatar oomu | 

Comment faire confiance à un mammifère ? La quasi totalité des drames sont à cause de mammifères bipèdes.

Ben... comme répété partout : en gardant les mains sur le volant et en utilisant ces outils que pour ce qu'ils sont : une assistance. Certainement pas un garde fou ou protecteur. On ne peut pas faire confiance, surtout pour un usage qu'ils ne peuvent pas assumer et que c'est répété constamment.

avatar melen | 

@marenostrum,

C'est la première fois que je lis ceci sur la mort des des soldats français. J'ai cherché ce soir, mais je n'ai pas trouvé de sources donnant cette explication.

Pages

CONNEXION UTILISATEUR