Une autre année s’est écoulée et le système Full Self-Driving de Tesla est toujours une suite de démonstration vraiment cool qui crée plus de travail qu’elle n’en remplace. Son prédécesseur, le pilote automatique pour autoroute uniquement, est également de retour dans l’actualité pour avoir été associé à un accident mortel survenu à Gardena, en Californie, en 2019.
Bien qu’aucun examen complet de l’accident ne semble être actuellement accessible au public, il est assez facile de disséquer ce qui s’est passé à partir des reportages. Kevin George Aziz Riad se dirigeait vers l’ouest dans une Tesla Model S à l’extrémité ouest de la CA-91 (l’autoroute Gardena) avec le pilote automatique engagé juste avant l’incident. Alors que les rapports selon lesquels Riad a « quitté » l’autoroute pourraient être interprétés à tort comme impliquant qu’il a en quelque sorte perdu le contrôle et a quitté le bord de la route, ce n’est pas ce qui s’est passé; l’autoroute s’est simplement terminée.
Comme beaucoup d’autoroutes urbaines incomplètes aux États-Unis, la 91 n’est pas simplement une impasse au terminus de son itinéraire. Au lieu de cela, il devient une rue de surface semi-divisée nommée Artesia Boulevard. Voici à quoi cela ressemble sur Google Maps :
Ce qui s’est passé précisément à l’intérieur de la Tesla de Riad alors qu’elle traversait ces quelques centaines de mètres d’autoroute peut rester à jamais un mystère, mais ce qui s’est passé ensuite est bien documenté. Riad aurait allumé le feu rouge au premier croisement nord-sud (Vermont Avenue), heurtant une Honda Civic avec Gilberto Alcazar Lopez et Maria Guadalupe Nieves-Lopez à bord. Tous deux sont morts sur les lieux. Riad et un passager de la Tesla ont été hospitalisés pour des blessures ne mettant pas leur vie en danger.
Lorsque le crash de 91-Artesia s’est produit, le pilote automatique n’était pas un élément principal de l’histoire. Cela s’est produit plus récemment, lorsque les autorités ont annoncé que Riad ferait face à deux accusations d’homicide involontaire coupable d’un véhicule – les premières accusations de crime déposées contre un propriétaire privé qui s’est écrasé alors qu’il utilisait un système de conduite automatisé. Mais le pilote automatique est-il vraiment le problème dans ce cas ?
Le pilote automatique est un système d’aide à la conduite sur autoroute. Bien qu’il puisse suivre les voies, surveiller et ajuster la vitesse, fusionner, dépasser le trafic plus lent et même sortir de l’autoroute, ce n’est pas une suite entièrement autonome. Il n’était pas destiné à détecter, comprendre ou s’arrêter aux feux rouges (bien que cette fonctionnalité soit apparue après le crash de 91-Artesia). Les autoroutes n’en ont pas. Ainsi, si le pilote automatique était activé lorsque l’accident s’est produit, cela signifie qu’il fonctionnait en dehors de son cas d’utilisation prescrit. Négocier les dangers des rues de surface est une tâche pour le logiciel Full Self-Driving de Tesla – ou du moins ce le sera quand il cessera de se heurter à des choses, ce que le PDG de Tesla, Elon Musk, a prédit se produira chaque année depuis plusieurs années.
En attendant, des situations comme celle-ci montrent à quel point l’écart est grand entre ce que nous attendons intuitivement des voitures autonomes et ce que la technologie est actuellement capable de fournir. Jusqu’à ce que Riad « quitte » l’autoroute, il était parfaitement raisonnable de laisser le pilote automatique faire le travail occupé. À l’ouest du 110, c’est devenu une erreur tragique, à la fois mortelle et bouleversante. Et évitable, avec juste un peu d’attention et d’intervention humaine – les deux choses que les logiciels de conduite autonome cherchent à rendre redondantes.
Je n’étais pas dans cette Tesla en 2019. Je ne sais pas pourquoi Riad n’a pas agi pour empêcher la collision. Mais je sais que les suites semi-autonomes nécessitent un niveau d’attention équivalent à ce qu’il faut pour conduire une voiture. Le jugement humain – le logiciel de sécurité des processus défectueux et supposément peu fiable propose d’éliminer – est encore plus critique lors de l’utilisation de ces suites qu’il ne l’était auparavant, en particulier compte tenu de l’état de l’infrastructure américaine.
Cet incident démontre de manière convaincante que les véhicules autonomes ne seront pas seulement aux prises avec des marquages au sol mal peints et des réflecteurs manquants. Les conceptions mêmes de bon nombre de nos systèmes routiers sont intrinsèquement difficiles à usiner et intelligences humaines. Et j’utilise le terme « conception » de manière vague et avec tout le respect du monde pour les ingénieurs civils qui se débrouillent avec ce qu’on leur donne. Qu’on le veuille ou non, les charlataneries d’infrastructure comme l’échangeur 91/110/Artesia Blvd ne sont pas rares dans le réseau routier américain. Vous ne me croyez pas ? Voici quatre autres exemples de ce genre de sottises, qui me viennent à l’esprit :
Si vous avez déjà conduit sur une grande autoroute urbaine ou suburbaine aux États-Unis, vous connaissez probablement au moins une impasse d’autoroute tout aussi abrupte. Une signalisation plus visible avertissant d’un changement de trafic aussi important profiterait aux conducteurs, humains et artificiels (à condition que l’IA sache ce qu’ils signifient). Et bon nombre de ces projets d’autoroutes n’ont jamais eu d’activité autorisée en premier lieu. Mais ce sont les deux arguments (longs, qui divisent) pour une autre fois. Il en va de même pour toute notion réelle de culpabilité liée aux infrastructures ou aux systèmes de conduite autonome. Même avec le « conducteur » humain complètement retiré de l’équation dans ce cas, ni l’infrastructure ni l’autonomie ne seraient à blâmer, au sens le plus strict. Ce ne sont que deux choses en désaccord – et peut-être finalement incompatibles – l’une avec l’autre.
Dans le climat actuel, Riad sera traité comme tout autre conducteur le serait (et devrait) dans les circonstances. Le degré de responsabilité sera déterminé de la même manière qu’il l’est toujours. Le chauffeur était-il distrait ? Ivre? Fatigué? Téméraire? Que nous puissions faire confiance à la technologie pour faire le travail à notre place n’est pas à l’épreuve ici. Pas encore. Il existe de nombreuses raisons pour lesquelles les systèmes de conduite automatisée sont controversés, mais l’élément d’autonomie qui m’intéresse le plus, personnellement, est la responsabilité. Si vous êtes un conducteur en Amérique, la responsabilité s’arrête généralement à vous. Oui, il peut y avoir des circonstances atténuantes, des défauts ou d’autres facteurs contributifs à un accident, mais la responsabilité d’un accident incombe presque toujours au conducteur fautif – une définition contestée par les voitures autonomes.
J’ai déjà plaisanté en disant que nous pourrions éventuellement nous ennuyer à mort au volant de voitures autonomes, mais en attendant, nous allons être suspendus sur Red Bull et 5-Hour Energy en essayant juste de garder un œil sur notre électronique nounous. Auparavant, nous n’avions qu’à nous remettre en question. Nous devons maintenant gérer une intelligence artificielle qui, bien qu’elle soit supérieure à un cerveau humain à certains égards, échoue dans certaines des tâches les plus élémentaires. Le FSD de Tesla peut à peine réussir un test de conduite de base pour conducteur, et même cela nécessite une intervention humaine. Tesla lui a même appris à prendre des raccourcis comme un humain paresseux. Et maintenant, il existe des preuves statistiques que les machines ne sont pas plus sûres après tout.
Alors, la machine est-elle meilleure pour conduire, ou le sommes-nous ? Même si la réponse était « la machine » (et ce n’est pas le cas), aucun constructeur automobile ne propose de couvrir vos frais juridiques si votre véhicule semi-autonome tue quelqu’un. Considérez toute technologie de conduite autonome comme étant au mieux expérimentale et traitez-la en conséquence. La responsabilité s’arrête toujours avec vous.