Cela fait longtemps que la voiture autonome n’est plus un fantasme de science-fiction mais une réalité. Un jour viendra où l’être humain n’aura plus à tenir le volant. Un meilleur gage de sécurité pour certains. Mais une question se pose : avons-nous vraiment envie de « perdre le contrôle du volant » ? Cette question est d’autant plus d’actualité qu’une panne d’électricité survenue à San Francisco à la mi-décembre a complètement désorienté les voitures autonomes Waymo (filiale d’Alphabet). La principale conséquence fut immédiate, un ralentissement important de la circulation à San Francisco.

Zacharie Allard-Latour
4 févr. 2026
La voiture autonome : Une idée qui remonte au milieu du 19ème siècle

Le premier modèle à poser l’idée d’une voiture autonome est le « Benz Patent Motorwagen » produit en 1885. Il constitue une révolution car c’est le premier véhicule à ne point avoir besoin de la force d’un cheval ou d’un humain pour avancer.
Néanmoins, la véritable première itération d’un véhicule autonome apparaît en 1986 sous le nom de Navlab 1. Un véhicule créé par le laboratoire de l’université Carnegie-Mellon capable de parcourir de courte distance sans intervention humaine.
Qu’est-ce qu’une voiture autonome ?
Avant toute autre considération, il faut bien définir ce que signifie un véhicule autonome. En clair, c’est un véhicule qui a la capacité de se déplacer sans l’intervention d’un conducteur humain. Cependant il existe plusieurs niveaux d’autonomie. À l’heure actuelle les robots-taxi comme Waymo sont à la quatrième étape, c’est-à-dire que le véhicule est autonome dans un cadre bien précis tel que les trajets quotidiens. Mais nous sommes encore loin du niveau 5 qui correspond à une voiture autonome capable d’avoir les mêmes capacités qu’un être humain dans n’importe quelle circonstance. Or ce passage entre la quatrième et la cinquième étape est complexe car dans le contexte actuel l’intelligence artificielle apprécie peu les situations qui sortent de son fonctionnement habituelle tel qu’un chantier mal signalé. Il faut bien garder à l’esprit que conduire requiert d'interpréter et parfois de prendre des décisions qui jouent avec la limite du code de la route. Quelque chose que l’IA est incapable de faire sans un cadre prédéfini.
Les conséquences économiques et sociales d’une telle innovation
Nous sommes désormais habitués aux problématiques sociales autour de l’IA qui remplace certaines fonctions de l’être humain. Le robot-taxi n’y échappe pas. Les premières victimes seront assurément les chauffeurs de taxi et les chauffeurs Uber. D’ailleurs, Uber ne s’y trompe pas et commence à développer sa propre flotte de voitures autonomes pour ne pas se laisser distancer par la concurrence. Il faut noter toutefois que le déploiement d’un service de robots-taxi dans une ville est très difficile et requiert des investissements élevés car chaque ville à ses propres spécificités. À moyen terme ce genre de service devrait se limiter aux très grandes villes. Mais sur le long terme le permis de conduire pourrait bien être obsolète. Certains peuvent y voir une perte de liberté mais des études faites sur les voitures autonomes montrent qu’il y a une réduction de 90% des accidents graves comparés aux véhicules avec un conducteur humain au volant selon un rapport de Swiss Re. Ainsi, la généralisation de la voiture autonome garantira plus de sécurité sur les routes à l’avenir ainsi qu’une réduction du trafic et donc de la pollution. Il n’y aurait même plus besoin de SAM.
Une dernière question : Le problème légal et moral

Si les défaillances persistent autour de la technologie de la voiture autonome, ces problèmes seront semblent-ils résolus avec le progrès. Outre les soucis d’acceptabilité face à la nouveauté, les véritables enjeux sont d’ordres éthiques et juridiques. Imaginons une voiture autonome avec à son bord un passager. Supposons qu’un enfant surgisse sur la route pour attraper la balle qu’il avait perdu. Or, la voiture autonome n’a pas le temps de freiner, deux choix s'offrent alors à elle: Soit elle esquive l’enfant sur la route avec un coup de volant et risque de mettre en péril la vie de ses occupants ou alors elle protège son passager et percute l’enfant qui a surgi sur la route. Nous faisons face ici à un cas concret de « Trolley problem » ou dilemme du tramway en français qui consiste à savoir si on sacrifie une personne pour le bien du groupe ou alors on protège un individu au détriment du groupe. La question est de savoir ce que doit faire le véhicule autonome et qui est responsable juridiquement en cas d’accident. Le problème est que si les législateurs décident que les passagers doivent être sacrifiés aux bénéfices des piétons, les personnes seront moins à même d’utiliser ce type de véhicule.
Enfin, reste la question de la cybersécurité. Est-on vraiment sûr que les voitures seront hermétiques aux piratages ? Quels pourraient être les conséquences d’un tel scénario dans un monde où les voitures autonomes seraient la norme ?
Sources :
L.Greenemeir.16 juin 2016. Driverless cars will face moral dilemmas. ScientificAmerican. https://www.scientificamerican.com/article/driverless-cars-will-face-moral-dilemmas/
29 octobre 2024. Histoire de la voiture autonome : qui l’a vraiment inventée ?. Bymycar. https://www.bymycar.fr/webzine/histoire-de-la-voiture-autonome-qui-la-vraiment-inventee/
Xavier Delmas, (2025,6 Janvier). Ce qui se joue vraiment derrière les robotaxis. Podcast audio.







