Connect with us

Intelligence artificielle

Comment les conducteurs humains se comparent-ils aux véhicules autonomes ?

mm

Les recherches suggèrent que les véhicules autonomes sont impliqués dans des accidents beaucoup moins souvent que les conducteurs humains. Est-ce parce que la technologie est vraiment supérieure ? Ou est-ce parce qu’il y a beaucoup moins de voitures sans conducteur que de personnes ? 

Le débat sur la sécurité des véhicules autonomes

Les données suggèrent que les véhicules autonomes sont beaucoup plus sûrs que les conducteurs humains. Par exemple, sur 25 des collisions les plus graves de Waymo, 17 impliquaient un conducteur humain qui a heurté une voiture sans conducteur par derrière. Cela indique que les gens sont responsables de la plupart des accidents qui causent des blessures importantes. 

Cependant, cela ne signifie pas que les voitures sans conducteur ne font jamais d’erreurs ou n’ont pas d’incidents rapprochés. Elles conduisent dans le mauvais sens sur une rue à sens unique, restent coincées dans des boucles infinies dans les giratoires et mal classifient les dangers de la route, nécessitant une intervention. 

À partir de 2026, la National Highway Traffic Safety Administration (NHTSA) a lancé une enquête sur Waymo après avoir reçu 22 rapports de ses voitures sans conducteur qui ont eu des accidents ou enfreint les lois de la route. L’agence enquête également sur Tesla, qui a été impliquée dans 467 accidents ayant entraîné 54 blessures et 14 décès en 2024, et sur General Motors’ Cruise LLC pour des infractions similaires.

La NHTSA a une tolérance zéro pour les erreurs car cette technologie n’est pas encore éprouvée. Même si les bogues de logiciel et les erreurs de classification sont susceptibles de se produire pendant la phase de mise en œuvre initiale, elle doit être stricte pour assurer la sécurité des gens. 

Les forces et les faiblesses de chaque type de conducteur

La technologie de conduite autonome existe depuis plus d’une décennie, mais les véhicules étaient prêts pour la route depuis des années. Par exemple, même si Waymo a été fondée en 2009, elle n’a obtenu l’approbation réglementaire pour étendre son service de voiture sans conducteur aux autoroutes qu’en décembre 2025. 

Jusqu’alors, la plupart des trajets de l’entreprise de voitures sans conducteur se composaient de miles en ville dans cinq zones métropolitaines clés — Los Angeles, Phoenix, la région de la baie de San Francisco, Atlanta et Austin. Les citoyens inquiets craignent que la probabilité d’un accident de voiture mortel n’augmente considérablement puisque les vitesses sont beaucoup plus élevées sur les autoroutes. 

À mesure que les véhicules autonomes s’étendent à de nouveaux territoires, ils doivent s’adapter à de nouvelles conditions de conduite. La plupart sont au niveau 2 et ne proposent que le pilote d’autoroute. Peu de systèmes peuvent gérer tous les aspects de la conduite. Les niveaux 4 et 5, qui représentent une automatisation élevée et complète, respectivement, ne sont pas encore disponibles.

Certaines voitures utilisent un ensemble d’appareils photo au lieu du LiDAR, une méthode de détection qui utilise des impulsions de lumière laser pour mesurer les distances aux objets. Une approche basée uniquement sur la vision les rend vulnérables aux conditions météorologiques et routières changeantes. Le brouillard, la pluie forte et l’éblouissement peuvent altérer leur perception. À comparer, les conducteurs humains peuvent compter sur leurs autres sens, y compris le bon sens.

Cependant, ils ne peuvent pas se comparer au LiDAR. Même si ce n’est pas universellement meilleur, la cartographie tridimensionnelle permet aux voitures de performer bien dans des conditions où les humains pourraient avoir du mal, comme dans l’obscurité ou l’éblouissement. Une combinaison de vision et de données spatiales est idéale. 

Les conséquences de la défaillance de la technologie

Même avec le LiDAR, les ensembles d’appareils photo et la prise de décision basée sur l’intelligence artificielle, les véhicules sans conducteur font encore des erreurs. Cela peut être relativement rare, mais cela se produit. Les bogues de logiciel peuvent causer à une voiture de confondre un piéton avec un nid-de-poule. Les défauts de capteur peuvent amener une voiture sans conducteur à confondre la voie droite avec un trottoir. Ces situations ne sont pas entièrement hypothétiques. 

Malgré les mises à jour de logiciel et un rappel volontaire, les voitures sans conducteur de Waymo ont répétivement enfreint les lois de la route. D’août 2025 à novembre 2025, elles ont illégalement dépassé des autobus scolaires 1,5 fois par semaine en moyenne dans un seul district scolaire. En décembre 2025, après avoir reçu sa 20e infraction du district scolaire indépendant d’Austin, l’école a publié des vidéos des incidents. Ce n’est qu’alors que Waymo a annoncé qu’il allait rappeler volontairement certains véhicules. 

Les deux douzaines d’incidents de Waymo pâlissent en comparaison des plus de 7 000 citations que le district a délivrées à des conducteurs humains dans la même période. Cependant, l’adjoint au chef Travis Pickford du département de police d’Austin a déclaré que 98 % des personnes qui reçoivent une infraction ne reçoivent pas une autre. Pendant ce temps, les véhicules de Waymo continuaient à passer illégalement les autobus scolaires semaine après semaine. 

Si une personne passait répétitivement un autobus scolaire arrêté, mettant en danger la sécurité des enfants de l’école, elle se verrait retirer son permis de conduire. Lorsqu’une voiture sans conducteur le fait, les ingénieurs ne peuvent que pousser une mise à jour et espérer que cela résoudra le problème. Techniquement, la NHTSA pourrait retirer son autorisation de circuler dans la ville. Cependant, ils sont plus susceptibles de prononcer une amende. 

Parfois, les consommateurs prennent les choses en main. Tesla a été poursuivi à plusieurs reprises pour des blessures et des décès liés à sa technologie d’assistance à la conduite. Des affaires comme celles-ci sont souvent réglées avant d’aller au procès, mais les jurés ont déjà accordé des dommages-intérêts.

La perception publique des véhicules autonomes

Une étude avec plus de 5 000 répondants a constaté que les gens sont plus susceptibles de se concentrer sur le rôle d’un véhicule autonome dans un accident, même s’il n’était pas en faute. De plus, ils sont légèrement plus susceptibles de soutenir une action en justice contre le fabricant. 

Les entreprises de voitures sans conducteur ont publié des rapports démontrant leur supériorité en matière de sécurité. Certaines études indépendantes soutiennent même leurs allégations. Si les données montrent que les voitures sans conducteur sont plus sûres que leurs homologues humains, pourquoi les gens sont-ils plus critiques à leur égard ?

Tout d’abord, les voitures sans conducteur peuvent être beaucoup moins susceptibles de se retrouver dans des accidents simplement parce qu’il y en a moins que d’humains — en 2025, il y avait 34 340 véhicules autonomes sur la route. Avec plus de 242 millions de conducteurs autorisés partageant la route, cela signifie qu’il y avait environ 7 047 conducteurs humains pour chaque voiture sans conducteur. 

Il y a également un effet psychologique. Si une personne a un accident, les gens ont quelqu’un à blâmer. S’ils conduisaient de manière distraite ou sous l’influence, des interventions ordonnées par le tribunal peuvent les empêcher de répéter la même erreur. 

Les véhicules autonomes partagent un logiciel, donc si l’un d’eux fait une erreur, ils peuvent tous la répéter. De plus, il peut être difficile d’identifier la cause profonde — les bogues de logiciel et les défauts de capteur sont plus difficiles à identifier que les signes d’une conduite sous l’influence ou distraite. 

La fiabilité des données de sécurité rapportées par les entreprises

Les données de sécurité et de performance rapportées par les entreprises de voitures sans conducteur font paraître leur technologie beaucoup plus supérieure aux conducteurs humains, mais cela peut être biaisé. Ce ne serait pas la première fois qu’ils publient des informations fausses ou trompeuses. 

En octobre 2023, un véhicule autonome Cruise a heurté une piéton qui avait été projetée sur son chemin par une voiture conduite par un humain. Il a ensuite traîné pendant plus de 20 pieds au lieu de faire un arrêt d’urgence. Lors du dépôt d’un rapport d’incident, Cruise a omis ce fait. 

Lors d’un appel avec la NHTSA le lendemain, les détails du traînage étaient absents de la synthèse verbale de l’entreprise. Ils ont même montré une vidéo de l’accident sans cette partie. Lorsqu’ils ont soumis leur rapport officiel cet après-midi-là, il n’y avait toujours pas mention du traînage. Ils ont finalement été condamnés à une amende pour avoir soumis un rapport faux pour influencer une enquête fédérale. 

Cet incident ne prouve pas que tous les fabricants ont des intentions malveillantes. Cependant, prendre toutes les données — en particulier les rapports basés sur de petits échantillons ou rédigés par des employés d’entreprises de voitures sans conducteur — à leur valeur faciale pourrait avoir des conséquences catastrophiques. 

Comment instaurer la confiance dans les voitures sans conducteur

Au lieu de se précipiter pour être le premier à dévoiler et approuver la dernière technologie de conduite autonome, les constructeurs automobiles et les législateurs devraient freiner. La sécurité devrait être la priorité, même si cela signifie garer les voitures sans conducteur pendant un certain temps. 

Intégrer une intelligence artificielle avancée pourrait répondre aux préoccupations des gens. Cela pourrait prendre des décisions intelligentes et sensibles au contexte en temps réel. Les voitures auraient besoin de compter sur des serveurs de bord — des serveurs situés au bord du réseau, près des utilisateurs — pour réduire la latence. Cela nécessiterait un investissement important à l’avance, mais les avantages pourraient être substantiels.

Cette approche peut également avoir un effet psychologique positif, car les modèles génératifs peuvent communiquer dans un langage clair. Si un accident se produit, il peut expliquer sa logique ou fournir un rapport lisible par l’homme, humanisant l’IA.

Autre que d’améliorer la technologie de conduite autonome, la meilleure façon d’instaurer la confiance du public est de tirer parti de simulations rigoureuses, de scénarios de formation et de tests. Plus les gens ont de données vérifiables, plus ils sont susceptibles de faire confiance à cette technologie. 

Améliorer la sécurité et les performances des voitures sans conducteur

Les entreprises de voitures sans conducteur sont tenues de signaler les accidents aux agences gouvernementales, donc le public aura toujours une idée de la sécurité des véhicules autonomes. À mesure que cette technologie devient plus courante, les gens auront plus de données historiques pour s’appuyer, leur permettant de voir les tendances et de prédire les changements futurs. 

Plus tôt les constructeurs automobiles investissent dans la sécurité, mieux ces données seront. Les décideurs devraient envisager d’utiliser une intelligence artificielle avancée et des simulations de formation réalistes pour optimiser la sécurité et les performances.

Zac Amos est un écrivain technique qui se concentre sur l'intelligence artificielle. Il est également le rédacteur en chef des fonctionnalités chez ReHack, où vous pouvez lire davantage de ses travaux.