Alors que les véhicules automatisés s’apprêtent à transformer profondément nos routes, une réflexion éthique renouvelée s’impose. La promesse d’une conduite plus sûre, moins sujette à l’erreur humaine, rencontre des défis redoutables : comment programmer un système capable de décisions morales lors de situations critiques ? L’émergence de technologies développées par des acteurs comme Renault, Peugeot, Citroën, Valeo ou encore Navya, conjuguée aux enjeux sociétaux et légaux, met en lumière un débat crucial. Quel équilibre faut-il adopter entre sécurité, responsabilité et acceptation sociale pour que la voiture automatisée devienne une réalité acceptée et bénéfique ?
Décisions éthiques et dilemmes moraux dans la conduite automatisée
La montée en puissance des véhicules à conduite automatisée offre un cadre inédit pour explorer des dilemmes moraux classiques adaptés à la route. Lorsqu’un véhicule autonome est confronté à un accident inévitable, la question du choix éthique se pose avec urgence : doit-il privilégier la protection des passagers au détriment des piétons ? Faut-il favoriser la survie des plus jeunes plutôt que des personnes âgées ? Ce sont ces interrogations qui ont conduit à la collaboration entre chercheurs en intelligence artificielle et philosophes, notamment l’équipe réunie autour de Raja Chatila, Nelson de Moura, Katherine Evans et Stéphane Chauvier.
Inspirée du célèbre dilemme du trolley, la théorie de la valence éthique élaborée par cette équipe propose d’attribuer une valeur à chaque usager (piétons, cyclistes, animaux, véhicules), tenant compte de critères tels que la vulnérabilité, l’âge ou le statut. Par exemple, un enfant piéton aura une valence plus élevée qu’un adulte en deux-roues, influençant ainsi la prise de décision de l’algorithme du véhicule. Ce système est conçu pour optimiser les dommages, en considérant non seulement la gravité des blessures possibles mais aussi l’importance relative accordée à chaque individu ou groupe dans la situation donnée.
Pour illustrer, imaginons une situation où un VCA doit choisir entre heurter un cycliste ou dévier brusquement, risquant de blesser ses passagers. Le calcul probabiliste intégrant la valence éthique oriente alors la manœuvre, pondérant la vulnérabilité des personnes en jeu. Les constructeurs automobiles comme le Groupe Renault, qui investissent massivement en recherche sur l’éthique des VCA, intègrent ces modèles pour anticiper non seulement la sécurité physique mais aussi les questions morales.
Cependant, de nombreux défis persistent. La reconnaissance fiable des usagers vulnérables, comme les enfants, reste limitée par la technologie actuelle. De plus, programmer une morale dans un véhicule sans inclure de biais discriminatoires nécessite une réflexion approfondie pour éviter des facteurs sociaux ou physiques indus dans la détermination des valences.
Évolution des modèles de décision chez les spécialistes de la conduite automatisée
Durant les dernières années, les experts en intelligence artificielle tels que Nelson de Moura ont développé des algorithmes combinant la perception en temps réel et une optimisation probabiliste des trajectoires pour minimiser les dommages potentiels. Ces systèmes tiennent compte de la vitesse, la trajectoire, le trafic et la présence d’obstacles, ajustant la conduite en fonction du contexte. Cette approche permet, par exemple, à une voiture Citroën équipée de la technologie Valeo de moduler ses réactions sur autoroute, privilégiant la sécurité de tous les usagers.
Plusieurs profils de véhicules automatisés coexistent, certains dits altruistes visant à réduire l’impact global des accidents, d’autres privilégiant les passagers, tandis que des modèles utilitaristes cherchent le plus grand nombre de survivants. Les débats actuels portent sur le choix ou la combinaison de ces profils et leur implication pour la réglementation européenne, impliquant des groupes comme PSA, Bosch France et les autorités publiques.
Acceptation sociale et défis éthiques des voitures autonomes
Au-delà des calculs techniques, la dimension éthique de la voiture automatisée est aussi une question d’acceptation sociale. Une étude mondiale conduite par le Massachusetts Institute of Technology (MIT) a mis en lumière les préférences des internautes face à des scénarios extrêmes, où l’intelligence artificielle doit arbitrer des vies lors d’accidents. Cette enquête « Moral Machine » a collecté des millions de décisions, révélant que, globalement, les individus privilégient la sauvegarde des vies humaines, en particulier celles des plus jeunes.
Des résultats néanmoins contrastés apparaissent selon les régions. Par exemple, la préférence pour sauver un chien plutôt qu’un humain qui respecte mal le code de la route témoigne de conceptions culturelles différentes. Cette complexité démocratique révèle que les normes éthiques applicables aux véhicules automatisés doivent être discutées au niveau international, en considérant la diversité des valeurs sociétales.
Pour les industriels français, comme Peugeot et Navya, confrontés à ces attentes, il s’agit d’une double contrainte. Il faut non seulement perfectionner la fiabilité et la sécurité de la conduite automatisée mais également communiquer clairement sur les choix éthiques imbriqués dans leurs algorithmes, même quand ceux-ci impliquent des situations dramatiques. La transparence devient un élément-clé pour que les usagers acceptent d’avoir confiance en ces technologies.
Responsabilités et cadre juridique dans le déploiement des voitures automatisées
La responsabilité en cas d’accident impliquant un véhicule autonome complexifie les modèles traditionnels où le conducteur est automatiquement tenu pour responsable. En 2025, la législation européenne commence à intégrer ces nouvelles réalités. Déterminer si la faute revient au fabricant, au développeur de l’intelligence artificielle, ou même à l’infrastructure numérique qui soutient le véhicule connecte la voiture automatisée à un vaste écosystème de responsabilités partagées.
En France, des acteurs comme Transdev, expert en mobilité collective et connectée, travaillent avec les autorités pour établir des codes de conduite et des normes dédiées. Une attention toute particulière est portée aux règles d’éthique qui encadrent l’utilisation des données recueillies et les algorithmes de décision automatisée. Par exemple, la question demeure : un fabricant comme le Groupe Renault doit-il être tenu légalement responsable si son véhicule suit un programme moral jugé contestable ?
Pour résoudre ces enjeux, le Comité national pilote d’éthique du numérique associé à des juristes, philosophes, industriels, et chercheurs comme Raja Chatila s’engage activement dans la co-construction d’un cadre intégré. L’approche privilégie le dialogue entre la technologie, le droit et la société une nécessité d’autant plus pressante qu’avec la montée des objets connectés embarqués par Bosch France ou Valeo, la frontière entre intelligence humaine et artificielle s’estompe progressivement.