Archives

Véhicules autonomes : quelle conduite adopter en cas d'accident ?

Quelle morale va-t-on inculquer aux voitures autonomes? Dans une situation d'accident, devront-elles protéger leur passager ou éviter l'enfant qui traverse la rue ? Des chercheurs ont consulté pendant un an et demi des internautes du monde entier pour avoir leur avis. Depuis 2016, une plateforme en ligne, baptisée "Moral Machine" , enregistre les choix des internautes face à différents scénarios à l'issue fatale. Les résultats de ce gigantesque test en ligne ont été publiés ce 24 octobre dans la revue Nature.
"Jamais dans l'histoire de l'Humanité, une machine n'a été autorisée à décider de façon autonome de qui devrait vivre et qui devrait mourir, en une fraction de seconde, sans supervision en temps réel", écrivent les auteurs. "Nous allons franchir ce cap à tout moment désormais". Pour ces scientifiques, il est temps d'avoir "une discussion globale" afin que les citoyens fassent connaître leurs préférences aux industriels chargés d'élaborer les algorithmes des voitures autonomes et aux décideurs.

Plus de deux millions d'internautes testés

Qui l'intelligence artificielle aux commandes de la voiture autonome devra-t-elle sacrifier lorsque l'accident sera inévitable? Entre juin 2016 et décembre 2017, plus de deux millions d'internautes de 233 pays et territoires, ont fait le test de Moral Machine, accessible en dix langues. Ils ont exprimé
40 millions de décisions. Les participants avaient sous les yeux une voiture autonome dont les freins avaient lâché. Elle devait, par exemple, choisir de foncer dans une barrière en béton au risque de tuer son ou ses passagers ou bien de faucher mortellement des animaux domestiques ou différents types de personnes en train de traverser la rue, au vert ou au rouge.
"Nous avons vu se dégager trois grands principes sur lesquels les gens s'accordent plus ou moins: protéger la vie humaine plutôt que les animaux, sauver le plus grand nombre de vies et sauver en priorité les enfants", a déclaré à l'AFP Jean-François Bonnefon, chercheur CNRS à l'Université de Toulouse. "Mais même ces trois préférences fortes peuvent varier d'un pays à un autre". "Nous nous attendions à observer un effet de l'âge des victimes potentielles, et les résultats nous ont confortés. L'effet est même plus grand que ce que nous attendions", ajoute ce psychologue.

Préférences immorales plus que morales

Les profils les plus sauvés ont été les bébés en poussette, les enfants et les femmes enceintes. Ensuite, les préférences "morales" peuvent prêter le flan à de sérieuses critiques. Ainsi, les médecins (reconnaissables à une croix blanche) et les personnes athlétiques s'en sortent bien, ils sont suivis par les cadres dirigeants (identifiables à leur attaché case). Après les chats et les chiens, puis les criminels (silhouette munie d'un butin), ce sont les personnes âgées que les internautes ont le moins épargnées, suivies des sans-abri (en guenilles), puis des personnes en surpoids. Celles-ci ont 20% de risque en plus d'être sacrifiées qu'une personne à l'allure athlétique. Et "les personnes pauvres ont 40% de probabilité de plus que les personnes riches de se faire écraser", selon le CNRS, qui y voit des "préférences morales controversées".
Les participants ont davantage épargné les piétons qui respectaient les feux que ceux qui s'en affranchissaient. C'est particulièrement net "dans les pays développés, avec des lois et des institutions fortes", notent les chercheurs.
"Si la voiture autonome est programmée de façon à désavantager les piétons indisciplinés, il faut s'attendre à ce que cela soit mieux accepté dans les pays où la loi est davantage suivie qu'ailleurs", souligne Edmond Awad, chercheur au MIT (Massachusetts Institute of Technology) et co-auteur de l'étude.
Le pays le plus engagé dans la réflexion sur l'éthique de la voiture autonome est l'Allemagne. Elle s'est dotée d'une commission qui a rendu un rapport en 2017. Il recommande de privilégier la vie humaine par rapport à celle des animaux mais il estime que toute distinction liée aux caractéristiques de la personne, comme l'âge, devrait être interdite.
"Le but n'est pas nécessairement de suivre la volonté des utilisateurs de Moral Machine mais d'avoir une vision globale des préférences morales des citoyens", soulignent les chercheurs qui restent prudents sur la représentativité des participants à l'étude.
 

 

Voir aussi

Abonnez-vous à Localtis !

Recevez le détail de notre édition quotidienne ou notre synthèse hebdomadaire sur l’actualité des politiques publiques. Merci de confirmer votre abonnement dans le mail que vous recevrez suite à votre inscription.

Découvrir Localtis