voiture-autonome-moral-machine-test

Avec l’intelligence artificielle qui prendra de plus en plus de place dans l’avenir, notamment pour permettre à des véhicules autonomes de se faire une place dans la société, des chercheurs du MIT se sont demandé s’il était possible de donner un « sens moral » à l’IA. Pour ce faire, en 2014, des chercheurs du MIT Media Lab ont conçu une expérience appelée « Moral Machine« .

Une expérience appelée « Moral Machine »

L’idée était de créer une plate-forme semblable à un jeu qui aurait pour effet de centraliser les décisions des gens sur la manière dont les voitures autonomes devraient donner la priorité à la vie dans différents scénarios du «problème du tramway». Dans ce processus, les données générées donneraient un aperçu des priorités éthiques collectives de différentes cultures.

Les chercheurs n’ont jamais prédit l’accueil viral de cette expérience. Quatre ans après la mise en ligne de la plate-forme, des millions de personnes dans 233 pays et territoires ont enregistré 40 millions de décisions, ce qui en fait l’une des plus grandes études jamais réalisées sur les préférences morales mondiales.

Un nouvel article publié dans Nature présente l’analyse de ces données et révèle à quel point l’éthique transculturelle diffère en fonction de la culture, de l’économie et de la localisation géographique.

Le problème classique de problème du tramway est le suivant: vous voyez un chariot en fuite qui fonce sur les voies, sur le point de frapper et de tuer cinq personnes. Vous avez accès à un levier qui pourrait faire basculer le chariot sur une autre voie, où une personne différente serait tuée. Devez-vous tirer le levier et mettre fin à une vie pour en épargner cinq?

Qui devrait être épargné ?

The Moral Machine s’est inspiré de cette idée pour tester neuf comparaisons différentes qui polarisent les gens: si une voiture autonome était sur la route, en priorité qui devrait être épargné: les humains aux animaux de compagnie, les passagers aux piétons, plus de vies à moins de personnes, les femmes plus que les hommes, les plus jeunes, les plus vieux, les plus maladifs, ceux ayant statut un social plus bas, ceux respectant la loi sur les passages réservés aux piétons ? Puis, la voiture devrait-elle dévier (agir) ou maintenir la même direction (inaction)?

test-moral-machine-mitUn exemple du problème du tramway présenté aux participants.

Des résultats corrélés avec la culture et l’économie

Plutôt que de proposer des comparaisons individuelles, l’expérience a présenté aux participants diverses combinaisons, notamment si une voiture autonome devait continuer à tuer trois piétons âgés ou percuter une barricade pour tuer trois jeunes passagers.

Les chercheurs ont constaté que les préférences des pays différaient beaucoup, mais qu’elles étaient également fortement corrélées avec la culture et l’économie. Par exemple, les participants de cultures collectivistes comme la Chine et le Japon étaient moins enclins à épargner les jeunes que les plus âgés – ils ont émis une hypothèse pour expliquer ce résultat; l’importance accordée au respect des personnes âgées dans ces pays.

De même, les participants des pays pauvres dotés d’institutions plus faibles étaient plus tolérants à l’égard des piétons indisciplinés que des piétons qui traversent légalement une rue, et les participants des pays avec un niveau élevé d’inégalité économique montraient des écarts plus grands entre le traitement des individus avec un statut social élevé et bas.

En outre, en ce qui concerne la question essentielle du problème du tramway, les chercheurs ont découvert que le nombre considérable de personnes en danger n’était pas toujours le facteur dominant dans le choix du groupe à épargner. Les résultats ont démontré que les participants de cultures individualistes, comme le Royaume-Uni et les États-Unis, mettaient davantage l’accent sur le fait d’épargner davantage de vies que tous les autres choix – peut-être, selon les auteurs, en raison de la plus grande importance accordée à la valeur de chaque individu.

Les pays proches les uns des autres ont également manifesté des préférences morales plus étroites, avec trois groupes dominants situés à l’ouest, à l’est et au sud.

Les chercheurs ont reconnu que les résultats pourraient être faussés, étant donné que les participants à l’étude étaient eux-mêmes sélectionnés et donc plus susceptibles d’être connectés à internet, de bénéficier d’un statut social élevé et d’être au fait des technologies. Mais ceux qui sont intéressés à conduire des voitures autonomes pourraient aussi avoir ces caractéristiques.

Une étude intéressante pour les pays qui testent des voitures autonomes

Cette étude a des implications intéressantes pour les pays qui testent actuellement des voitures autonomes, car ces préférences pourraient jouer un rôle dans la conception et la réglementation de ces véhicules. Les constructeurs automobiles peuvent par exemple constater que les consommateurs chinois entreraient plus facilement dans une voiture qui se protégeait des piétons.

Mais les auteurs de l’étude ont souligné que les résultats ne sont pas censés dicter la manière dont les différents pays doivent agir. En fait, dans certains cas, les auteurs ont estimé que les technologues et les décideurs devraient avoir priorité sur l’opinion publique. Edmond Awad, un auteur de cette étude, a donné l’exemple de la comparaison du statut social. « Il semble préoccupant que les gens aient considéré qu’il était correct de ménager une personne au statut élevé au détriment d’une autre au statut inférieur », a-t-il déclaré.

Awad espère que ces résultats aideront également les technologues à approfondir leur réflexion sur l’éthique de l’IA au-delà des voitures autonomes. « Nous avons utilisé ce problème du tramway parce que c’est un très bon moyen de collecter ces données, mais nous espérons que la discussion sur l’éthique ne restera pas dans ce thème », a-t-il déclaré.

L’analyse des risques

«La discussion devrait passer par l’analyse des risques – déterminer qui est le plus ou le moins risqué – au lieu de dire qui va mourir ou non, mais aussi de savoir comment les biais se produisent et comment ces résultats pourraient se traduire par une conception et une réglementation plus éthiques de l’IA, qui est d’ailleurs quelque chose qu’il espère davantage étudier à l’avenir.

«Ces deux dernières années, plus de gens ont commencé à parler de l’éthique de l’IA», a déclaré Awad. «De plus en plus de personnes ont commencé à prendre conscience du fait que l’IA pouvait avoir différentes conséquences éthiques sur différents groupes de personnes. Le fait que nous voyions des gens s’engager dans cette affaire — je pense que c’est quelque chose de prometteur.”

Source : MIT Technology Review