Qui sera tué par une voiture autonome ? Machine, sauvez le plus de monde possible, mais surtout, sauvez-moi !
de la technologie

Qui sera tué par une voiture autonome ? Machine, sauvez le plus de monde possible, mais surtout, sauvez-moi !

Si une situation se présente où le système autonome d'une voiture doit faire un choix rapide de qui sacrifier en cas d'accident imminent, comment doit-il réagir ? Sacrifier des passagers pour sauver des piétons ? Si nécessaire, tuer un piéton pour épargner, par exemple, une famille de quatre personnes voyageant en voiture ? Ou peut-être devrait-il toujours se protéger d'abord ?

Alors que plus de soixante entreprises ont déjà reçu des permis de test personnels rien qu'en Californie, il est difficile de dire que l'industrie est sur le point de faire face à des dilemmes éthiques. Pour le moment, il est aux prises avec des problèmes plus fondamentaux - le fonctionnement et l'efficacité de la navigation des systèmes et simplement éviter les collisions et les événements imprévus. Dans des situations comme le meurtre récent d'un piéton en Arizona ou les accidents qui ont suivi (1), jusqu'à présent, il s'agissait uniquement de défaillances du système, et non d'une sorte de "choix éthique" de la voiture.

Sauvez les riches et les jeunes

Les problèmes liés à la prise de ces types de décisions ne sont pas des problèmes abstraits. Tout conducteur expérimenté peut le certifier. L'année dernière, des chercheurs du MIT Media Lab ont analysé plus de quarante millions de réponses de répondants du monde entier, qu'ils ont recueillies dans le cadre d'une recherche lancée en 2014. Le système de sondage qu'ils appellent la « machine éthique » a montré qu'en divers endroits du monde dans le monde, des questions similaires reçoivent des réponses différentes.

Les conclusions les plus générales sont prévisibles. Dans des situations extrêmes les gens préfèrent sauver les gens que s'occuper des animaux, dans le but de sauver autant de vies que possible, et ont tendance à être plus jeunes que les personnes âgées (2). Il existe également des préférences, mais moins évidentes, lorsqu'il s'agit de sauver les femmes par rapport aux hommes, les personnes de statut supérieur par rapport aux personnes les plus pauvres et les piétons par rapport aux passagers des voitures..

2. Qui la voiture doit-elle sauver ?

Étant donné que près d'un demi-million de répondants ont rempli des questionnaires démographiques, il a été possible de corréler leurs préférences avec l'âge, le sexe et les croyances religieuses. Les chercheurs ont conclu que ces différences "n'affectaient pas de manière significative" les décisions des gens, mais ont noté certaines influences culturelles. Les Français, par exemple, avaient tendance à peser les décisions sur la base du nombre estimé de décès, tandis qu'au Japon, l'accent était le moins mis. Pourtant, au Pays du Soleil Levant, la vie des personnes âgées est beaucoup plus valorisée qu'en Occident.

"Avant de laisser nos voitures prendre leurs propres décisions éthiques, nous devons avoir un débat mondial à ce sujet. Lorsque les entreprises travaillant sur des systèmes autonomes apprendront nos préférences, elles développeront des algorithmes éthiques dans des machines basées sur celles-ci, et les politiciens pourront commencer à introduire des dispositions légales adéquates », écrivaient les scientifiques en octobre 2018 dans Nature.

L'un des chercheurs impliqués dans l'expérience Moral Machine, Jean-François Bonnefont, a constaté que la préférence pour le sauvetage des personnes de statut supérieur (comme les cadres par rapport aux sans-abri) était alarmante. À son avis, cela est très lié à le niveau d'inégalité économique dans un pays donné. Là où les inégalités étaient plus fortes, la préférence était donnée au sacrifice des pauvres et des sans-abri.

L'une des précédentes études montrait notamment que, selon les répondants, une voiture autonome devrait protéger le plus de personnes possible, quitte à perdre des passagers. Dans le même temps, cependant, les personnes interrogées ont déclaré qu'elles n'achèteraient pas une voiture programmée de cette manière. Les chercheurs ont expliqué que alors que les gens trouvent plus éthique de sauver plus de personnes, ils sont aussi intéressés, ce qui pourrait être un signal pour les constructeurs que les clients seront réticents à acheter des voitures équipées de systèmes altruistes.. Il y a quelque temps, des représentants de la société Mercedes-Benz ont déclaré que si leur système ne sauvait qu'une seule personne, ils choisiraient le conducteur, pas le piéton. Une vague de protestations publiques a forcé l'entreprise à retirer sa déclaration. Mais les recherches montrent clairement qu'il y avait beaucoup d'hypocrisie dans cette sainte indignation.

C'est déjà le cas dans certains pays. premières tentatives de régulation juridique en champ. L'Allemagne a adopté une loi obligeant les voitures sans conducteur à éviter à tout prix les blessures ou la mort. La loi stipule également que les algorithmes ne peuvent jamais prendre de décisions en fonction de caractéristiques telles que l'âge, le sexe, la santé ou les piétons.

Audi prend les choses en main

Le concepteur n'est pas en mesure de prévoir toutes les conséquences du fonctionnement de la voiture. La réalité peut toujours fournir une combinaison de variables qui n'ont jamais été testées auparavant. Cela sape notre croyance en la possibilité de "programmer éthiquement" une machine. Il nous semble que dans les situations où une erreur se produit et qu'un drame se produit "en raison de la faute de la voiture", la responsabilité devrait incomber au fabricant et au développeur du système.

Peut-être que ce raisonnement est correct, mais peut-être pas parce qu'il était faux. Plutôt, parce qu'un mouvement a été autorisé qui n'était pas 2019% libre de la possibilité de le faire. Cela semble être la raison, et la responsabilité partagée n'est pas esquivée par l'entreprise, qui a récemment annoncé qu'elle assumerait la responsabilité des accidents impliquant un A8 de 3 ans tout en utilisant un système automatique Traffic Jam Pilot (XNUMX).

3. Interface Audi Traffic Jam Pilot

D'un autre côté, il y a des millions de personnes qui conduisent des voitures et font aussi des erreurs. Alors pourquoi les machines, qui font statistiquement beaucoup moins d'erreurs que les humains, comme en témoignent de nombreuses erreurs, devraient-elles être discriminées à cet égard ?

Si quelqu'un pense que les dilemmes de l'éthique et de la responsabilité dans le monde des véhicules autonomes sont simples, continuez à réfléchir...

Ajouter un commentaire