MétéoPolitique

Moteur de recherche
en page d'accueil

 

Retour à : Plan du site - Entrée de MétéoPolitique - Société - Fiche Consommation - Analyses & Opinions

Quand les voitures robotisées doivent tuer, qui devrait choisir la victime?

Les systèmes avancés de sécurité et d'aide à la conduite équipent de plus en plus nos véhicules.  Ils ont une mission fort importante : éviter des collisions et, surtout, sauver des vies.  De fameux avantages... qui ont aussi leurs revers.  À l'avenir, chacun de nous devra peut-être décider si sa voiture le tuera ou si elle protégera les autres personnes sur la route.

Analyses & Opinions

 
 

 

Imaginez que vous entrez dans un tunnel en conduisant votre voiture.  Devant vous, un autobus scolaire avec des enfants à bord.  Sur la voie de gauche, une seule voiture avec deux occupants vous dépasse.  Pour une raison quelconque, le bus devant vous freine et votre voiture ne peut pas ralentir assez pour éviter de s'écraser dessus.  

Vous pouvez suivre trois stratégies différentes :

  • premièrement, vous écraser dans l'autobus, ce qui peut entraîner des pertes de vie de jeunes enfants à bord.  

  • deuxièmement, éviter l’autobus en frappant la voiture qui passe sur votre gauche, en vous sauvant la vie mais en poussant l'autre voiture dans le mur, tuant peut-être ses deux passagers.  

  • troisièmement, vous pouvez vous diriger vers le côté droit du tunnel, ce qui pourrait vous tuer mais épargner tout le monde dans l'autre voiture et l'autobus.

Étant donné que toute personne confrontée à un tel dilemme réagirait par instinct pur, nous nous abstenons généralement d'attribuer une responsabilité morale à ce genre de tragédies.   Nous les considérons comme des «accidents», inévitables même, étant donné la combinaison d'un temps de réaction court et de l'incroyable quantité d'adrénaline - qu'il faut interpréter comme de la panique - appliquée dans de telles situations.

C’est un exemple du "dilemme du tramway" (trolley ou train de ville) rendu célèbre par la philosophe états-unienne Philippa Foot et repris par Judith Jarvis Thomson professeure et chercheure sur le fonctionnement de la moralité au Massachusetts Institute of Technology (MIT) . Le tramway dans la photo à droite vient de perdre ses freins.   Il y a 5 travailleurs sur la voie devant lui et un dans le tunnel.  Le conducteur a un levier pour changer la route des rails  Que faire, en tuer 5 ou 1 ? Comment votre moralité se comporterait dans un tel cas ?
Ici, pour plus de détails.

Manque d'instinct et de moralité

Les robots des voitures autonomes pourraient faire partie de notre avenir.  Un des avantages c'est qu'ils ne paniquent pas et qu'ils ne fonctionnent pas à l'adrénaline.  En fait, leur principal avantage est leur efficacité sans pitié ;  elles sont à la fois beaucoup plus rapides à réagir aux situations difficiles et totalement impassibles dans la mise en œuvre de la solution choisie.

Ce qui leur manque, cependant, c'est l'instinct et la moralité.  En d'autres termes, bien qu'ils puissent mettre en œuvre n'importe quelle décision beaucoup plus rapidement et plus efficacement que nous ne le pouvons, ils ne peuvent pas prendre les dites décisions morales.

En se référant à ce " dilemme du tramway ", les robots qui conduisent les voitures du futur doivent savoir qui sauver et qui ne pas sauver en cas d'accident.  Faute de réglementations ou de normes officielles, rappelons que nos robots ont besoin de se voir programmer un « cadre éthique ».

La plupart des discussions autour de ces futurs dilemmes éthiques se sont concentrées sur le programmateur : vous-même, le gouvernement, le fabriquant de l'appareil, une compagnie de sécurité privée ou une compagnie d'assurance qui devra programmer ces décisions de vie ou de mort dans le robot électronique de votre voiture. 

Presqu'universellement, ces agents doivent être un organisme gouvernemental ; presque personne ne pense que de telles décisions de vie ou de mort devraient être laissées aux constructeurs automobiles. 

À qui pouvez-vous faire confiance avec votre vie et celle des autres ?

Les questionnements se font plus pressants maintenant que des véhicules autonomes sont testés sur nos routes. Seriez-vous en faveur d'un cadre éthique obligatoire ?  Cela soulève une autre possibilité, devrions-nous permettre quelque chose appelé «normes d'éthique personnelle» ou «devrait-on nous imposer collectivement un cadre éthique spécifique pour l'ensemble de la société, ou chaque conducteur devrait-il avoir le pouvoir de choisir son propre cadre éthique?  En d'autres termes, chacun de nous, en tant que propriétaire de la voiture en question, devrait-il être autorisé à donner à sa voiture ses propres normes de sécurité personnelles?  Ou devrions-nous permettre à "Big Brother (L'État)" de prendre la décision à notre place ?

Des étudiants diplômés de la TUM School of Management de Munich et un membre du corps professoral de l'Université Brown travaillant à l'intersection entre la philosophie politique et l'économie - proposent de manière prévisible des normes d'éthique obligatoires déterminées par les mandarins du gouvernement.

Les solutions éthiques obligatoires (c'est-à-dire les décisions altruistes fondées sur le fait de sauver le maximum de vies) sont, bien sûr, plus efficaces, sans parler de beaucoup plus acceptables pour les «extraits sonores» de 15 secondes et les tweets de 280 caractères qui passent pour de la communication politique ces jours-ci.

Mais l'établissement d'une réglementation stricte et efficace sera difficile.  Avez-vous déjà lu les tenants et aboutissants d'un décret gouvernemental typique ?  Il y aura des failles et des injustices dans lesquelles vous pourriez conduire un camion Mack le jour et une petite hybride à deux places le soir sans avoir la même configuration éthique dans les deux robots, car un serait la propriété de votre patron. 

Le gouvernement ferait-il une différence de programmation du robot pour le cas d'un grand-père vieillissant qui pourrait accepter, compte tenu de son âge avancé, de placer les véhicules monoplaces au bas des priorités « à éviter ».    Mais qu'en est-il du père qui est le seul soutien d'une famille de cinq personnes ?  Et, si nous chargeons effectivement notre gouvernement d'établir des normes éthiques obligatoires pour nos voitures, qui dans l'appareil d'État prendra ces décisions de vie ou de mort?

Montrez-moi un politicien prêt à accepter la responsabilité de qui vit et qui meurt et je vous montrerai la personne la moins éligible qui ait jamais été candidate à une fonction publique.

 
«

MÊME LA MAGIE DE L'INTELLIGENCE ARTIFICIELLE NE VA PAS NOUS SAUVER DE PROGRAMMER NOS VOITURES AVEC UN CODE D'ÉTHIQUE DE BASE.

»
 

 

Plus important encore, les constructeurs automobiles ne vendront jamais une voiture avec un ordinateur préprogrammé qui pourrait, dans certaines circonstances au moins, choisir de sacrifier le conducteur qui a acheté leur véhicule plutôt que d'autres automobilistes ou piétons.

En fait, nous pouvons constater que tous les futuristes promouvant le « plus grand bien » des automobiles autonomes - ne parviennent pas à aborder la simple question de savoir qui, dans leur esprit, va payer des dizaines de milliers de dollars pour une voiture qui pourrait un jour décider délibérément les tuer.

Même la magie de l'intelligence artificielle ne nous évitera pas de programmer nos voitures avec un code d'éthique de base.  Ainsi, malgré les nombreux inconvénients au fait de permettre aux conducteurs individuels de choisir leurs propres normes d'éthique personnelle - dans ce qu'on appelle le dilemme du prisonnier, les chercheurs postulent que les normes d'éthique personnelle finiront par se transformer en chaque personne pour elle-même - je soupçonne que, si l'autonomie automobile est en effet dans notre avenir, les conducteurs individuels devront faire leurs propres choix.

Les normes éthiques obligatoires universelles pour nos automobiles exigeraient que nous nous entendions tous sur qui devrait vivre et qui devrait mourir.  Considérant que nous ne pouvons même pas nous entendre sur quelque chose d'aussi simple que de rendre imposables les gains en capital sur nos maisons, un sujet qui devrait faire partie de la grande "réinitialisation économique " prônée par Justin Trudeau, les chances d'une approbation généralisée sur une question aussi importante semble vraiment lointaine.

Mais ce qui rend cette question des normes d'éthique personnelle pour les automobiles très intéressante, c'est qu'elle nous permet de nous questionner individuellement sur les mœurs des consommateurs et de l'industrie de l'automobile face à la modernité renouvelée de notre société.

Légion sont ceux qui proclament fièrement que nous vivons à une époque de plus en plus douce - plus éclairée que n'importe quelle génération précédente.  En supposant que nous soyons autorisés à programmer ces normes d'éthique personnelle, nos voitures deviendront des « procurations morales ».   En d’autres termes, en choisissant les normes pour les systèmes avancés d'aide à la conduite pour nos voitures, nous découvrirons enfin à quel point nous sommes vraiment altruistes - ou pas.

Je ne sais pas pour vous, mais je trouve cela plus pratique que tout problème théorique impliquant des tramways.

 

Notes & Références encyclopédiques:

Comment votre moralité se comporterait dans un tel cas ?
 

Le dilemme du tramway sur Wikipédia en français.

Pour une analyse de la situation par Judith Jarvis Thomson "The trolley problem" en anglais cliquez ici.  Source: The Yale Law Journal Vol. 94: 1395, 1985

 

Retour au texte

qui va payer des dizaines de milliers de dollars pour une voiture qui pourrait un jour décider délibérément de les tuer...
 

Premier accident mortel d'une voiture autonome.  Le premier accident mortel d'une voiture autonome est survenu le 7 mai 2016 sur une route de la Floride, aux États-Unis.

Au moment de l'accident, la voiture de marque Tesla roulait grâce au système d'aide à la conduite Autopilot. Un Américain de 40 ans est mort des suites de ses blessures. Véritable adepte des voitures Tesla, Joshua Brown était assis sur le siège du conducteur sans toutefois avoir le contrôle de la voiture.

L'agence américaine de la sécurité routière (NHTSA) a mentionné que la voiture à bord de laquelle il se trouvait est entrée en collision avec un camion qui venait en sens inverse et qui a effectué un virage à gauche, devant la Tesla.

Ironiquement, Joshua Brown diffusait sur YouTube des vidéos sur les fonctionnalités de ces nouvelles voitures dites intelligentes.Source: Société Canadian Broadcasting Corporation (CBC)/Radio-Canada financée par le gouvernement du Canada. Publication le 1er juillet 2016.

 

Retour au texte

un sujet qui devrait faire partie de la grande "réinitialisation économique" prônée par Justin Trudeau...
 

Le grand « reset » est officiellement admis par le FMI

C’était en 2014 et les dirigeants de l’Occident sont pleinement informés de ce qu'il va se passer dans les années à venir et nous allons vivre en vrai une grande remise à plat du système monétaire mondial car au bout du chemin, il n'y aura aucune autre solution. N'imaginez pas que cela ne sera pas douloureux. Cela le sera. Cela fera mal et encore plus aux patrimoines. En 2020, le Forum économique mondial tient sa conférence de janvier 2021 sur ce sujet.

 

Retour au texte

Choix de photos, collection de textes, mise en page, références et titrage par : JosPublic
Mise à jour le 17 septembre 2020

Sources: Driving pour Postmedia Network inc.; CAA Québec pour l'Automobile et Touring club du Québec (A.T.C.Q.)

Ci-dessous: des textes en lien direct avec le sujet:

L'état de santé de notre économie dépend de nos égoïsmes personnels
par Juan Manuel de Prada

Le prix d'achat de votre auto comprend le coût de millions d'invendus qui rouillent sur place!

Fiche:  Consommation

Retour à : Plan du site - Entrée de MétéoPolitique - Société - Fiche Consommation - Analyses & Opinions - Haut de page