Les défis éthiques sont des situations dans lesquelles un individu doit choisir obligatoirement entre plusieurs options, aucune n’étant satisfaisante pour lui. Il en résulte un dilemme éthique. Ces situations, quoique courantes dans les vies quotidienne et professionnelle, ont été modélisées en laboratoire afin de comprendre les dynamiques comportementales et neurobiologiques. Après la réaction rapide intuitive s’installe une réaction plus lente, mêlant émotion et cognition rationnelle, le tout dans une interaction corporelle et sous la pression du stress. Une réponse non éthique à un défi peut résulter en séquelles psychiques allant de la désadaptation, au burn-out, aux sentiments de honte et de culpabilité, voire au trouble de stress post-traumatique.
Les dilemmes éthiques
Définition
Les défis éthiques sont des situations dans lesquelles un individu doit choisir entre plusieurs solutions dont aucune n’est satisfaisante. Elles violent toutes, une ou plusieurs valeurs éthiques qui fondent cet individu. Le dilemme éthique (« moral dilemmas ») naît du conflit de choix et de la nécessité d’une décision. Cependant, s’il n’y a pas de bons choix, il peut en exister des pires susceptibles de laisser des séquelles. Cette définition exclut les pseudo-dilemmes éthiques pour lesquels une bonne solution existe, mais n’est pas favorisée par l’environnement (Kvalnes, 2019).
Le caractère autoréférent de la décision éthique impose de définir l’éthique comme la manière de se comporter qui soit conforme à qui l’on pense être. Cette définition s’inscrit dans la continuité de la racine grecque « èthos » qui signifie à la fois la coutume et la manière habituelle d’être d’un individu, sa psychologie (Cassin, 2019). Il s’agit donc d’être en conformité avec soi et la coutume, c’est-à-dire les fondements implicites et explicites de la société dans laquelle nous vivons. Cette ambiguïté est lourde de potentielles dissonances éthiques.
Exemple de dilemmes éthiques
Les travaux en éthique relevant historiquement de la branche de la philosophie traitant de la morale (« ethikê ») sont maintenant rejoints par ceux développés dans le cadre de la philosophie expérimentale, de la psychologie et des neurosciences. À la réflexion philosophique s’adjoint donc son soubassement expérimental (Knobe et coll. 2012). Il en a résulté des modèles de dilemmes éthiques issus d’observations de terrain, d’expériences de pensée, voire d’expériences de laboratoire incluant des explorations cérébrales en imagerie fonctionnelle.
Le dilemme du trolley est un modèle classique proposé par la philosophe britanno-américaine Philippa Foot comme illustration d’un dilemme éthique d’obstétrique « sauvez la mère ou l’enfant » : « Vous conduisez un trolley incontrôlable et vous arrivez à un embranchement, mais des hommes travaillent sur les voies de gauche et de droite. » (Foot, 1967). Le problème a été secondairement complexifié (Andrade, 2019) : « Une personne travaille sur la voie de droite, mais cinq personnes travaillent sur la voie de gauche. Ces personnes sont loin mais distinguables et il est certain que le trolley tuera celles qu’il rencontrera. Le sujet, posté sur un pont qui domine l’aiguillage, peut choisir la voie qu’empruntera le trolley. Cependant, si le trolley file inéluctablement vers la voie où cinq personnes travaillent, le sujet peut pousser du pont une personne dont la chute arrêtera le trolley de manière certaine. » Chaque situation est un dilemme, car aucune des solutions proposées n’est satisfaisante. Il apparaît une décision dite utilitariste pour laquelle le compte de morts prévaut et une réponse déontologique pour laquelle l’impossibilité de sacrifier un homme prévaut. Dans tous les cas, les éléments du contexte ont une importance cruciale.
L’expérience de Stanley Milgram est un autre exemple de dilemme éthique, même si l’expérience originelle avait été conçue pour étudier l’obéissance à l’autorité (Milgram, 1974 ; Terestchenko & Fazzi, 2013). « Un sujet est recruté pour participer à une expérimentation scientifique. Il prend le rôle d’un expérimentateur sous le contrôle d’une autorité. Il soumet un élève à une batterie de questions et lui applique un choc électrique à chaque mauvaise réponse. L’intensité du choc croît avec le nombre d’erreurs. L’élève est un acteur qui donne intentionnellement des réponses inadéquates et simule la douleur à la hauteur de l’intensité électrique. L’expérience s’arrête dès que le sujet refuse ou arrête l’expérimentation. ». Le dilemme éthique est le suivant : s’arrêter et violer l’engagement de participation ou poursuivre et faire souffrir excessivement l’élève. Ce dilemme est d’autant plus important qu’il se renouvelle à chaque pas d’intensité électrique. Avant l’arrêt, le sujet négocie des solutions alternatives avec l’élève (il encourage, souffle les réponses) ou l’autorité (il demande des autorisations d’arrêt) et présente des réactions de stress parfois intenses. L’autorité s’oppose à l’arrêt et maintient la pérennité du dilemme jusqu’à la révolte du sujet. Ce modèle, largement répliqué, permet de comprendre le rôle capital du contexte, l’impact de la personnalité et les interactions sociales à l’œuvre. Cependant, il n’est pas sans poser de problèmes éthiques : le sujet qui croit à la situation et peut en souffrir, même s’il discute avec l’équipe de Stanley Milgram en fin d’expérimentation.
L’ensemble des dilemmes éthiques se base sur des conflits impersonnels (le trolley) ou personnels (devoir tuer pour se sauver), sur des violations des normes sociales ou les conflits d’intérêts. Créer de nouveaux dilemmes mieux adaptés au cadre militaire est possible à partir de ces catégories et des observations de terrain, que ce soit pour les combattants (e.g. tirer ou non sur un enfant-soldat, risquer l’individuel pour sauver le collectif) ou les personnels soignants militaires soumis à une double loyauté (médecins vs militaires) et une double finalité (l’individu vs la collectivité).
La réponse du cerveau
Les neurosciences apportent des éclairages fonctionnels à ces expériences de dilemme éthique. Cependant, la complexité des mécanismes (Figure n° 1) fait ressembler la réponse du cerveau à une gigantesque matrice dans laquelle interviennent le temps (réponses rapides vs lentes) et les voies de codage (codage de l’émotion, de la rationalité, du conflit, de la décision, etc.). La dichotomie temporelle a été théorisée comme « expérience vs rationalité » (Epstein, 2003), voie cérébrale ventrale vs dorsale (LeDoux, 1998), et plus généralement comme « Système 1 vs Système 2 » (Kahneman, 2016).
Les réponses rapides apportées par l’expérience ou le Système 1 sont des décisions inconscientes, spontanées, peu consommatrices de ressources psychiques, associatives, mais dépendantes du contexte et peu fiables. Elles correspondent à la cognition implicite avec ses biais cognitifs et ses préjugés, mais aussi aux habitudes, à l’expertise et l’intuition. Dans le champ de l’éthique, l’intuition est définie comme une décision rapide, inconsciente, intégrative, affectivement marquée, mais engageant peu de stress (Hodgkinson et coll., 2008). Elle détecte dans le contexte une cohérence et engage une réponse adaptée à l’évaluation a priori. Si elle n’est pas stricto sensu le support du conflit éthique, elle en est le premier pas. L’intuition engage de nombreuses zones cérébrales, sous-corticales (amygdales), mais aussi corticales (insula intégrant les informations corporelles ; aires préfrontales médianes, ventrolatérales bilatérales et dorsolatérale gauche intégrant les informations émotionnelles et rationnelles) (Forbes & Grafman, 2010). L’intuition est donc le lieu d’une fusion informationnelle émotionnelle et rationnelle. Elle diffère cependant des processus lents, car elle implique les cortex pariétal inférieur et temporal supérieur (Ilg et coll., 2007), et des décisions provoquées par la pré-exposition à l’information, tout aussi inconscientes, mais pour lesquelles le complexe temporo-occipital est désactivé (Zander et coll., 2016).
Les réponses lentes apportées par la rationalité ou le Système 2 sont largement conscientes, indépendantes du contexte, mais guidées par des règles, élaborées, analytiques et explicites, et donc plus consommatrices de ressources. La gestion du conflit éthique inclut une phase de raisonnement impliquant les gyrus cingulaire et temporal droit, et une phase de prise de décision morale « bien vs mal » impliquant les aires cingulaires antérieures et le gyrus frontal médian (Bryant et coll., 2016). Les informations rationnelles sont plutôt traitées par une voie dorsale qui active le cortex préfrontal dorsolatéral alors que les informations émotionnelles sont plutôt portées par une voie ventrale qui active le cortex préfrontal ventro-médian (Forbes & Grafman, 2010). Selon le degré différentiel d’activation des voies informationnelles, il émergera des décisions plutôt utilitaristes, privilégiant le bien commun à l’intérêt individuel (voie dorsale), ou des décisions altruistes ou égocentrées, plutôt axées sur l’individu que ce soit autrui ou soi-même (voie ventrale).
Les systèmes 1 et 2 fonctionnent de manière coordonnée, ce qui n’est pas étonnant compte tenu du nombre de structures cérébrales qui travaillent dans l’une et l’autre modalité (Forbes & Grafman, 2010). Ainsi, les attitudes prosociales (implicites) facilitent les conduites d’altruisme alors que la sensibilité à l’injustice (explicite) favorise les commentaires positifs sur les conduites altruistes. Le comportement spontané comme les commentaires réfléchis a posteriori participent de la même tonalité prosociale de la réponse éthique (Chen et coll., 2022). La question est de savoir comment le Système 2 est privilégié par rapport au Système 1 dans une prise de décision. Supposons le modèle du trolley. Lorsque le dilemme n’est pas engagé ou intégré par l’individu, le Système 1 propose un comportement (s’il y a des travailleurs sur la voie de gauche, freiner ou aller sur la voie de droite). S’il s’avère que le contexte ne correspond pas (le frein ne fonctionne pas ET il y a aussi des travailleurs sur la voie de droite), il apparaît un conflit qui se traduit par une émotion intense consciente, une augmentation de la vigilance, l’émergence du stress et la mobilisation du Système 2. Cette transition pourrait être déclenchée par des émotions inconscientes très précoces, mobilisant le corps et donc renvoyant des informations complémentaires au cerveau, les marqueurs somatiques (Bechara & Damasio, 2005). C’est ainsi qu’une stratégie avantageuse pour l’individu peut se mettre en place avant même que l’individu en ait conscience (Bechara et coll., 1997).
La réponse de l’individu
La conception que nous avons du fonctionnement du cerveau lors des dilemmes éthiques est finalement assez simpliste puisqu’elle s’architecture autour d’expériences de pensée ou de laboratoire et de paradigmes simples disséquant le contexte. Qu’en est-il de la vraie vie, celle dans laquelle se font les actes altruistes ou non ?
Aux États-Unis, les actes de dévouement donnent lieu à la remise d’une médaille d’héroïsme civil, la « Carnegie Hero Medal » (Rand & Epstein, 2014). L’immense majorité des comportements qui ont motivé l’attribution de cette distinction ont fait suite à des décisions rapides. Le Système 1 était à l’œuvre. Réfléchir plus avant ne conduisait manifestement pas à des décisions altruistes. Sous la pression des circonstances, il y a ceux qui suivent leur intuition et agissent, et ceux qui s’engouffrent dans un dilemme et agissent, mais infiniment plus rarement, ou non.
Que se passe-t-il dans une situation de risque vital pour l’individu comme le naufrage d’un navire ? Quels sont les survivants, c’est-à-dire ceux qui iront en premier sur les moyens de sauvetage ? Dans la majorité des cas, le meilleur taux de survie va à l’équipage, puis au capitaine, puis aux passagers hommes, femmes et enfin enfants (Elinder & Erixson, 2012). La conclusion immédiate serait : l’instinct de survie l’emporte. Le cas du Titanic (1912) fait exception. Il a donc été comparé au cas du Lusitania, un autre paquebot ayant sombré (1915). Le Lusitania, qui coula en 18 minutes, vit fleurir des comportements égocentrés alors que le Titanic qui sombra en plus de 2 heures a vu apparaître des comportements sociaux (Frey et coll., 2010). On ne peut donc exclure l’apparition de comportements sociaux du fait de l’expression de normes sociales implicites ou d’interactions émotionnelles avec les autres naufragés amenant à des conduites sacrificielles conscientes. Il faut garder à l’esprit que ces situations de naufrage sont marquées par un stress intense qui modifie les comportements. Comme l’exposition à un stresseur de laboratoire tend à réduire les réponses utilitaristes (Youssef et coll., 2012), ce serait cohérent de proposer qu’un stress intense promeuve les réactions orientées vers la survie. L’ensemble de ces réponses doit cependant s’appréhender dans le cadre d’une dynamique temporelle.
Le troisième exemple est celui de l’expérimentation de Milgram, paradigme dans lequel l’individu ne risque pas sa vie, mais dans lequel il s’engage en raison même de la mystification dont il fait l’objet. La réponse est claire, plus le dilemme devient prégnant, plus la réponse émotionnelle et le stress qui l’accompagne sont puissants et plus le risque d’arrêt de l’expérimentation augmente. La logique utilitariste, favorisant la science, et/ou la logique d’obéissance à une norme s’effacent, enfin.
Les séquelles du dilemme éthique
Une fois l’instant décisif de la décision éthique passé, que reste-t-il ? Quelles sont les séquelles psychiques d’un dilemme éthique mal géré ? Un acte fait en opposition au désir profond de l’individu, quelle qu’en soit la raison, et plus encore s’il est répété dans le cadre d’un travail, peut laisser une marque dans son cerveau, une mémoire de l’événement. Cette mémoire sera au mieux un mauvais souvenir, au pire une pathologie mentale, plus ou moins grave, qui s’inscrit dans un véritable spectre allant de la vulnérabilité à la désadaptation (« moral distress ») et aux maladies (« moral injury »), toutes reliées au stress qui accompagne l’exposition aux dilemmes éthiques (Papazoglou & Chopko, 2017). Ces séquelles varient en gravité et en type. L’exposition chronique à des dilemmes éthiques de basse intensité conduit plutôt à la désadaptation au métier, la fatigue compassionnelle et le burn-out. L’exposition à un événement unique qui fait basculer la vie induit plutôt la honte et de la culpabilité, souvent associées à l’anxiété voire la dépression, et le Trouble de stress post-traumatique (TSPT). Ces conséquences de l’exposition à un métier difficile tissé d’expositions à des dilemmes éthiques répétées de basse intensité ou rares mais dramatiques, imposent donc un suivi des personnels, surtout si le métier est structuré autour de la réexposition au contexte (Task Group HFM-179 2018).
Éléments de bibliographie
Andrade Gabriel, « Medical Ethics and the Trolley Problem », Journal of Medical Ethics and History of Medicine, 12(3), 2019, p. 1-15. http://dx.doi.org/10.18502/jmehm.v12i3.766.
Bechara Antoine et Damasio Antonio R., « The Somatic Marker Hypothesis: a Neural Theory of Economic Decision », Games and Economic Behavior, 52(2), 2005, p. 336-372. https://doi.org/10.1016/j.geb.2004.06.010.
Bechara Antoine, Damasio Hanna, Tranel Daniel & Damasio Antonio R., « Deciding Advantageously before Knowing the Advantageous Strategy », Science, 275(5304), 1997, p. 1293-1295. https://doi.org/.
Bryant Douglas J., Wang F., Deardeuff Kelley, Zoccoli Emily & Nam Chang S., « The Neural Correlates of Moral Thinking: a Meta-Analysis », International Journal of Computational & Neural Engineering, 3(2), 2016, p. 28-39. https://doi.org/10.19070/2572-7389-160005.
Cassin Barbara (dir.), Vocabulaire européen des philosophes. Le dictionnaire des intraduisibles, Édition du Seuil/Le Robert, 2019, p. 1563.
Chen Chenyi, Martínez Roger Marcelo, Chen Yu-Chun, Fan Yang-Teng et Cheng Yawei, « The Neural Mediators of Moral Attitudes and Behaviors », Behavioural Brain Research, 430, 2022, 113934. https://doi.org/.
Elinder Mikael & Erixson Oscar, « Gender, Social Norms, and Survival in Maritime Disasters », Proceeding of the National Academy of Science of the United States of America, 109(33), 2012, p. 13220-13224. https://doi.org/.
Epstein Seymour, « Cognitive-Experiential Self-Theory of Personality », in Millon Theodore & Lerner Melvin J. (eds), Handbook of Psychology. Vol. 5: Personality and Social Psychology, Hoboken, New Jersey: John Wiley & Sons, 2003, p. 159-184.
Foot Philippa, « The Problem of Abortion and the Doctrine of the Double Effect », Oxford Review, 5, 1967, p. 5-15.
Forbes Chad E. & Grafman Jordan, « The Role of the Human Prefrontal Cortex in Social Cognition and Moral Judgment », Annual Review of Neuroscience, 33, p. 299-324, 2010. https://doi.org/.
Frey Bruno S., Savage David A. & Torgler Benno, « Interaction of Natural Survival Instincts and Internalized Social Norms Exploring the Titanic and Lusitania Disasters », Proceeding of the National Academy of Science of the United States of America, 107(11), 2010, p. 4862-4865. https://doi.org/10.1073/pnas.0911303107.
Hodgkinson Gerard P., Langan-Fox Janice & Sadler-Smith Eugene, « Intuition: a Fundamental Bridging Construct in the Behavioural Sciences », British Journal of Psychology, 99, 2008, p. 1-27, 2008. https://doi.org/.
Ilg Ruediger, Vogeley Kai, Goschke Thomas, Bolte Annette, Shah Jon N., Pöppel Ernst & Fink Gereon R., « Neural Processes Underlying Intuitive Coherence Judgments as Revealed by fMRI on a Semantic Judgment Task », NeuroImage, 38(1), 2007, p. 228-238. https://doi.org/10.1016/j.neuroimage.2007.07.014.
Kahneman Daniel, Système 1 Système 2 : Les deux vitesses de la pensée, traduit par Raymond Clarinard. Flammarion, 2016, 706 pages.
Knobe Joshua, Buckwalter Wesley, Nichols Shaun, Robbins Philip, Sarkissian Hagop & Sommers Tamler, « Experimental Philosophy », Annual Review of Psychology, 63, 2012, p. 81-99. https://doi.org/.
Kvalnes Øyvind, Moral Reasoning at Work. Rethinking Ethics in Organizations. Switzerland: Palgrave Macmillan, 2019. 145 pages. ISBN 978-3-030-15190-4.
LeDoux Joseph, The Emotional Brain. The Mysterious Underspinning of Emotional Life, London: Weidenfeld & Nicholson, 1998, 384 pages. ISBN 0-75380-670-3.
Milgram Stanley, Obedience to Authority. An Experimental View, New York: Harper & Row, 1974, 224 pages. ISBN 0-06-131983-X.
Papazoglou Konstantinos & Chopko Brian, « The Role of Moral Suffering (Moral Distress and Moral Injury) in Police Compassion Fatigue and PTSD: an Unexplored Topic », Frontiers in Psychology, 8(1999), 2017. https://doi.org/10.3389/fpsyg.2017.01999.
Rand David G. & Epstein Ziv G., « Risking Your Life without a Second Thought: Intuitive Decision-Making and Extreme Altruism », PLoS ONE, 9(10), 2014, e109687. https://doi.org/10.1371/journal.pone.0109687.
Task Group HFM-179, Moral Decisions and Military Mental Health, 2018, AC/323(HFM-179)TP/718.
Terestchenko Michel, Fazzi Mariane & Milgram Stanley, Expérience sur l’obéissance et la désobéissance à l’autorité, La Découverte, 2013.
Youssef Farid F., Dookeeram Karine, Basdeo Vasant, Francis Emmanuel, Doman Mekaeel, Mamed Danielle, Maloo Stefan, Degannes Joel, Dobo Linda, Ditshotlo Phatsimo & Legall George, « Stress Alters Personal Moral Decision Making », Psychoneuroendocrinology, 37(4), april 2012, p. 491-498. https://doi.org/.
Zander Thea, Horr Ninja K., Bolte Annette & Volz Kirsten G., « Intuitive Decision Making as a Gradual Process: Investigating Semantic Intuition-Based and Priming-Based Decisions with fMRI », Brain and Behavior, 6(1), 2016, e00420. http://dx.doi.org/10.1002/brb3.420.