Réinventer la gestion des risques et des crises : biais cognitifs et systèmes complexes  

20/05/2022 - 17 min. de lecture

Réinventer la gestion des risques et des crises : biais cognitifs et systèmes complexes   - Cercle K2

Le Cercle K2 n'entend donner ni approbation ni improbation aux opinions émises dans les publications (écrites et vidéos) qui restent propres à leur auteur.

Raphaël de Vittoris est Group crisis manager chez Michelin.

---

La gestion des risques comme la gestion de crise sont des disciplines ayant fait l’objet de très nombreux écrits ayant conduit à l’édification de bonnes pratiques apparemment universellement admises et partagées au sein d’un grand nombre d’organisations. On ne compte plus les ouvrages, articles et analyses des risques et crises et, cela va sans dire, les enseignements associés.

Par conséquents, comment expliquer les échecs flamboyants lors de crise récentes ? Comment expliquer la gestion pour le moins énigmatique d’une première vague de Covid prenant visiblement de court un gouvernement français pourtant entouré d’organisations expertes et de conseillers théoriquement aguerris dans la discipline ? Comment expliquer la gestion déroutante de la FEMA lors des ouragans Hugo, Andrew et Katrina ? Comment expliquer la sidération mondiale face à la crise des subprimes balayant Lehman Brothers ?

Comment expliquer qu’inéluctablement la crise puisse tenir les organisations en échec ?

Après quatre décennies de recherches scientifiques et d’analyses ayant accouché de principes devenus des fondamentaux peut-être de nouvelles pistes offrent-elles une approche nouvelle de la gestion des risques et des crises. En effet, la prise en compte de la théorie des systèmes complexes et de l’expression des biais au niveau collectif et individuels semblent offrir une lecture renouvelée, moins réductrice et moins subjective. Ces deux pistes ont été largement étudiées dans des domaines de gestion en situation "stable" (gestion de projet, gestion des conflits, marketing, gestion des ressources humaines, etc.). Notre proposition est d’élaborer grâce à ces deux pistes une grille de lecture additionnelle et sans compromis des pratiques existantes de la gestion des risques et des crises et de leurs limitations afin de réinventer ces disciplines pour dépasser des partis pris et les idées reçues.

 

Une cartographie des risques inductive et exclusive

Face à la succession de crises "jamais vues" ayant surpris les organisations se pose la légitime question de notre capacité à détecter les futurs. Comment en effet expliquer cette surprise systématique de nœuds évènementiels alors baptisés "crises" du fait de la perte de repères, de l’incertitude et de l’ambiguïté qu’ils engendrent ? Comment expliquer cette sidération alors que des organes de gestion des risques existent dans la plupart des organisations ?

Une des explications réside peut-être dans l’influence de l’induction comprise comme influence du passé dans notre conception du futur. C’est par l’accumulation d’expériences et la représentation de tendances que l’on se représente un avenir dans la droite lignée d’un passé considéré comme linéaire. C’est ainsi qu’on a vu les organisations se préparer corps et âme contre le risque terroriste au lendemain d’attentats meurtriers, faire de la cyberdéfense sa priorité numéro un au lendemain de cyberattaques mondiales ou encore jurer aux grands dieux reconsidérer les chaînes d’approvisionnement au lendemain d’un canal de Suez bouché. Qui donc considérait crédible un scénario pandémique planétaire à l’aube de 2019 ? Et pourtant, quelle cartographie des risques de 2022 négligerait-elle le risque pandémique désormais ? Tout est là, l’induction nous rend réactif, pas proactif.  

Une seconde raison réside dans cette obstination des cartographes des risques de considérer la fréquence (ou l’occurrence) comme élément dimensionnant du risque. On comprend aisément l’aide décisionnelle que peut représenter une échelle de fréquence comparant les risques entre eux. Le problème réside dans la légitimité des données. Qui donc évalue la fréquence d’un évènement à venir ? Comment ? Cette méthode est-elle applicable de manière homogène pour tous les risques considérés ? Comment, avec le recul, considérer ces analyses de risques faites par l’immense majorité des organisations du monde qui plaçaient le risque pandémique au plus bas, en faveur des risques cyber ou terroristes à la mode, qui désormais le mettent dans le top 5 de leur liste ? Est-on vraiment plus soumis au risque pandémique à la fin 2021 que nous l’étions au début 2019 ? ce phénomène est bien connu des sciences cognitives. Il s’agit du biais de représentativité.

Une troisième cause est la prise en compte des risques de manière individuelle et non pas groupée. Les risques s’agencent en grappes, leur agrégation provoque des causalités de crises comme le Covid l’a démontré où d’une crise sanitaire, une crise de la mobilité s’est manifestée, entraînant une crise économique (non encore totalement éprouvée), et géopolitique précédant des crises politiques et sociales. L’utilisation des heatmaps est ainsi contraire à toute approche stratégique tant ce format contraint à une vision minimaliste et unidimensionnelle. C’est l’influence réciproque des risques qu’il convient de tenter d’analyser, des trajectoires possibles du réel. Les sauts qualitatifs devant nous sont les tentatives de modélisation des cygnes noirs potentiels en sommeil dans des futurs possibles et l’analyse des trajectoires y conduisant de manière à, tant que possible, les éviter.

Une quatrième raison est le manque d’imagination. Nous avons tendance à ne raisonner que sur les risques que nous avons déjà identifiés. Car s’il est aisé de savoir ce qu’on sait, il est par définition plus difficile de savoir ce qu’on ne sait pas. Le premier pas vers l’inconnu peut être l’imagination. On peut conceptualiser l’inconnu et le préciser, le détailler au fur et à mesure de l’enrichissement du savoir. Après tout, nos ancêtres ne firent pas différemment lorsqu’ils interprétèrent les lumières scintillantes des ciels nocturnes en mesure de les aider à se repérer comme des figures mythologiques dont des narrations grandioses furent élaborées afin de transmettre la connaissance. Dans le cas des gestions des risques et des crises, quelle est la part d’imagination inclue dans le raisonnement ? Ce constat est d’ailleurs partagé par des organes publics. Pour preuve, le Ministère des Armées s’est doté d’une équipe d’auteurs de science-fiction (la "Red Team") pour imaginer les menaces pouvant mettre en danger la France et ses intérêts. L’imagination est ainsi propulsée parmi les qualités à trouver parmi les gestionnaires des risques et crises. Or, quelle organisation base-t-elle l’imagination comme trait de personnalité fondamental pour des positions de gestionnaire des risques et des crises ? Quel recrutement, pour ces fonctions, inclue-t-il l’imagination comme un critère déterminant ?

 

Une information et une planification devenus alpha et oméga

L’information a toujours été un enjeu critique de la gestion des risques et des crises. De tout temps l’accès à l’information s’est révélé déterminant pour assurer la survie de l’organisation. Pourtant, dans la dernière décennie, cette orientation a pris une toute autre dimension. À l’heure du "tout numérique", du "tout data", l’algorithme est roi et l’IA incarne le graal. Ainsi, nul étonnement de voir émerger nombre d’approches analytiques de traitements de données dans ces disciplines. La data ouvre des perspectives nouvelles de traitements algorithmiques et artificiellement intelligents de l’océan de données disponibles. C’est dans ce contexte qu’a pu vraiment prospérer le concept de signal faible proposé par Ansoff dans les années 1970. Le signal dans sa clarté et son manque d’équivocité n’est plus le but, le signal "faible", celui qui annonce la crise avant même qu’elle n’est débutée, devient la cible. Oracle de Delphes d’une réalité considérée comparable aux situations apparemment méta-similaires. Le signal faible deviendrait donc la porte de détection de la gestation et de la naissance des crises. Pourtant, la théorie des systèmes complexes et notamment la notion de non-linéarité met en évidence la quasi-impossibilité de comprendre ce qui régit les effets seuil à partir d’un certain niveau de complexité de l’organisation. Ceci explique pourquoi les commentateurs des risques et les adeptes de la préparation furent pris par surprise par le mouvement des gilets jaunes que personne n’anticipa (surtout pas les experts en monitoring), par les attentats du World Trade Center qui sidéra le monde, par la victoire d’un Trump battant une Hilary que l’intégralité des signaux donnaient gagnante. Ceci explique aussi pourquoi les adeptes des signaux "faibles" considéraient, à l’aube 2019, les risques cyber et terroristes comme les plus conséquents à travers le monde.

Si la théorie de la complexité bas en brèche l’espérance de prédiction algorithmique du futur par un Oracle de Delphes numérique, la réalité se charge bien de nous le démontrer avec clarté : la vague des gilets jaunes s’amorça lors d’une augmentation du prix des carburants (avec le diesel atteignant 1,46 €/L et le Super95 1,45 €/L). Au lendemain des manifestations successives, le coût du litre d’essence fut alors considéré comme indicateur très pertinent du niveau de mécontentement social et révélateur d’une mobilisation à venir. À l’heure de ces lignes, plus de trois ans après le début du mouvement, le litre de carburant a pourtant encore augmenté de 4 % pour le diesel et de plus de 16,6% pour le Super 95. De quoi activer la réaction sociale en chaine d’après les nouvelles variables. Et pourtant le mouvement gilets jaunes d’origine n’a pas repris. Peut-être s’est-il en partie dilué dans d’autres mouvements contestataires liés aux problématiques vaccinales et libertaires, peut-être s’est-il en partie éteint, peut-être la répression de l’époque a-t-elle inhibé les ardeurs mobilisatrices. Quoi qu’il arrive, le prix du litre de carburant, devenu il y a trois ans élément déclencheur du plus grand mouvement social de l’histoire nationale récente, n’était peut-être qu’un stigmate. Or les stigmates ne sont pas systématiques, nous devrions pourtant ne pas en être surpris dans cette hystérie sanitaire nous ayant bien familiarisé avec la notion d’asymptomatique. Preuve par neuf, l’histoire ne ressert pas les plats, les signaux "faibles" ont souvent de "faible" d’abord leur pertinence.

Le "syndrome de l’historien" qui pousse à donner un sens logique apparemment évident a posteriori à des évènements pourtant imprévisibles a priori, n’est qu’une manifestation de ce biais de narration qui consiste à considérer après-coup des éléments afin de les articuler dans un développement qui nous semble acceptable et cohérent.

En ce qui concerne la planification de crise, de nouvelles considérations peuvent amener à faire évoluer nos concepts : premièrement elle est souvent basée sur l’expérience des personnes en charge de sa rédaction/préparation. Par-là elle est un pur produit du biais du survivant consistant à enregistrer les méthodes et approches de situations de crise considérées comme "bonnes" ou "satisfaisantes". Or, la théorie de la complexité démontre que les situations ne sont aucunement reproductibles ainsi, une telle approche tend à développer une confiance injustifiée. Cette confiance peut d’ailleurs elle-même faire l’objet d’un biais de la part des plus assidus à la pratique et à la routine de cette planification. Ce biais, appelé biais de présomption, peut rendre les experts aveugles aux signaux contredisant l’utilité de la planification dans la situation en question là où un novice détecterait l’inadéquation du protocole de crise par rapport à la situation.

 

Des acteurs de crise fantasmés

La gestion de crise, en tant que nœud événementiel et concentré d’incertitude, renvoie naturellement le leader à un rôle tout particulier du fait de ses missions de direction et d’arbitrage. En pleine perte de repères, l’incarnation du guide devient essentielle pour les cellules de crise. Or, notre vision du leader en situation de crise est largement influencée par trois facteurs principaux :

1. La vision managériale au sens large, où le leader est un personnage central si ce n’est LE personnage le plus développé et conceptualisé par les sciences de gestion. Or cette conception est le plus souvent issue d’une considération "en temps de paix" où la situation est toute différente des temps de crise (volatilité, incertitude, ambiguïté) et donc où la mission et la responsabilité sont tout autres.

2. L’influence de personnages historiques charismatique, et notamment l’image gaullienne. Cette représentation collective du leader, reposant sur un inconscient collectif influencé parfois par des images d’Épinal, place ainsi le leader de la cellule de crise en guide ultime tractant cette dernière voire l’organisation toute entière dans une vision qu’il est le seul à détenir.

3. Hollywood où, à grand renfort de films catastrophes, l’industrie des "blockbusters" a forgé une image du héros charismatique portant la réussite collective dans l’adversité la plus incroyable et souvent la plus fantaisiste.

Ces trois éléments contribuent à forger une image d’un leader "chef de guerre" pourtant très éloignée de bien des leaders de cellule de crise affrontant des situations souvent inattendues, imprévisibles et incompréhensibles. La théorie des systèmes complexes, appliquée à l’échelle d’une entreprise et plus encore à celle d’une multinationale ou pire d’une nation, montre que la réalité est bien  trop complexe pour être saisie et comprise par un seul esprit. La multiplicité de paramètres s’influençant respectivement rend la lecture claire des évènements et la compréhension des causalités impossibles à la seule cognition individuelle. En outre, une vision de leader "chef de guerre" est souvent associée à la centralisation absolue  des décisions. Or les sciences cognitives nous montrent que les biais cognitifs (sans même parler des conflits d’intérêts ou des humeurs assumées) sont inévitables et qu’il est vain d’espérer empêcher leur expression. Premièrement, lors de situations stressantes ou anxiogènes, un phénomène est observé : dans ce cas l’individu néglige spontanément les apprentissages récents et les raisonnements complexes pour revenir à ce qu’il connaît le mieux c’est-à-dire la connaissance la plus solidement ancrée (la plus ancienne) et la plus simple. Il s’agit d’une phase dite de régression. De plus, la situation de crise est l’occasion d’un effet de ciseau cognitif où c’est au moment où le champ cognitif se réduit dramatiquement que le leader nécessite pourtant le plus grand niveau d’attention. Dans ce cadre, et au regard de la pression à laquelle est soumis tout spécialement le leader, comment attribuer la plus grande autorité décisionnelle à la subjectivité d’une seule personne ?

En parallèle du Leader, la position de l’expert est elle-aussi toute particulière en gestion des risques ou en gestion de crise. Par son savoir et son expérience, l’expert devient un acteur central lui aussi, car sa compréhension des phénomènes devient parfois LA source d’interprétation des évènements. La déférence à l’expertise, promulguée dans une théorie des "organisations hautement fiables" pourtant contredite par un certain nombre de catastrophes meurtrières, demeure selon nous un paramètre à modérer. Les études sur les experts en médecine légale sont sans appel sur l’influence majeure des biais cognitifs sur les décisions pourtant supposées objectives des experts et de leurs conséquences parfois dramatiques. Une part de cette subjectivité s’explique par le rapport à l’expérience entretenu par l’expert. En effet, l’expert dispose d’une expérience personnelle l’amenant à 1) considérer plus probable des situations qu’il a déjà connues (biais de représentativité) et à 2) copier les apparentes "recettes" de situations plus ou moins similaires dont la gestion fut considérée satisfaisante (biais du survivant).

Une fois admis la présence des biais cognitifs, il convient d’admettre l’impossibilité de les annihiler tant ils font partie intégrante de notre cognition. En revanche, via des mesures organisationnelles et collectives, il est possible d’atténuer leur expression par une pluralité des angles d’analyse (nombre de personnes disposant de la légitimité), par une facilitation adaptée (coordination des échanges et débats) et des constats issus d’entités indépendantes (observateurs présents depuis le début des évènements avec pour seul tâche l’observation).

 

Un retour d’expérience considéré comme un gage de progrès

Il semble évident que tout évènement doit être source d’apprentissage lorsqu’il influence une organisation et d’autant plus s’il menace sa pérennité. Notre force est celle de l’accumulation de savoir. C’est selon cette optique que le retour d’expérience demeure la finalisation logique de la gestion de crise, plaçant ainsi le plan d’actions final come outcome ultime de la séquence.

Pourtant cette pratique a priori inattaquable revêt des aspects bien subjectifs dans sa pratique la plus couramment observée remettant en cause son utilité pourtant considérée fondamentale. En effet dans nombre d’organisations, le retour d’expérience consiste en une réunion regroupant autour de la table un nombre limité d’acteurs de la crise vécue (sélectionné par qui ?) disposant d’un résumé des évènements obtenu par concaténation des données (faite par qui, et dans quel but ?) échangeant (qui parle en premier ?) sur les éléments positifs et négatifs (sur quelle base ?) notés durant l’évènement et aboutissant à un sacro-saint plan d’actions. Certains acteurs vont jusqu’à partager un "narratif" de l’évènement. Plus triste encore, certains membres vont parfois jusqu’à attribuer les réussites à leurs qualités personnelles et leurs échecs au hasard… Biais d’attribution, biais de narration, biais d’encrage, biais de confirmation, conflits d’intérêt, sont souvent au rendez-vous dans une concrétion d’interprétations individuelles arrangée en une interprétation collective.

Ce retour d’expérience accouche d’un plan d’actions induisant des modifications du plan de crise, contribuant à augmenter la confiance des acteurs en cette version "améliorée" (cultivant le biais de présomption pour les experts), voire l’identification et le suivi de nouveaux signaux "faibles" (selon le présupposé qu’un même signe avant-coureur annonce les mêmes évènements dans des situations différentes, ce qui contredit la notion de non-linéarité propres aux systèmes multicomplexes), et d’autres actions diverses permettant de rassurer l’organisation se considérant dès lors mieux armée et engagée dans une voie de progression.

L’angle de la cognition et son irréductible influence des biais nous amène ainsi, lorsque les retours d’expériences sont effectués dans les conditions décrites plus tôt, à nous interroger s’il est vraiment pertinent d’y participer ou même de les organiser. Le retour d’expérience doit-il peut-être ne plus être considéré comme un processus mais comme un art. Comme l’art subtil de se 1) sélectionner les bonnes personnes à impliquer dans la démarche, 2) faciliter les échanges de manières objectives en diminuant l’expressions des subjectivités contre-productives, 3) offrir des éclairages basés sur des faits collectés et analysés par des personnes extérieures aux cellules de crise et sans conflit d’intérêt ou d’autorité avec les acteurs en présence.

 

Conclusion : progresser par l’humilité et l’organisation

Là où peut résider la tentation d’évoquer la gestion de crise via la notion de bravoure, nous proposons quant à nous de miser sur l’humilité. Celle d’admettre que nous sommes et serons irrémédiablement pris de court par les évènements, celle de reconnaître que nos compréhensions et jugements sont gouvernés par des filtres de lecture cognitifs. C’est dans ce cadre que des pistes nouvelles peuvent être considérées dans les disciplines de la gestion des risques et des crises.

Ne plus considérer les risques un par un, sous la référence tacite d’un passé qui ne se répètera pas et les dimensionnant pour partie selon une notion de probabilité on ne peut plus subjective. Miser plus sur l’imagination des gestionnaires des risques que sur la beauté graphique de heatmaps qui considérait le risque pandémique planétaire comme "négligeable statistiquement" il y a pas plus de 30 mois de cela.

Ne plus croire en un chimérique Oracle de Delphes numérique prophétisant au gré de l’interprétation de dits signaux « faibles ». Ne plus se préparer à être surpris mais bien se résoudre à être dépassé et à faire avec, surtout à survivre malgré tout. Être en mesure d’affronter n’importe quoi et ce immédiatement. Une reconsidération de l’importance d’un facilitateur assurant une dynamique de travail de cellule de crise permettant à un leader de ne pas avoir à singer une image d’Épinal et à se consacrer pleinement à sa mission d’établissement de cap et d’arbitrage. Une déférence au juste nécessaire d’experts précieux. Une approche des retours d’expérience limitant la subjectivité.

Une des réponses possibles réside dans l’organisation. Une organisation incluant désormais les effets indésirables de l’expression des biais cognitifs comme éléments à identifier puis à restreindre. Une organisation qui, si elle ne pourra pas supprimer totalement la subjectivité intrinsèque à l’humain, pourra toutefois en réduire l’expression. Une organisation où la facilitation prend toute son importance pour permettre une interprétation collective cohérente d’une réalité tellement difficile à saisir en temps de crise.

Le "tout-numérique" a rendu le monde plus volatile, les crises plus propices, la probabilité plus grande, l’immédiateté plus terrifiante et la magnitude plus extrême. Et pourtant rien ne semble indiquer que nous souhaitions ralentir la grande digitalisation du réel. Les organisations alimentent ainsi la volatilité de leur réalité. Si le monde est bien devenu VUCA (volatile, incertain, complexe et ambigu) alors c’est toute la notion de fragilité qui demande à être réexplorée. C’est tout le paradigme  de "résilience" qui est battu en brèche et renvoyé à la désuétude. C’est une nouvelle ère qui s’ouvre à la stratégie non seulement des gestions des risques et des crises, mais bel et bien des organisations privées et publiques. C’est le moment de passer de la résilience devenue caduque à l’antifragilité, mais cela est une autre histoire…

Raphaël de Vittoris

---

Références 

Ansoff I. (1970). Managing strategic surprise by response to weak signals. California management review, 18 (2), pp 21-33.

De Vittoris R. (2021). Surmonter les crises, idées reçues et vraies pistes pour les entreprises. Dunod Eds.

Dror I. (2006). Contextual information renders experts vulnerable to making erroneous identifications. Forensic Science International. Volume 156, Issue 1, 6 January 2006, Pages 74-78.

Dror I. & Charlon D. (2006). Why Experts Make Errors. Journal of Forensic Identification. 600 / 56 (4), 2006.

Gilpin DR., Murphy PJ. (2008). Crisis management in a complex world. Oxford University Press, Inc.

Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica, 47(2), 263–92.

Kassin S., Dror I. & Kukucka J. (2013). The forensic confirmation bias: Problems, perspectives, and proposed solutions. Journal of Applied Research in Memory and Cognition. Volume 2, Issue 1, March 2013, Pages 42-52

Kersten, A. (2005). Crisis as usual: Organizational dysfunction and public relations. Public Relations Review, 31(4), 544–49.

Meszaros T. (2017). "Décider et agir dans le brouillard des crises majeures", Tribune en ligne.

Meszaros T., Despinasse F., (2020). L’innovation de défense pour la gestion des crises : dispositifs Red team et Blue team. Revue de défense nationale, n° 826, janvier 2020, pp. 101-105.

Mintzberg H. (1989). Mintzberg on management. Inside our strange world of organization. Hungry Minds Inc, US. 

Moynihan DP. (2009). The Network Governance of Crisis Response: Case Studies of Incident Command Systems. J-PART, Vol. 19, No. 4(Oct., 2009), pp. 895-915.

Murphy, P. (2000). Symmetry, contingency, complexity: Accommodating uncertainty in public relations theory. Public Relations Review, 26(4), 447–62.

Pearson, C. M., & Clair, J. A. (1998). Reframing crisis management. Academy of Management Review, 23(1), 59–76.

Perrow, C. (1984). Normal accidents: Living with High-Risk Technologies. Basic Books, New York. ISBN 978-0465051427.

Schwandt D. & Marquardt M. (2000). Organizational learning : from world-class theories to global best practices. CRC press LLC. St. Lucie Press.

Slovic, P., Finucane, M. L., Peters, E., & MacGregor, D. G. (2002). The affect heuristic. In T. Gilovich,D. Griffin,&D. Kahneman (Eds.), Heuristics and Biases: The Psychology of Intuitive Judgment (pp. 397–420). New York: Cambridge University Press.

Slovic et al. (2004), Risk as Analysis and Risk as Feelings: Some Thoughts about Affect, Reason, Risk, and Rationality. Risk Analysis, Vol. 24, No. 2, 2004.

Taleb NN. (2004). Fooled by randomness: the hidden role of chance in life and in the markets. South Western, Thomson Learning company.

Taleb NN. (2010). Le Cygne noir :  La puissance de l’imprévisible, Les Belles Lettres, Paris, 2010.

Taleb NN. (2013). Antifragile : Les bienfaits du désordre, Les Belles Lettres, Paris, 2013.

Topper B., Lagadec P., (2013), Fractal Crises – A New Path for Crisis Theory and Management. Journal of Contingencies and Crisis Management Volume 21 Number 1 March 2013.

Weick, K. E. (1988). ‘Enacted sensemaking in crisis situations’. Journal of Management Studies, 25, 305–17.

Weick, K. E. (1993). The collapse of sensemaking in organizations: The Mann Gulch disaster. Administrative Science Quarterly, 38(4), 628–52.

Weick, K. E. (1995). Sensemaking in organizations. Thousand Oaks, CA: Sage.

Weick K., Sutcliffe KM., ( 2007), Managing the unexpected - Resilient Performance in an Age of Uncertainty. 20172017.

 

Pour consulter le rapport K2 "Gestion de crise" :

TELECHARGER LE RAPPORT

 

20/05/2022

Dernières publications