Les biais cognitifs et la compréhension des milieux de travail

Cette rubrique a pour objectif de traiter du sujet des heuristiques et des biais cognitifs dans le contexte des organisations (c’est-à-dire un milieu de travail tel qu’une entreprise, une compagnie, une usine, etc.) et plus précisément lorsque surviennent différentes problématiques qui nuisent à leur performance et leur survie. Par exemple, le climat de travail peut se détériorer, les employé-es peuvent se démobiliser et se désengager, ou les gestionnaires peuvent avoir de la difficulté à faire preuve de leadership.

 

Si l’on souhaite régler efficacement ces problématiques, il est primordial de connaître leurs causes, ainsi que de bien comprendre l’organisation et ses membres. Dans ce contexte, des consultant-es organisationnel-les, qui peuvent provenir de différents domaines comme celui de la gestion, des ressources humaines (RH) ou de la psychologie du travail et des organisations peuvent établir un diagnostic des problématiques identifiées. Tel que soutenu par le psychologue Clayton P. Alderfer, un diagnostic bien réalisé permet de sélectionner les interventions appropriées pour la problématique vécue et ainsi de rétablir la performance ou la qualité de vie dans l’organisation [1].

 

Toutefois, de la même manière que dans le domaine médical, lorsqu’un diagnostic est établi, il est question d’interprétation. Il est non seulement question de l’interprétation de la part de la personne consultante qui doit établir le diagnostic, mais également des membres de l’organisation qui fournissent les informations pour le diagnostic. Les raccourcis mentaux, aussi appelés heuristiques, entrent ici en jeu !

 

Les heuristiques peuvent être bénéfiques, car elles facilitent et accélèrent le raisonnement, permettant ainsi à la personne consultante et aux membres de l’organisation de prendre des décisions rapides et de contribuer à un diagnostic efficace. Toutefois, les heuristiques peuvent aussi conduire à des erreurs systématiques, soit des biais cognitifs, et ainsi rendre ces individus vulnérables. La personne consultante doit alors réduire l’influence de ses biais cognitifs ou de ceux des membres de l’organisation, car la validité de son diagnostic pourra autrement en être atteinte [2]. En effet, un mauvais diagnostic pourrait mener vers des décisions, des changements et des interventions inefficaces qui ne corrigeraient pas la problématique ciblée initialement, voire l’aggraver.

 

De tels changements, qu’ils soient ou non basés sur un diagnostic biaisé, ont un impact certain sur le climat de travail et la vie dans l’organisation, mais aussi sur la vie de chaque personne touchée.

 

Ainsi, cette rubrique traite des principales heuristiques présentes lors du diagnostic organisationnel, soit les heuristiques de disponibilité, d’ancrage, de représentativité et émotionnelle. Pour chacune d’elles, une sélection de biais cognitifs qui influencent fréquemment le diagnostic en organisation sera présentée. Pour terminer, une série de stratégies permettant de limiter l’influence des biais cognitifs sera proposée.

L’heuristique de disponibilité

En général, il est plus facile de se souvenir d’évènements qui arrivent fréquemment, qui sont familiers ou qui sont survenus récemment, que d’événements lointains. La facilité avec laquelle on se remémore ces souvenirs ou ces informations influence notre jugement par rapport à ces informations : il s’agit de l’heuristique de disponibilité, qui peut s’avérer utile et avantageuse lorsque l’on cherche à comprendre un phénomène qui survient dans une organisation. Par exemple, une consultante experte en harcèlement au travail qui vient de réaliser des recherches pour l’écriture d’un livre sur le sujet aura davantage de connaissances accessibles rapidement à sa mémoire. Son efficacité pour diagnostiquer une problématique de harcèlement dans une équipe en sera bonifiée. Néanmoins, l’heuristique de disponibilité peut mener à de nombreux biais. Voici deux exemples de biais qui peuvent survenir communément en contexte de diagnostic organisationnel.

 

D’abord, le biais de justification du choix survient lorsqu’un individu surestime les avantages d’une option après l’avoir choisie. Une consultante qui manifeste ce biais pourrait, par exemple, s’acharner à utiliser les résultats d’un sondage ayant reçu un très faible taux de réponse. Les sondages permettent d’obtenir beaucoup d’informations en peu de temps et l’analyse statistique des données recueillies permet des conclusions objectives, à condition que suffisamment de personnes aient participé. Avec peu de participant-es, les données ne peuvent pas représenter fidèlement la situation de l’ensemble de l’organisation et les conclusions qui en découlent seront nécessairement biaisées, voire malhonnêtes. Malheureusement, bien des consultant-es utilisent à tort de telles données en se disant « qu’elles peuvent donner une idée de départ ». Mais si cette idée de départ pointe la mauvaise direction, à quoi bon ? Aller au-delà du biais de justification du choix impliquerait de poursuivre la collecte de données à l’aide d’une autre méthode (p. ex. en recueillant le témoignage de groupes de discussion) ou de reprendre le sondage avec une meilleure préparation.

 

Finalement, l’effet de répétition se manifeste lorsqu’un individu croit qu’une information est de plus en plus vraie lorsque celle-ci lui est souvent répétée. Par exemple, les premiers employés volontaires pour des entrevues conduisant au diagnostic de leur milieu de travail pourraient fournir répétitivement une information similaire à propos de la qualité de la supervision dans l’organisation. Si les employés qui tiennent ces propos répétitifs se ressemblent et ont le même métier, ils ne seront pas représentatifs des différents groupes d’appartenance composés d’autres employés au sein de l’organisation. L’information répétée ne reflètera pas la perception de l’ensemble des membres de l’organisation, mais l’effet de répétition pourra faire en sorte que leur information sera plus crue, en vertu du fait qu’elle est répétée. En considérant les premières perceptions recueillies comme un fait, le diagnostic pourrait alors être biaisé.

L’heuristique d’ancrage

L’heuristique d’ancrage fait référence au processus par lequel un individu estime une valeur incertaine ou arrive à une conclusion à partir d’un point « d’ancrage ». Ce point d’ancrage initial peut être une valeur arbitraire, calculée de manière préliminaire ou une information connue au préalable. Par exemple, un consultant voulant estimer le nombre d’employé-es susceptibles de quitter leur emploi dans une boutique après une année difficile (estimation d’une quantité incertaine) pourrait viser juste en estimant que ce chiffre sera très près de celui d’une autre boutique similaire pour laquelle il a travaillé précédemment (le chiffre associé à l’autre boutique sert de point d’ancrage). Pour cette heuristique, nous explorons trois biais susceptibles d’influencer un diagnostic organisationnel.

 

Le biais de confirmation correspond à la tendance à interpréter une information disponible pour qu’elle concorde avec une hypothèse préétablie en ignorant d’autres possibilités. Par exemple, une employeure pourrait croire que la faible performance de ses employé-es est reliée à leur manque de formation. Cette dernière pourrait tout simplement rejeter le diagnostic d’un consultant qui lui indique qu’il s’agit plutôt d’un problème de communication entre les employé-es et les gestionnaires, malgré un sondage et des observations rigoureuses. Dans ce cas, on a affaire au biais de confirmation :  l’hypothèse de départ de l’employeure a préséance sur les hypothèses alternatives, car elles ne correspondent pas à ses croyances préalables. Dans ce cas de figure, la faible performance des employé-es donne l’illusion de confirmer l’hypothèse préalable de l’employeure, alors que d’autres informations susceptibles de contredire cette hypothèse sont ignorées.

 

Le biais d’automatisation s’avère également très fréquent en contexte organisationnel. Il consiste à avoir une confiance disproportionnée envers de l’information offerte par une machine, un outil ou un logiciel, au détriment de son sens critique. En diagnostic organisationnel, les analyses statistiques sont beaucoup utilisées. Par exemple, des analyses permettent de comparer des équipes de travail et de déterminer celles qui sont plus performantes que les autres. Toutefois, avant de réaliser ces analyses, il existe toute une série de vérifications pré-requises pour s’assurer que les données sont conformes pour être analysées. Le problème principalement rencontré avec les logiciels statistiques est que peu importe la qualité des données, le logiciel effectue les calculs et présente des conclusions, que les données soient conformes aux prérequis qui permettent de les analyser ou non. Dans notre exemple, un consultant débutant ou avec des connaissances limitées en statistiques pourrait ne pas savoir que des analyses prérequises sont nécessaires (ce qui est souvent le cas). En faisant confiance aux conclusions parce qu’elles proviennent d’un logiciel reconnu, il pourrait alors croire, possiblement à tort, qu’une des équipes se démarque des autres, alors qu’il n’en est rien, et ce en raison du biais d’automatisation.

L’heuristique de représentativité

L’heuristique de représentativité fait référence à l’évaluation des probabilités qu’un objet ou un évènement appartienne à une certaine catégorie, en se basant sur sa similarité ou ses points communs avec cette catégorie. Par exemple, après avoir rapidement survolé la première page d’un curriculum vitae, une consultante pourrait avoir raison de croire qu’un individu est un gestionnaire puisqu’il a étudié dans une école de gestion et qu’il semble avoir beaucoup d’expérience dans ce domaine. Toutefois, de nombreux biais sont reliés à l’heuristique de représentativité. En voici deux, en contexte de diagnostic organisationnel.

 

Amos Tversky et Daniel Kahneman expliquent que l’insensibilité liée à la taille de l’échantillon est un biais qui implique de surestimer de la représentativité d’un petit échantillon par rapport à sa population de référence [3]. Prenons par exemple un consultant qui conclut que le climat de travail dans un hôpital s’est détérioré, à partir d’un sondage réalisé auprès de 100 employé-es, sans se soucier de la taille de l’organisation et du nombre total d’employé-es. Si l’hôpital emploie 8500 personnes (la population de référence), un échantillon de réponses de 100 personnes serait trop restreint, bien que le nombre 100 paraît comme un nombre relativement grand. Pour qu’un échantillon soit représentatif, il existe plusieurs règles statistiques qui tiennent compte du hasard et que la taille de l’échantillon doit toujours être ajustée en fonction de la population de référence. Ne pas en tenir compte et faire confiance intuitivement à ce que nous considérons comme un « grand » nombre expose donc le consultant à ce biais.

 

Une autre erreur pouvant découler de l’heuristique de représentativité est le biais pro-endogroupe, qui correspond au fait de percevoir plus positivement les membres de son groupe d’appartenance que les autres. En contexte organisationnel, un psychologue du travail et des organisations pourrait surestimer la crédibilité de données recueillies par des collègues appartenant à son groupe, et sous-estimer celles recueillies par des conseillerères en ressources humaines (qui appartiennent à un groupe professionnel distinct). Le psychologue pourrait par conséquent ignorer de l’information qui aurait pourtant été pertinente au diagnostic.

L’heuristique émotionnelle

Finalement, l’heuristique émotionnelle se manifeste lorsque nos décisions, notre jugement et nos comportements sont inconsciemment affectés par nos émotions. Par exemple, un consultant pourrait se sentir particulièrement heureux la journée d’une rencontre avec la direction impliquée dans son mandat et ainsi faire bonne impression devant la direction grâce à son enthousiasme et obtenir un mandat auprès de l’organisation.

 

Toutefois, nos émotions peuvent biaiser nos comportements ou nos pensées. Deux biais sont notamment liés à cette heuristique. D’abord, le biais d’impact peut survenir lorsqu’un individu surestime l’intensité et la durée des émotions qu'il vivra face à un évènement. Une consultante pourrait par exemple anticiper un mandat de manière négative et donc, se préparer pour son entrevue avec le directeur pendant de nombreuses heures, car elle a entendu que ce dernier est intimidant. Après une entrevue toute en douceur, la consultante réalise alors que les heures de préparation à angoisser n’étaient pas justifiées. Par exemple, les heures perdues auraient pu servir à établir des solutions ou correctifs aux problématiques des employé-es, ce qui aurait été plus utile pour ces dernier-es.

 

Finalement, le biais d’optimisme pourrait être associé à « la pensée magique ». En effet, il fait référence aux individus qui minimisent l’impact des risques qu’ils prennent en se convainquant qu’ils ne vivront pas les conséquences associées à ces risques. Par exemple, le biais d’optimisme pourrait se manifester chez une consultante débutante trop enthousiaste qui accepterait seule un mandat de diagnostic d’un conflit complexe et de longue durée au sein d’une usine. L’identification des déterminants de graves conflits doit être pris avec doigté et nécessite des compétences avancées, mais elle se dit qu’il s’agit d’une occasion d’apprendre et que rien de grave ne peut arriver. Après une entrevue de groupe dirigée de manière maladroite ayant échauffé les esprits, une série d’agression physiques et d’actes de vandalisme sont perpétrés. La consultante trop optimiste a donc aggravé la situation de l’organisation.

Stratégies pour limiter l’influence des biais cognitifs

À travers la pratique professionnelle et la recherche dans les domaines qui s’intéressent au diagnostic (p. ex. la psychologie, la médecine, l’ingénierie), plusieurs stratégies pour minimiser ou contrer les biais ont été répertoriées. En voici quelques-unes.

Connaissances des biais cognitifs et réflexion sur la pensée

D’abord, prendre connaissance de l’existence des biais et de leurs impacts sur le processus de diagnostic permettrait d’incorporer une pensée plus rationnelle au raisonnement intuitif et s’avère la première étape afin de pouvoir minimiser leurs effets [4]. Quant à elle, la réflexion sur la pensée vise le ralentissement volontaire du processus de pensée, ce qui permet de prendre conscience des potentiels biais ou erreurs qui pourraient affecter le jugement et les décisions. Pour y arriver, des diagnosticien-nes proposent deux stratégies, qui s’appliquent au diagnostic organisationnel [4], soit : la recherche d’explications alternatives et l'exploration des conséquences potentielles d’avoir choisi un mauvais diagnostic.

 

Premièrement, la recherche d’alternatives est une stratégie idéale pour diminuer l’occurrence du biais de confirmation. Elle vise à maximiser le nombre d’alternatives considérées avant d’établir un diagnostic final et ainsi, ne pas s’attacher à un diagnostic préliminaire trop rigide ou trop simple. Pour y arriver, le ou la consultant-e peut se poser des questions comme : existe-t-il une autre cause/raison ? Y a-t-il d’autres éléments qui peuvent être considérés ? Ainsi, le ou la consultant-e ne doit pas se limiter à confirmer la validité d’une hypothèse, il doit également chercher à exclure la possibilité que le problème vienne d’ailleurs.

 

Deuxièmement, l'exploration des conséquences potentielles d’avoir choisi un mauvais diagnostic consiste à envisager les conséquences « dans le pire des cas ». Elle a pour but d’imaginer un futur dans lequel un diagnostic erroné serait posé et implique de se poser des questions comme : qu’est-ce qui n’a pas fonctionné et qu’est-ce qui aurait dû être corrigé ? Cette méthode permet de limiter les angles morts et amène le ou la consultant-e à s’éloigner de ses premières impressions [4].

Connaissances des organisations et expérience

Avant de procéder à un diagnostic, un-e consultant-e compétent-e doit être familier-ère avec quatre domaines de connaissances : 1- les types d’organisations (p.ex. publiques, privées, communautaires, etc.), 2- les types de problèmes qu’on y retrouve couramment (p.ex. inefficacité, conflits, etc.), 3- les caractéristiques des organisations et des équipes qui vont bien (pour établir des cibles à atteindre) et 4- les solutions typiques à appliquer en cas de problème [5].

 

Plus le ou la consultant-e acquiert des connaissances et de l’expérience par rapport à ces quatre domaines, plus il lui sera possible de considérer différentes alternatives, tel que mentionné plus haut. De plus, son expérience lui permet de mieux connaître ses propres forces et faiblesses et ainsi de reconnaître les signes qu’il ou elle est peut-être influencé-e par ses propres biais. Tout cela bien-sûr, à condition de faire preuve d’introspection et de chercher de la rétroaction, c’est-à-dire solliciter l’avis et l’aide de collègues, surtout pour des diagnostics complexes [6]. Cette nuance est importante, car rappelons que l’expérience peut être une arme à double tranchant : elle peut, entre autres, alimenter les ancrages et contribuer au biais de confirmation. Par exemple, ce n’est pas parce qu’un-e consultant-e connaît bien le système de l’éducation que toutes les écoles doivent être « comprises » de la même manière !

Le modèle diagnostic

Afin d’établir un diagnostic organisationnel qui soit le moins biaisé possible, il est possible d’utiliser des outils qui permettent de limiter l’impact des perceptions erronées des personnes consultantes ou des membres de l’organisation. Des chercheur-es proposent d’utiliser le modèle de l’entonnoir, qui explicite les étapes du processus diagnostic ainsi que des précautions à prendre afin de limiter l’introduction de biais [7]. Ces chercheur-es proposent, dans un premier temps, de poser des questions ouvertes aux acteurs et actrices concerné-es (p. ex. les employé-es, les gestionnaires, etc.), afin de maximiser les possibilités d’obtenir de l’information variée [8]. Par exemple, le ou la consultant-e pourrait demander aux employé-es d’une organisation quels sont les éléments qui méritent, selon elles et eux, d’être améliorés dans leur milieu de travail, sans leur proposer d’éléments de réponse au préalable. Ainsi, les éléments problématiques émergent de l’organisation et non des perceptions du ou de la consultant-e. Cette méthode d’investigation permet aux personnes consultantes de cibler graduellement les enjeux les plus importants en adoptant une posture d’ouverture qui réduit l’occurrence de ses propres biais, ainsi que son influence sur les répondant-es. En effet, en laissant aux répondant-es la liberté d’énoncer les enjeux qu’ils et elles perçoivent, leurs réponses ne sont pas influencées par les questions ciblées de la personne consultante. Les répondant-es peuvent aborder des aspects nouveaux ou insoupçonnés, ou encore mettre l’accent sur des problématiques importantes à leurs yeux.

 

Toujours selon les mêmes chercheur-es [7], l’utilisation d’une combinaison de questionnaires scientifiques, d’observations et de témoignages tirés d’entrevues permet d’analyser la situation sous différents angles et donc, de prendre en compte des variables qui autrement auraient pu être négligées. Par exemple, suite à la passation d’un questionnaire à propos de l’engagement des employé-es face au travail, la personne consultante pourrait croire qu’il s’agit d’une bonne piste à considérer afin d’atténuer un problème de roulement de personnel. Or, en complétant l’analyse avec des données collectées par des questions ouvertes, cette dernière pourrait réaliser que la variable la plus importante afin d’expliquer ce roulement de personnel était en fait les mauvaises pratiques de gestion et non directement l’engagement des employé-es.

Les normes et les règlements

Finalement, les normes et les règlements peuvent également réduire l’incidence des biais cognitifs. Elles réfèrent aux stratégies qui incitent les consultant-es à consacrer plus d’attention, de temps ou d’effort à une tâche [8]. Par exemple, un-e psychologue ou un-e conseiller-ère en ressources humaines agréé-es sont règlementé-es selon des normes d’exercice. Ainsi, l’établissement de règles déontologiques ou de normes quant aux actes posés par les consultant-es exercent une pression sur ces dernier-ères et les encourage à accorder davantage d’attention à la réalisation d’un travail rigoureux et ainsi réduire l’occurrence des biais [8]. L’inspection occasionnelle, aléatoire ou dans le cadre d’une plainte émise à un ordre professionnel soumettent alors le ou la consultant-e à un code de conduite autant que possible irréprochable.

Références

[1] Alderfer, Clayton P. (2011). The Practice of Organizational Diagnosis: Theory and Methods. Oxford University Press.

[2] Armenakis, Achilles A., Kevin W. Mossholder, & Stanley G. Harris (1990). Diagnostic bias in organizational consultation. Omega 18(6): 563‑72.

[3] Tversky, Amos, & Daniel Kahneman (1974). Judgment under uncertainty: Heuristics and biases. Science 185(4157): 1124‑31.

[4] Trowbridge, Robert L. (2008).  Twelve tips for teaching avoidance of diagnostic errors. Medical Teacher 30(5): 496‑500.

[5] McFillen, James M., Deborah A. O’Neil, William K. Balzer, & Glenn H. Varney (2013). Organizational diagnosis: An evidence-based approach. Journal of Change Management 13(2): 223‑46.

[6] Graber, Mark L., Stephanie Kissam, Velma L. Payne, Ashley N. D. Meyer, Asta Sorensen, Nancy Lenfestey, Elizabeth Tant, Kerm Henriksen, Kenneth LaBresh, & Hardeep Singh (2012). Cognitive interventions to reduce diagnostic error: A narrative review. BMJ Quality & Safety 21(7): 535‑57.

[7] Gregory, Brian T., Achilles A. Armenakis, Nathan K. Moates, M. David Albritton, & Stanley G. Harris (2007). Achieving scientific rigor in organizational diagnosis: An application of the diagnostic funnel. Consulting Psychology Journal: Practice and Research 59(2): 79‑90.

[8] Larrick, Richard P. (2004). Debiasing. Dans Blackwell Handbook of Judgment and Decision Making, édité par Derek J. Koehler, et Nigel Harvey, 316‑37. Blackwell Publishing.

Les auteur-es

Amy-Lee Normandin*, étudiante au doctorat en psychologie du travail et des organisations

Catherine Desautels*, étudiante au doctorat en psychologie du travail et des organisations

Gabriella Decoste*, étudiante au doctorat en psychologie du travail et des organisations

Fatima Imsirovic*, D.Psy (cand.)

Maxime Paquet*, Ph.D.

 

*Département de psychologie, secteur psychologie du travail et des organisations, Université de Montréal.

Remerciements

Les auteur-es tiennent à remercier Vincent Roberge, François Benoit, Philippe Desmarais et Samuel Gilbert pour leur contribution à cet article.

Citer cette rubrique

Normandin, A.-L., Desautels, C., Decoste, G., Imsirovic, F., & Paquet, M. (2021). Les biais cognitifs et la compréhension des milieux de travail. Dans C. Gratton, E. Gagnon-St-Pierre, & E. Muszynski (Eds). Raccourcis : Guide pratique des biais cognitifs Vol. 4. En ligne : www.shortcogs.com