Les gens pensent mal : le mal du siècle ? Partie 2/6 : Premier cas pratique, les « biais cognitifs » des médecins et les soins aux patients

Temps de lecture : 8 minutes

Note de forme : pour faire le lien avec la première partie, de la série, nous mettrons des codes, par exemple « écho 2.a » (pour dire que ce que l’on dit correspond au problème numéro 2a de la liste) au fur et à mesure du texte.

Pour ce cas pratique, nous allons utiliser le partage de l’ASTEC qui suit, et qui avait été relayé par la Tronche en Biais 1. Lisez bien le texte de l’image : « Comprendre les biais cognitifs dans les métiers de la santé, cela pourrait être vital. Une étude a montré qu’il y a plus d’erreurs médicales ayant pour origine une erreur cognitive qu’un manque de connaissances ou d’informations. Elle montre aussi que les erreurs cognitives sont en cause dans plus des ¾ des fautes impliquant une prise de décision diagnostique ou thérapeutique ». Puis un article de ActusSoins donne plus de détails sur ladite étude.

https://zet-ethique.fr/wp-content/uploads/2019/07/Screenshot_20190701-121742_Facebook-169x300.jpg
Partage de l’ASTEC : « 3/4 des erreurs de prise en charge sont liées aux biais cognitifs »

Lorsque l’on regarde le détail de l’article d’ActusSoins, on peut remarquer que parmi ces ‘biais cognitifs’, il y a en fait un certain nombre de choses très diverses, allant des préjugés raciaux (exemple de Naomi Musenga qui n’a pas été prise au sérieux par la ligne d’urgence téléphonique et est décédée à son domicile) à la fatigue, le stress (effet du manque de moyens conduisant à un sous-effectif) ou la répétition de certaines tâches (organisation du travail). Si on reprend la liste des causes données par l’article, en fait, le seul « automatisme de la pensée » listé, ce sont les préjugés. La fatigue, le stress ou la répétition de certaines tâches ne sont pas vus comme des causes en soi, mais uniquement comme des facteurs aggravants.

(i) Parler de biais cognitif conduit à croire qu’un automatisme de la pensée est toujours néfaste, et à négliger des données importantes du problème (écho n°1)

Cet article et son introduction par l’ASTEC partent du principe que les préjugés sur lesquels les médecins se basent sont nécessairement nocifs (car les biais cognitifs, c’est nocif). Or, prenons un exemple de préjugés extrêmement classique de la part du corps médical : les préjugés envers les personnes en surpoids. Du point de vue du corps médical, ces préjugés sont utiles, et leur marge d’erreur correspond certes à des échecs, mais un médecin sait qu’il ne pourra pas tout soigner et devra optimiser sa stratégie diagnostique pour juste « soigner le plus possible de gens ». Du point de vue du médecin, le surpoids est un facteur de risque pour de nombreuses maladies, il ne serait pas rationnel de ne pas en tenir compte.

En fait, ici, c’est la présentation des données par l’ASTEC qui manque de rigueur : le chiffre donné dans l’encart qui précède (75% des erreurs médicales est attribuable aux biais cognitifs) ne donne qu’une vision partielle du problème.  Pour les médecins, l’important ce n’est pas seulement le nombre d’erreurs médicales qu’ils font à cause des raccourcis de pensée, mais également le nombre d’erreurs médicales qu’ils feraient SANS ces raccourcis de pensée.

Normalement, les personnes qui sont rodées à l’usage des statistiques n’oseraient même pas présenter des données sous la forme d’un unique pourcentage (pour creuser la question de la présentation partielle des données, lire cet article). Il est donc assez logique de penser que ceux qui présentent les données de cette manière sont soit des amateurs, soit ont une démarche volontaire de présenter les données dans le sens de leur thèse, soit… n’ont pas pensé au problème dans son ensemble. Ils ont pensé trop court.

Or, c’est exactement ce que nous cherchons à démontrer (écho n°1) : parce que les automatismes de pensée ne sont vus que comme un possible problème, il n’est présenté que le chiffre qui informe sur les erreurs qu’ils conduisent à commettre, tandis que le chiffre sur les erreurs qui seraient commises sans les raccourcis est omis. Au passage, au-delà du nombre de vies sauvées, les préjugés sur l’obésité seront renforcés à l’échelle de toute la société, ce qui aura un coût qu’il convient également de prendre en compte si l’on souhaite réellement le bien des personnes soignées (qui subissent des remarques sur leur poids de la part de tout l’entourage et des discriminations sociales). Par simplicité, ici, nous allons nous limiter au nombre de vies sauvées, mais en pratique la question ne devrait pas être limitée aux coûts et bénéfices médicaux mais être élargie à ses dimensions politique et sociale.

Donc. Une fois les données sur le nombre de vies sauvées par les raccourcis de pensée disponibles, deux choses sont possibles :

Soit il apparaît qu’en réalité, ces automatismes sauvent plus de vies qu’ils n’en coûtent. Il apparaîtrait qu’en fait les médecins « avaient raison », au moins de premier abord (écho n°3a).

Soit il apparaît que les automatismes coûtent effectivement plus de vies qu’ils n’en sauvent. Dans ce cas, les données démentent une croyance injustifiée des médecins, et l’argumentation qu’on portera à la connaissance des médecins sera beaucoup plus efficace que de dire que « 75% des erreurs médicales sont dues à des biais cognitifs » (écho n°3c).

Cependant, à ce niveau nous souhaitons élargir la réflexion. Dans les deux cas, il se pose un problème qui n’est pas que pratique, mais également éthique, et c’est un problème semblable au dilemme du tramway : il faut choisir qui on sauve. Par exemple, pour (beaucoup) simplifier, imaginons que parmi les personnes en surpoids, il y ait deux groupes ; les personnes qui ont réellement un problème de surpoids en raison d’une mauvaise alimentation et des problèmes de santé qui en découlent de manière corrélée, et les personnes qui ont un surpoids en raison de problèmes génétiques et très peu de maladies qui découlent de ce surpoids. Le 1er groupe bénéficierait effectivement d’une stratégie dans laquelle le médecin commence par adresser le problème alimentaire avant de chercher une autre solution, alors que les personnes qui ont un surpoids pour des raisons génétiques n’ont que des coûts au fait que le médecin refuse d’envisager d’autres causes que le surpoids tant que ledit surpoids n’est pas éliminé. Doit-on partir sur les préjugés et sauver les personnes du 1er groupe, ou envisager toutes les autres causes (classiques chez les autres patients) aux symptômes observés avant la mauvaise alimentation que pourrait indiquer un surpoids ? Du point de vue des utilitaristes, le comportement « évidemment » rationnel est supposé être de sauver le plus de vies possible. Mais l’utilitarisme à ses limites (que nous ne développerons pas ici). Dans le cas présent s’ajoute au dilemme le fait que certaines personnes se retrouveront systématiquement sur le côté des rails où il y a moins de monde, et seront donc celles qui sont toujours flouées : ce sont les minorités, qui subissent le plus les conséquences néfastes des préjugés (pour une analyse plus approfondie de ce problème voir les notes de bas de page 2). Tout le monde n’est pas égal devant un critère utilitariste, il y a donc injustice. Selon leur affinité avec l’utilitarisme et leur sensibilité à l’injustice, les médecins vont donc avoir des préférences différentes à l’égard des différentes stratégies diagnostiques possibles, et donc il est possible que tout le monde ne soit pas d’accord sur ce qu’est la même stratégie, même en ayant les mêmes données chiffrées à disposition (écho n°3b).

 (ii) Une parfaite illustration du problème d’user d’un concept aussi vague que celui de « biais cognitif » (écho n°2)

Certains arguerons peut être qu’il s’agit d’un dévoiement du concept tel qu’il était pensé à l’origine. Cependant, il reste important de le souligner : ici, l’utilisation du concept de biais cognitif rend l’information diffusée beaucoup moins claire qu’elle ne le serait sans l’utilisation du concept.

Préjugés était un mot complet et qui permet d’emblée de saisir que ce sont bien les mécanismes d’une pensée automatique qui pose problème. Mais ce qui est intéressant avec les préjugés, c’est qu’on sait également à quel point leur déterminisme est social, culturel, et surtout, qu’ils ne sont généralement pas élaborés à partir de données chiffrées. En remplaçant le mot préjugés par biais cognitif, on donne donc à tort l’impression, pour la majorité des individus fréquentant les réseaux sociaux et qui n’ouvriront pas le lien (faut-il le démontrer, que les individus des réseaux sociaux n’ouvriront pas le lien ?) qu’il y a un problème qui serait non seulement nouveau, mais qu’il serait, en plus, compliqué de résoudre sans acheter l’un des nombreux livres sur le sujet des biais cognitifs ou sans formation sur les biais cognitifs. En réalité, il y a une solution aux préjugés, que tout le monde connaissait déjà, et qui est la seule abordée par l’article : les déconstruire avec des données (ce qui passe effectivement par la formation). Et comme on l’a vu, des données complètes.

Pourquoi parler de biais cognitif ? Il est évident que si le vocable « biais cognitif » est choisi ici, ce n’est pas pour des raisons pédagogiques, mais pour des raisons marketing. Et c’est en fait nuisible à la compréhension du problème. Faire appel aux biais cognitifs comme concept général pour expliquer un blocage, c’est donc se donner l’illusion qu’on comprend d’où vient un blocage, plutôt que de le comprendre réellement, et c’est se priver de la possibilité de lever ce blocage.

(ii) Les biais cognitifs individualisent le problème et limitent l’analyse que l’on peut en faire (écho n°4)

Nous avons vu que le stress et le manque de temps sont évoqués comme cause, mais seulement pour dire qu’ils aggravent le problème. Ils ne sont pas vus comme des causes en tant que telles, mais uniquement comme des multiplicateurs. Ainsi, le seul moyen de résoudre le problème semble être d’amener les biais cognitifs au point zéro (quand on multiplie quelque chose par zéro, ça fait zéro : il n’y a plus de problème).

Or, il y a de grandes chances qu’en réalité, (i) le stress et la fatigue posent problème en dehors de l’existence de biais cognitifs, et (ii) résoudre ces problèmes-là soit une solution qui permette de sauver plus de vies… sans avoir à passer par un dilemme épineux de type tramway.

Dans le dilemme du tramway, le problème c’est de se retrouver dans une situation où on va devoir choisir entre deux mauvaises options. Mais qu’est ce qui a conduit à se retrouver face à ces deux mauvaises options ? Il ne faut pas évacuer les conditions structurelles (dans le cas du tramway : absence d’un contrôleur de gare pour surveiller les voies par exemple) qui ont conduit à restreindre les choix disponibles à ces deux mauvaises options. Ici, une grande partie du problème, et donc des solutions, se trouve en amont des mauvaises options : des solutions pourraient être d’augmenter les effectifs du personnel de santé, de donner le temps aux médecins de faire des consultations plus longues pour explorer un éventail diagnostic plus large, et de cesser les discours politiques selon lesquels des gens appellent les urgences parce que c’est gratuit (comme si le coût devait être un problème quand il s’agit de sauver des vies…).

Le problème principal est en fait structurel. Et seule une approche qui ne réduit pas la rationalité à l’évitement de biais cognitifs permet de s’en rappeler.

Rappel : Vous pourrez suivre la sortie des différentes parties sur la page Zet-ethique, métacritique ou en activant le fil RSS de https://zet-ethique.fr/.


× Les gens pensent mal : le mal du siècle ? Partie 1/6 : Critique du concept de biais cognitif
× Les gens pensent mal : le mal du siècle ? Partie 2/6 : Premier cas pratique, les « biais cognitifs » des médecins et les soins aux patients
× Les gens pensent mal : le mal du siècle ? Partie 3/6 : Second cas pratique, le fanatisme religieux et les biais cognitifs
× Les gens pensent mal : le mal du siècle ? Partie 4/6 : La réduction aux biais cognitifs ; une approche politiquement située à droite
× Les gens pensent mal : le mal du siècle ? Partie 5/6 : Les émotions et la rationalité
× Les gens pensent mal : le mal du siècle ? Partie 6/6 : Synthèse – Contre la technocratie


Notes :

  1. Mendax, je sais, on s’en prend beaucoup à toi en particulier, mais faut dire que tu nous fournis du matériel de travail et des supports d’illustration, ça doit être parce que tu es prolifique. Note qu’au moins cette fois c’est nominatif : on critique une dérive du milieu en général, mais elle s’applique bel et bien aussi à toi. Voilà, tu demandais à ce qu’il soit précisé à qui les critiques sont adressées dans ta dernière vidéo, ton vœu est exaucé. Bonne année et meilleurs vœux.
  2. La personne en surpoids va subir ces raccourcis toute sa vie, et il est certain qu’à un moment elle va payer le prix fort pour un raccourci raté. Par ailleurs, ce serait un peu long à développer, mais ce qui peut paraître comme le choix le plus rationnel en termes de maximisation de l’espérance (au sens mathématique) si on ne prend qu’une seule consultation ne l’est plus nécessairement si on multiplie les « tirages » (les consultations). Il faudrait vraiment faire les calculs mais nous avons l’intuition qu’il peut se produire un paradoxe du même type que celui décrit dans cette vidéo de Vsauce2.

6 Comments

  1. JC Reply

    C’est chouette de se lancer dans ce travail.
    On parle de zététiciens et de méthode sceptique. La méthode est toute théorique, les zététiciens sont des personnes qui se présentent ainsi parce qu’elles estiment l’appliquer. Mais les milieux sceptiques sont des objets sociaux, remplis comme tous les autres groupes de croyances, de représentations, de conflits politiques. Il n’y a pas de diplôme de zététique. « Chercher des biais » pour comprendre pourquoi des gens n’accéderaient pas à « la vérité » semble être une sorte de rituel religieux destiné à protéger les croyances au sein d’une communauté.

  2. MathySmith Reply

    Juste un petit chipotage : je ne suis pas sûr que le mot « préjugés » soit employé ici à bon escient, du moins dans l’exemple des médecins face aux patients en surpoids. Je me base peut-être sur une mauvaise définition, mais je ne vois pas en quoi considérer que le surpoids est un facteur de risque à des maladies est un préjugé de la part du médecin, puisque ç’a été démontré par les sciences médicales, justement.

    1. Ce n'est qu'une théorie Post author Reply

      Bonjour,

      Il y a plusieurs choses :
      1- c’est démontré pour certaines maladies, et pour d’autres il peut y avoir des mythes aussi, du coup il faut regarder au cas par cas, selon les maladies.
      2- le préjugé, c’est de penser quel telle personne à tel problème parce qu’elle a telle caractéristique. Or, le poids n’est qu’un facteur de risque : la certitude qu’il pose un problème X n’est pas de 100%. Ce que je cherche à expliquer dans le texte, c’est que le médecin, sur la base du fait que la probabilité est non nulle, va d’abord explorer la possibilité que le problème X se pose, avant d’en explorer un autre. Typiquement, un personne en surpoids vient dans un cabinet et se plaint de fatigue, on va envisager les facteurs de risque liés au poids avant d’envisager… je sais pas, un test palu ^^’ (ça fatigue beaucoup, le palu, car l’oxygénation diminue). Même si le préjugé est juste, ça reste un préjugé tant qu’on a pas une probabilité de 1 que le pari qu’on fait est juste, en fait.
      Peut être un autre exemple non médical sera plus parlant. Si je prend une personne au hasard et qu’elle est accompagnée d’enfants, la probabilité qu’elle soit le parent de ces enfants est raisonnablement élevée. Du coup, mon préjugé que cette personne que je ne connais pas soit ‘parent’ à une probabilité élevée d’être juste. Ca n’est reste pas moins un préjugé (que ce soit établi scientifiquement ou non, ça marche pareil).

        1. Gaël Violet Reply

          (NB. Il n’y a pas de mauvaise question 😉 Par exemple, à supposer qu’il y ait incompréhension, au pire, c’est qu’il y a motif à éclaircissement, et de fait, nous avons en certains endroits eu des recours plus ou moins heureux à l’ellipse, par peur d’être trop longs; c’est ainsi par exemple que nous avons dû éclaircir notre critique de l’utilitarisme, très insuffisamment développée dans le corps-même de l’article… Ici aussi, la précision n’était pas inutile)

  3. Raphael Reply

    OUI les problèmes sont structurels, et OUI le « biais cognitif » est une façon de se dépolitiser sous prétexte de science. Et j’ajouterais également : de se mettre dans une position de pouvoir cognitif, c’est à dire performer une hierarchie « sachant/ignorant-e » .
    Le dilemme du tramway est une imposition de problématique, puisqu’il choisie d’isoler une situation principalement imaginaire pour en faire un exercice de pensée à destination de personnes n’étant pas forcément affectées sur le terrain. Les problématiques qui ont le plus émergé du terrain ses derniers temps étaient plutôt liées au manque de moyens, il me semble. Il en existe sûrement d’autres moins visibles.
    Je fais le pari que dans les hoptiaux les exercice de pensée sont pratiqués principalement par des hommes gestionnaires…

Répondre à JC Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.