Les gens pensent mal : le mal du siècle ? Partie 1/6 : Critique du concept de biais cognitif

Disclaimer : la critique porte sur le concept de biais cognitif tel qu’il est compris dans le grand public. Nous savons que les chercheurs en sciences cognitives ne font (normalement) pas les erreurs qu’on décrit ici. Dans cette discipline les biais sont toujours qualifié comme tel en prenant en compte les éléments contextuels.

Avertissement : cet article est très long. Nous avons dû le découper en 6 parties, que nous conseillons de lire dans l’ordre, même si elles peuvent aussi plus ou moins être lues de manière indépendante :
× Les gens pensent mal : le mal du siècle ? Partie 1/6 : Critique du concept de biais cognitif
× Les gens pensent mal : le mal du siècle ? Partie 2/6 : Premier cas pratique, les « biais cognitifs » des médecins et les soins aux patients
× Les gens pensent mal : le mal du siècle ? Partie 3/6 : Second cas pratique, le fanatisme religieux et les biais cognitifs
× Les gens pensent mal : le mal du siècle ? Partie 4/6 : La réduction aux biais cognitifs ; une approche politiquement située à droite
× Les gens pensent mal : le mal du siècle ? Partie 5/6 : Les émotions et la rationalité
× Les gens pensent mal : le mal du siècle ? Partie 6/6 : Synthèse – Contre la technocratie

Pour des raisons de fluidité de lecture, de nombreuses affirmations qui sont faites dans la première partie ne sont démontrés que dans les parties suivantes, en particulier les parties 2 et 3 (qui sont les cas pratiques). Nous avons également dû passer un certain nombre de précisions au format notes, sans quoi le texte était extrêmement alourdi. N’hésitez pas à vérifier que les contre arguments qui vous viennent à l’esprit n’y trouvent pas déjà leur réponse.  Bref, c’est parti !

Les sphères rationalistes ont une rengaine : les gens pensent mal. Biais de confirmation, dissonance cognitive, croyances irrationnelles : autant de choses à combattre parce qu’elles mineraient la bonne organisation de nos sociétés 1. Faisant des citoyens des votants perméables aux idées les plus enclines à séduire leurs affects (d’après Gérald Bronner dans La démocratie des crédules) plutôt que des êtres qui pèseraient réellement les pour et les contre avec la froideur et la rigueur qu’on attendrait d’un vrai citoyen éclairé.

Alors certes, la psychologie expérimentale et les sciences cognitives ont pu mettre en évidence des automatismes récurrents de la pensée, au moins en ce qui concerne les sujets sur lesquels ils travaillent habituellement 2. Il est évident que comprendre les automatismes de notre pensée, comme les non automatismes d’ailleurs (comprendre le fonctionnement général de notre pensée, en fait) peut s’avérer utile pour éviter certains ‘raccourcis de la pensée’ quand ils sont inappropriés. Si nous utilisons ici l’expression « raccourcis de la pensée » plutôt que l’expression plus courante de « biais cognitifs », c’est parce que nous défendons que le vocable « biais cognitif » et l’idée que les gens pensent mal qui l’accompagne toujours posent au moins les problèmes qui suivent (et découlent partiellement les uns des autres) :

  1. Le mot « biais cognitif », mais aussi la manière dont le concept de biais cognitif est marketé actuellement conduit certains à penser que les automatismes de la pensée n’ont que des effets négatifs : un biais est une erreur systématique, une erreur qui va toujours dans le même sens, et vu la connotation négative du mot biais, pas dans le « bon » sens. Le concept sous-entend que les gens « pensent mal », par défaut 3.

  2. L’expression « biais cognitif » est vague, ce qui donne prise à certaines utilisations fallacieuses et d’autres frauduleuses du concept. Par exemple :

    (a) Dire qu’une personne fait erreur à cause de « ses biais cognitifs » ou parce qu’elle « pense mal » sans être soi-même en mesure capable de préciser d’avantage en quoi c’est le cas 4, c’est un peu comme utiliser les forces divines pour expliquer le monde : c’est une cause des causes. Mais en réalité, on n’a pas du tout expliqué en quoi la personne fait erreur. Or, c’est très classique dans le milieu zet : pourquoi « légens » attaquent-ils les OGMs ? Pourquoi adhèrent-ils à telle religion ? Pourquoi sont-ils contre le nucléaire ? L’explication qui semble avoir réponse à tout mais en réalité n’explique rien si elle n’est pas d’avantage étayée : « Parce qu’ils sont victimes de leurs biais cognitifs. Ils pensent mal. »

    (b) A la base, les biais cognitifs, ce sont les résultats d’heuristiques identifiées par les sciences cognitives. Or, on s’est mis à appeler biais tout et n’importe quoi, pour discréditer des idées avec une pseudo-caution scientifique (cf partie 2).
  1. L’idée que les gens pensent mal conduit à ne pas réellement chercher à comprendre leurs arguments, ou les véritables raisons qui les poussent à défendre tel point de vue. Une écoute véritable nécessite de prendre le raisonnement de l’autre au sérieux 5, c’est-à-dire de le considérer comme cohérent par défaut, et de chercher à comprendre cette cohérence, plutôt que de chercher les incohérences (bien entendu, sans les nier quand on en trouve, ou quand on croit en trouver). Elle suppose qu’on tâche, autant que possible, de faire sienne, pour le temps de l’écoute, la perspective de la personne en face. Beaucoup de sceptiques ont déjà l’impression d’écouter, notamment les tenants, et d’une manière générale tous ceux qui sont perçus comme relevant d’un camp de l’Antiscience : écologistes politiques, critiques du capitalisme industriel, « relativistes postmodernes », etc. Le problème avec le type d’écoute qui est réservé à ceux qui sont par défaut considérés comme des ennemis de la Raison, c’est qu’elle ne prend pas au sérieux son objet 6. L’incapacité à adopter une telle posture rend toute tentative d’échange totalement improductive. En effet :

    (a) Cela semble être une lapalissade, mais la personne qui est en face peut avoir raison, et nous ne serons pas en mesure de nous en rendre compte tant qu’on n’aura pas compris ses arguments. Beaucoup de sceptiques, à cause de cette idée selon laquelle les gens pensent mal à cause de leurs biais cognitifs, discutent en « cherchant l’erreur ». On le voit, certains postent même des messages dans les groupes zets en disant « j’ai eu telle discussion avec untel, il avait tel argument, c’est quoi le nom de ce biais ? ». Or, écouter dans le but de chercher l’erreur, c’est dans au discours ce que le p-hacking est aux statistiques : on aura l’impression d’avoir plein de signaux significatifs, qui nous permettent de rejeter la thèse, mais on aura en fait ignoré tous les autres (c.à.d. les signaux qui confortent la thèse lorsqu’ils sont accumulés). Un argument isolé peut être faux sans que l’argumentaire dans son ensemble ne le soit !

    (b) La personne qui est en face peut avoir très bien compris les arguments de votre thèse à vous, mais arriver à des conclusions différentes des vôtres en raison de préférences différentes. Typiquement, de nombreux adeptes des religions admettent sans aucun problème qu’il n’y a pas de preuve qu’un dieu existe. Ils choisissent d’y croire et de pouvoir se tromper. Sciemment. Ils préfèrent le risque de se tromper en supposant qu’un dieu (surtout un dieu punisseur) existe au risque de se tromper en supposant qu’un tel dieu n’existe pas. Il n’y a pas de critère objectif et absolu pour trancher entre ces deux options, c’est vraiment une question de préférence dans le type de risque d’erreur (pour les stateux : de première ou deuxième espèce) qu’on est prêt à faire.

    (c) Il ne suffit pas d’avoir raison pour convaincre. Si on ne comprend pas les arguments de la personne qui est en face de soi, alors on ne sera pas en mesure d’y répondre de manière adéquate.

  2. De nombreux zététiciens admettent facilement que le combat pour mieux penser commence par soi-même, et expriment régulièrement cette idée qu’il faut un travail permanent contre « ses propres biais ». Mais tant qu’ils limiteront le « mieux penser » à la lutte contre les biais, ce vœu restera pieux. Il restera ce que nous qualifions de pétition de principe : ils sont tout à fait d’accord sur le principe pour faire attention à mieux penser, mais tant qu’ils n’ont pas compris réellement ce que c’est que « mieux penser », ils sont incapables de le faire réellement. L’esprit critique ce n’est pas seulement lutter contre les biais (ou les sophismes/paralogismes), croire cela est extrêmement réductionniste et limitant. L’esprit critique, c’est aussi se donner l’opportunité d’élargir sa réflexion par le maximum de mises en perspective possibles. Évidemment, nous disons bien possibles – et nous ne pouvons pas écouter tout le monde, tout le temps (et l’on peut croiser des perspectives qui nous sont déjà assez familières pour ne pas avoir besoin de refaire tout le chemin critique 7 . Mais le fait de ne pas pouvoir écouter tout le monde ne doit pas devenir la justification pour n’écouter personne, ou seulement les perspectives qui nous sont proches a priori. Plus concrètement, effectuer un changement de mise en perspective consiste à comprendre comment le contexte dans lequel se trouve la personne impacte ses convictions, comme cela sera illustré dans les deux cas pratiques.

Nous défendons donc ici que les automatismes de la pensée sont tout à fait fonctionnels la plupart du temps (ce qui n’est pas très nouveau, pour ce qui concerne le milieu rationaliste, Christophe Michel de la chaîne Hygiène Mentale le défend assez bien dans ses vidéos, par exemple, Albert Moukheiber, auteur du livre Votre cerveau vous joue des tours, défend aussi cette idée dans ses interventions), mais aussi, et ça c’est une idée un peu moins répandue, qu’une réduction des automatismes de la pensée à des « biais cognitifs » conduit à considérer que, globalement, les gens pensent mal, ce qui est non seulement extrêmement délétère pour l’esprit critique et pour des débats d’idées sereins et constructifs, mais également pour la recherche de solutions dans la lutte contre les obscurantismes.

Exercice pratique : vous venez de lire une série de critiques à l’égard du concept de biais cognitif. Ces critiques ne sont pas encore étayées, ce sera, comme annoncé, le cas dans les parties à venir. Il y a quatre possibilités. La première, vous êtes d’accord avec tout. La deuxième, vous vous dites pour au moins certaines d’entre elles : ‘ah, ça je n’y avait pas pensé, intéressant’. La troisième, vous vous dites ‘hmm, on verra dans les parties à venir, je ne suis pas encore convaincu mais qui sait’. La dernière, vous avez déjà trouvé des contre-arguments et mémorisé seulement ça pour préparer votre réponse qui, vous le savez déjà, va contredire la présente série d’articles. Si vous êtes dans le dernier cas, vous cherchez seulement les incohérences pour pouvoir réagir avec une posture d’opposition, au lieu de comprendre la logique d’ensemble : c’est ça, ne pas prendre une argumentation au sérieux.

Ce qui précède est un peu théorique et nous allons tacher d’illustrer et démontrer notre position à l’aide de deux exemples pratiques (parties 2 et 3). Nous montrerons par ailleurs en quoi se focaliser sur les biais cognitifs est politiquement situé à droite (partie 4), et nous réfléchirons à l’opposition souvent établie entre émotion (qui serait propice aux « biais cognitifs ») et raison (partie 5) avant de synthétiser le tout (partie 6).

Vous pourrez suivre la sortie des différentes parties sur la page Zet-ethique, métacritique ou en activant le fil RSS de http://zet-ethique.fr/.


Notes :

  1. La zététique a d’abord été fondée pour l’étude du paranormal. La plupart des explications au paranormal se trouvent dans les illusions d’optique, auditives, ou autres « erreurs » du cerveau. Cependant, à mesure que la communauté grossit, les sujets d’intérêts abordés s’élargissent, jusqu’aux sujets de société, et l’approche zététique est utilisée telle qu’elle pour ces questions qui n’étaient pas son objet d’étude initial.
  2. Il serait en réalité tout à fait envisageable que ces déterminismes soient au moins en partie culturels (ce qui ne signifie pas qu’ils sont facilement malléables, contrairement aux idées reçues, c’est difficile à faire évoluer, une culture, d’autant plus que l’on ignore ce qui dans la culture est à l’origine de tel ou tel déterminisme). Il faut savoir qu’il est reproché aux études de psychologie expérimentale de travailler sur des échantillons trop homogènes pour prendre la mesure des variations culturelles. Pour plus d’information, voir par exemple cet article, ou, plus récent et en français, celui-ci.
  3. Et on ne peut pas considérer comme un argument valable contre les automatismes de la pensée le fait qu’on puisse les manipuler. On peut manipuler n’importe quel type de raisonnement, y compris les raisonnements logiques, et en la matière l’avantage est toujours au manipulateur : il peut penser son argumentaire en fonction des particularités du raisonnement qu’il attend et créer son raisonnement comme un piège.
  4. Préciser, c’est, par exemple, dire à une personne qui est contre un médicament et qui prétend qu’elle a vu passer dans son entourage plus de cas d’effets délétères que de cas de personnes sauvées : « vous avez davantage retenu les informations qui vont en faveur de vos a priori, c’est ce qu’on appelle un biais de confirmation ».
  5. Quand nous parlons de « prendre au sérieux », ce n’est pas dans un sens moral que nous employons cette formule. Il ne s’agit pas nécessairement de respecter ce raisonnement, mais de chercher à comprendre de quelle manière il est fonctionnel pour la personne qui le tient. Bien sûr, respecter le raisonnement de l’autre par défaut, avant de l’avoir cerné, est un impératif moral dans la plupart des cas, mais pas dans tous: un historien qui travaillerait sur l’idéologie des nazis se devrait de prendre au sérieux ladite idéologie, pour la comprendre, et de ne pas chercher ses failles mais avant tout comment elle fonctionne. Il ne serait, bien sûr, pas tenu de la respecter (s’il la respectait, ce serait même un grave problème).
  6. Dans l’entretien épistémique, par exemple, la courtoisie n’est que de façade, une arme rhétorique pour baisser la garde de l’adversaire et en arriver au but véritable de l’entretien : la traque des fautes de raisonnements éventuelles. Nous ne précisons d’ailleurs « éventuel » qu’en fonction de nos propres scrupules, l’interviewer des entretiens épistémiques étant de toute façon persuadé qu’il pourra en trouver. A ce sujet, lire cet article sur les dérives de l’entretien épistémique.
  7. C’est à dire qu’on a déjà soi même pensé et défendu la même chose par le passé, ou bien on a tenté de comprendre sincèrement les idées adverses en hésitant pendant des années, ou bien, plus difficile, on a réellement, avec suspension du jugement, lu un maximum des travaux de ceux qui défendent l’idée adverse pour s’y familiariser