Comment savoir si on peut se fier à quelqu’un, y compris soi-même?

Temps de lecture : 14 minutes

Au départ, j’ai failli intituler mon article “Humilité épistémique : comment éviter l’effet Dunning-Kruger ?“, mais ce jargon zet n’était pas assez sexy… et on va le voir, l’effet DK est, en plus, désormais remis en questions.

Pour ceux qui connaissent pas ces mots, ce dont on va parler ici, c’est la manière dont la surconfiance de plusieurs interlocuteurs dans leur appréciation d’un sujet (leur posture de certitude, en gros) les empêche de vraiment en comprendre les enjeux ou d’apprendre de leurs interlocuteurs plus compétents.

L’effet Dunning-Kruger, précisément, correspond au fait que le sentiment de compétence augmenterait moins vite que la compétence réelle (mais contrairement à une idée reçue, ne serait pas “inversement corrélée” à, il augmente quand même avec la compétence réelle). Cet effet est expliqué en détail dans cette infographie de Florence Dellerie :

Bon, comme je le disais, il faut cependant savoir que l’effet Duning Krugger est en ce moment remis en question : il ne s’agit probablement que d’un artefact scientifique. Il n’y a pas forcément de lien statistique entre les compétences réelles, et la SURconfiance qu’on a dans ses compétences. Et donc, on aurait tendance à avoir moins confiance en soi *en moyenne* quand on est moins compétent. En moyenne. Mais ça n’empêche pas que localement, certains individus auront une confiance dans leur compétence qui n’est pas en accord avec leur compétence réelle. Je propose qu’on garde dans la suite de cet article le terme de surconfiance pour qualifier cela.

Cette infographie m’a rappelé à une réflexion qui me taraude depuis pas mal de temps, sur la surconfiance, et qui reste une question valide même si Dunning-Krugger est un artefact : comment faire, pour dire aux gens « si vous êtes compétent, prenez confiance en vous car vous vous sous-estimez peut-être, mais si vous n’êtes pas compétent, revoyez votre confiance à la baisse car vous vous surestimez peut-être» sans que ceux qui surestiment leur compétence n’en profitent pour se dire « ah mais voilà, moi je suis compétent, alors mes quelques doutes qui me restent là, je les étouffe, il faut que je prenne confiance » ? Dans les travaux sur la surconfiance, la compétence est estimée par un « score » issu d’un test qui la mesure. Mais dans la vraie vie, on estime comment ?

Les diplômes ? Le cas Raoult (dois-je détailler pour ceux qui liront cet article dans 10 ans ? Cf. Note1) et en fait plus généralement le syndrome du Nobel montrent largement que les conséquences d’un effet Dunning-Kruger sont d’autant plus graves que la personne peut se servir de ce CV pour imposer son autorité, et ça me semble donc peu judicieux de se baser sur ce critère. En fait, typiquement, si on prend le cas Raoult : de nombreux autodidactes non-biologistes ont très bien vu les lacunes de son travail. Et ce n’est pas la première fois que j’observe ce phénomène : dès lors qu’on s’éloigne un tout petit peu de la spécialité exacte d’un spécialiste, plein d’autodidactes sont aussi compétents que les gens ayant des diplômes, même dans la discipline adéquate, sur la plupart des sujets 2. En d’autres termes : si vous êtes spécialiste de peinture vénitienne du XIIIe siècle, vos diplômes ne vous donnent probablement pas d’avantage de compétence sur l’art contemporain que celles qu’à n’importe quel autodidacte passionné par ce sujet. A moins d’être vous aussi un autodidacte, par passion, sur ce domaine. Moi-même, j’ai des compétences pointues en biologie de l’évolution, mais je n’ai pas d’avantage (voir moins) de compétences qu’un autodidacte passionné ou qu’un étudiant de L3 en ce qui concerne la physiologie végétale. Avoir des diplômes en statistiques appliquées à la psychologie et travailler sur la question de la perception du hasard ne donne pas de compétence spécifique sur les questions de genre et encore moins sur les questions de génétique quantitative (hérédité, inné / acquis, etc.)3.

Bon. Donc, comment gérer cet effet Dunning-Kruger? On a cette fâcheuse tendance dans les milieux rationalistes à dire “attention à pas faire ça” (ne tombez pas dans tel biais, ne tombez pas dans l’effet Dunning Kruger, ne faites pas ci, etc.). On l’a déjà défendu dans « Les gens pensent mal, le mal du siècle ? » et la série «Biais idéologique» le problème, quand on dit quoi ne pas faire, mais sans dire quoi faire, on a plein de gens qui vont tomber dans la pétition de principe « oui moi je lutte contre mes biais ». On voit plein de gens qui affirment “faire attention”, mais le secret de comment ils font reste toujours bien gardé. Or il me semble qu’on pourrait utiliser un des principes d’éducation positive, ici, en fait: « ne dites pas aux enfants d’arrêter de courir, dites-leur de marcher ». On va tenter un truc comme ça. Je vais livrer comment je procède pour chercher à éviter ces travers (qui est un mix entre des principes et outils issus de ma formation et ma pratique académique, et des astuces persos), et je serais heureuse que d’autres me donnent leurs méthodes. C’est ainsi qu’on devrait progresser.

Bon. Il y a deux problèmes que pose l’effet Dunning Kruger : comment savoir à quelle parole faire confiance, e.g. qui est compétent sur quoi, et comment savoir si soi-même, on n’outrepasse pas ses propres compétences.

Reconnaitre qui est compétent.

Pour ce qui est de reconnaitre la compétence d’un discours, je pense que chacun fait un peu à sa sauce, et que ce serait bien que ce soit plus discuté. Là je donne ma sauce perso, récupère qui voudra. Quand je lis un texte, la première chose que je fais, c’est vérifier s’il y a concordance entre ce qui y est dit, et ce que je sais déjà du sujet. Plus j’ai une bonne culture générale dans le sujet, plus j’ai de chance de détecter des discordances, et donc le fait que la source maitrise ou non ledit sujet. Je tente de forger ma culture générale pour cette raison : il me semble que c’est la première arme à avoir pour pouvoir avoir un recul critique sur les sources; détecter les bugs. Évidemment, j’ai des lacunes.

Alors comment faire quand on a des lacunes ? Il y a deux stratégies possibles. Premier cas de figure : s’il n’y a pas le feu au lac, on n’a pas besoin de conclure, ni de s’exprimer. Je n’avais aucune idée de quoi penser de la loi sur le voile en 2004. Pendant 10 ans, je n’ai jamais donné mon avis sur le sujet. Mais j’ai lu tout ce que je pouvais. Je ne me le suis forgé qu’en 2014, 10 ans plus tard, et suite à ça, je l’ai partagé un peu. Donc : je vois beaucoup de gens qui disent « ouais mais on a quand même le droit de s’exprimer, même quand on ne sait pas tout ». On ne sait jamais tout. Mais on ne sait pas rien non plus. Donc on peut bien s’exprimer sur des sujets. Mais quand on “ne sait pas” sur un sujet, si, vraiment : on se tait. Ça me semble être le minimum. Deuxième cas de figure : s’il y a le feu au lac, ou si on veut se la forger, cette culture générale qu’on n’a pas, comment faire pour trancher et trier les sources, malgré ses lacunes ? Personnellement, j’ai un réseau de gens, avec des spécialités diverses. Des gens que je sais compétents sur tel ou tel domaine. Et quand je ne suis pas sure, je leur envoie la source et je leur demande « tu penses quoi de cette source ? ». Et d’autres gens font pareil avec moi. Un truc en bio, on me demande ce que j’en pense. Si vous n’avez pas de formation scientifique, ne sous-estimez pas ce que vous pouvez apportez à un tel réseau : vous êtes au minimum expert de vos vies, et vos paroles de concernées par telle ou telle chose à une valeur informative. Si la source parle de faits sociaux et que votre vécu ne concorde pas avec ce qui est décrit, c’est informatif. Au final, on va devoir passer par une dépendance épistémique… mais c’est quand même mieux de le faire avec des gens dont on a les moyens d’estimer la rigueur, parce qu’on les connait dans la durée (attention, ça demande aussi une sorte de pré-travail, finalement, on peut être d’accord avec une personne sur plein de sujets, sans que cette personne soit très rigoureuse… un bon indice est je crois la capacité à faire des correctifs publics quand on signale une erreur : comme c’est couteux pour l’égo, ça indique une propension à faire passer la rigueur avant le reste).

La deuxième chose que je regarde, c’est l’orientation politique de la source. On peut regarder sur un wiki, ou demander à des contacts familiers avec la source. Ça permet de savoir ce qui a des chances d’être défendu, et le cadrage qui a des chances d’être effectué. Attention, le positionnement politique se détermine par une analyse du discours, pas par le positionnement que ladite source prétend avoir (sachant que les sources d’extrême droite se prétendent souvent plus modérées qu’elles ne le sont, et que les sources “centristes” se pensent apolitiques).

Mettons cela en application avec cet article de l’AFIS, il n’y a a priori pas de hoax dedans (pas trop de discordance avec ce que je sais du sujet, à part que l’approche One Health, c’est pas du tout ça… attention, l’AFIS a été épinglé par ailleurs pour ses hoax, ils n’en sont pas exempts4), alors avec la 1ere méthode, cet article spécifique passe le filtre. En revanche, si je regarde le cadrage, ce qui est dit versus ce qui n’est pas dit, je remarque que par exemple, si on voulait faire le tour de la question des faits sur les OGMs, là ça parle de santé humaine, mais ça zappe totalement les aspects écologie-évolution, notamment sur la question de la diversité génétique des semences (voir par exemple les conférences de Pierre-Henri Gouyon). Alors on peut être en désaccord avec les arguments, et y répondre. Là, le choix est fait de ne pas en parler. Pour voir ce qui « manque », il faut une culture générale solide, mais ce n’est pas quelque chose qu’on est forcé d’avoir soi-même : c’est une tâche qui peut être assurée par le réseau qu’on s’est constitué (j’insiste, il s’agit d’un réseau dans lequel on connait la rigueur et le domaine de compétence de chacun, il ne s’agit pas de demander à des zététiciens inconnus en supposant qu’ils sont compétents juste parce qu’ils l’affirment). Si je fais ça un peu pour tous les sujets traités par ce média, je me rends compte qu’il y a un cadrage qui globalement défend les technologies, un cadrage pro-industrie. Je peux utiliser ce média comme source pour être à jour sur leurs arguments, mais je devrais toujours confronter à ce que disent d’autres sources pour avoir une vision plus globale du problème (et vérifier qu’ils ne déforment pas les faits). Et je vais éviter de partager les articles de ce média (ou si je le fais, exceptionnellement, ce sera avec un warning), pour éviter que d’autres contacts moins vigilants se fassent avoir par ce biais de cadrage ou leurs hoax (quitte à faire une synthèse, pour mes contacts, et à fournir un discours qui évite les hoax ET ledit biais de cadrage).

Donc, une fois les sources triées, je lis, je compile, je confronte, et je continue d’apprendre. Quand pour un sujet, au bout d’un long moment, je ne tombe plus sur aucune nouvelle idée, je considère que j’ai probablement assez fait le tour pour me forger un avis.

Délimiter ses propres compétences.

La délimitation que je vais faire, intuitivement, de mes propres compétences, découle assez naturellement de la démarche ci-dessus. Je me sens compétente quand 1- j’ai passé du temps sur un sujet, et 2- je ne rencontre quasiment plus aucun discours dont je n’ai pas déjà (vraiment) intégré les arguments à ma compréhension du sujet. Et j’ai expliqué comment faire ça dans Humilité épistémique, la clef pour convaincre éthiquement, et sa suite, sur l’application à des sujets de société (articles qui à la base étaient écrits pour être collés ici, mais ça faisait bien trop long, alors j’ai scindé). Il s’agit, pour résumer, de prendre les arguments d’autrui au sérieux, et de voir en quoi ils s’intègrent à une description de la réalité plus complète que celle qu’on avait en tête jusqu’alors. Par exemple, dans le premier article, j’explique comment réconcilier la vision d’une personne qui pense que le paludisme est causé par le soleil avec la conception scientifique selon laquelle il est causé par le parasite Plasmodium transmis par des moustiques anophèles. Comme expliqué, il ne s’agit pas d’adhérer à la première intuition qu’on a de ce que “signifie” la croyance de l’autre, ce qui réduit notre panel d’interprétation de ce qu’il peut vouloir dire, mais il s’agit de comprendre comment elle (cette croyance) pourrait faire sens en changeant de perspective (je ne spoile pas les deux articles, vous pourrez les lire après celui-ci).

Alors attention, une fois la réconciliation effectuée et le ‘seuil de saturation’ (aucune idée nouvelle rencontrée) atteint, est-ce que pour autant je dois me fier à ce sentiment de compétence? Ou bien ces deux critères sont-ils nécessaires mais non suffisants? Récemment, on a vu dans la sphère sceptique twitterienne (ici, ici, et ) le Dr Baratin (docteur en didactique des sciences, travaillant sur l’argumentation et l’esprit critique) appeler la communauté zététique à être plus attentive aux contenus de la littérature scientifique sur l’esprit critique (la manière dont il est défini, ses liens avec “la méthode scientifique”, l’argumentation, son lien avec les valeurs qu’on porte, etc.). En effet, beaucoup de personnes qui se positionnent sur le sujet dans des vidéos de vulgarisation ne semblent pas toujours au fait des bases de cette littérature (les mauvaises conceptions ont été très bien expliquée dans ce live “Les sceptiques sont-ils spécialistes de l’esprit critique” – dont nous conseillons plus que vivement le visionnage – qu’il a dispensé en duo avec Langue de Cha’, qui elle même effectue son doctorat sur les différentes conceptions de l’esprit critique). Moi même, j’ignorais, jusqu’aux threads twitter de Dr Baratin, qu’il existait un tel champ de recherche, et je n’aurais pas eu l’idée d’aller fouiller cette littérature par moi même avant de tenter de donner une définition de l’esprit critique, si on me l’avait demandé. C’est entre autre lié à la multitude de contenus qui circulent sur le sujet, qui donne une illusion de familiarité (j’ai visionné un grand nombre de contenus sceptiques, je fréquente les sphères sceptiques depuis de nombreuses années, j’ai suivi des MOOC sur le sujet, notamment un récent de l’UBL mais qui lui même tombait dans certains écueils courants, etc.). Et avec du recul, la familiarité ne suffit pas… il y a toujours un risque, à l’intérieur d’une communauté (même scientifique, par exemple au sein d’une discipline spécifique!), de croire savoir de quoi on parle car on n’est exposé qu’aux conceptions internes à la communauté, mais pas aux conceptions qui lui sont externes. Le problème est multiplié lorsqu’on affiche un contenu étiqueté “scientifique” ou “sceptique”, puisque les auditeurices considéreront d’autant plus par défaut qu’on a été rigoureux et qu’on a vérifié ses sources (alors que vraiment, c’est loin d’être une garantie, voir Quand les scientifiques diffusent des mythes, par la chaîne Malin Génie). Il y a donc une lourde responsabilité, pour les vulgarisateurs, de sciences ou d’esprit critique, à remonter à la source, à fouiller la littérature un minimum par des mots clefs, et à ne pas se limiter à quelques autres supports de vulgarisation qu’on aurait vus, que ce soit des livres, Wikipédia, ou d’autres vidéos, si on veut vulgariser soi-même. Il est clair que c’est couteux en termes de vitesse de production. Un des gros défauts qu’on a sur le présent site, c’est notre lenteur. C’est aussi mon plus gros défaut pour faire des publications académiques: je crains toujours d’avoir loupé des trucs, et c’est ce qui me pousse à avoir des brouillons qui s’écrivent pendant des années et des années (pas parce que j’y bosse à plein temps hein, mais parce que le soucis de ne pas avoir fait une biblio suffisante me conduit à procrastiner, aussi). Il y a un trade-off négatif, entre prendre le temps de s’assurer qu’on n’a rien loupé… et finir par produire. Idéalement, il faudrait que la subsistance des personnes qui produisent des contenus ne dépende pas de leur vitesse de production, car il est indéniable que cela conduit à une pression qui ne peut qu’abaisser la qualité5 (pensée pour Darwin et son soucis d’exhaustivité, et non, je ne prône pas ici le salaire universel… mais bien le communisme 😉 ). Cela vaut aussi pour la recherche scientifique (mais ça ne va pas s’arranger, si on regarde ce qui nous attend avec le plan pluriannuel de programmation de la recherche, ou LPPR).

Au final, comment faire correctement ce compromis, entre l’impossibilité d’être exhaustif dans la lecture de sources, et la nécessité de produire ou communiquer? J’aurais tendance à dire que déjà, ça dépend des supports via lesquels on s’exprime. Dans un débat entre amis ou dans un échange informel, il parait suffisant de s’appuyer sur son état des connaissances ponctuel, tout en restant vigilant aux moins aux deux premiers critères (i, avoir passé du temps sur un sujet, et ii, effet de saturation = on ne rencontre plus de nouvelles idées, ou au moins, on a déjà intégré les arguments adverses à sa représentation globale du sujet). Lorsque l’on vulgarise via des billets de blog ou des vidéos Youtube amateur, il convient de faire un minimum de recherches bibliographiques (critère iii), quitte à délimiter dans le contenu le domaine de validité de ses affirmations, ou repréciser que l’on n’aborde pas tout, par des phrases explicites qui indiquent ce qui est couvert; et ce qui ne l’est pas. Par exemple “du point de vue de la parasitologie, le paludisme est une maladie provoquée par un parasite du genre Plasmodium et transmis par des moustiques Anophèles. Dans les conceptions sociales, le paludisme peut avoir d’autres définitions, mais nous laissons cette problématique aux SHS” ou “L’un des arguments contre la 5G est l’émission d’ondes qui seraient nocives pour la santé humaine. Nous aborderons cet argument, sans pour autant trancher sur le bien fondé global de la 5G, étant donné qu’une partie des arguments ne seront pas abordés ici” (plutôt que “les gens refusent la 5G parce qu’ils croient à tort que leurs ondes ont un effet nocif sur la santé humaine”). Ici, j’ai un petit bagage sur ce qu’est l’effet Dunning-Kruger, j’ai lu la publication d’origine notamment, mais je n’ai pas fait la biblio pour savoir “comment lutter contre l’effet Dunning Krugger” : comme je le dis dès le départ, j’évoque ma propre manière de l’éviter, et ça n’a de validité que pour ouvrir une discussion, au final. Si je le précise, mes lecteurs savent le domaine de validité des mes propos, et peuvent décider d’aller compléter leurs connaissances en faisant une recherche eux-même dans la littérature sur le sujet. Ainsi, je peux témoigner de mon appréciation d’un sujet, tant que d’emblée, je précise bien qu’il ne s’agit que de ça, tant que je délimite clairement ce qui relève d’un travail bibliographique, versus ce qui relève de mes réflexions personnelles. Ça me permet de publier ce billet de blog (sans quoi il devrait probablement attendre encore un an, en fait), et d’atteindre mon objectif, qui est effectivement d’ouvrir la réflexion. Enfin, si je réalise des contenus pour une très grosse production (télévision, musée, etc.), et notamment que j’ai un label institutionnel ou un salaire pour réaliser le contenu (et que cela impacte la confiance que mon auditoire accorde à mes propos et mes conclusions), là, il me semble que le seuil d’exigence doit être vraiment plus élevé, et qu’il faut vraiment éviter de laisser des angles morts du sujet sous silence (ne serait-ce qu’en précisant les enjeux de s’intéresser aussi à ce qu’on n’a pas traité)…. au final, tout comme dans la section “perspectives” d’une publication scientifique.

En résumé. Je lutte principalement contre le risque de tomber moi-même dans l’effet Dunning-Kruger en ne prenant pas les gens pour des idiots, et en tentant de prendre au sérieux leur description du monde, pour comprendre réellement pourquoi elle diffère de la mienne, et enrichir mes connaissances et ma compréhension du monde. Je ne me sens pas confiante dans mes compétences tant que j’ai le sentiment de ne pas avoir compris les arguments du camp adverse, s’il y en a un. Mais, en particulier sur les sujets non polémiques, qui du coup ne suscitent pas d’arguments contradictoires, je pense avoir encore des progrès à faire pour me méfier de mon impression de familiarité. On va tâcher….

Et vous ?


Merci à Rony, Gaël Violet, Phil, Dr Baratin, Émeric, et Pavel pour leurs retours. Merci aussi à Florence Dellerie pour sa relecture et l’autorisation d’utiliser son infographie.


Notes :

  1. Nous sommes au milieu de la 1ere pandémie. Oui je mets la première, qui sait ce que l’avenir nous réserve hein. Raoult est un médecin-chercheur plutôt virologue qui a fichu le boxon dans la sphère publique et généré mille théories du complot en prétendant qu’un remède miracle allait tous nous sauver et autres âneries.
  2. Et il paraitrait que Kuhn en parle dans La structure des révolutions scientifiques, mais ça fait des mois que cet article est en plan parce que je dois chercher la ref, alors je délègue à qui voudra chercher pour, m’aider en remerciant ce quelqu’un par avance. Tfaçon, ça me semble pas être un affirmation extraordinaire, j’espère qu’on m’accordera ce point même sans ref.
  3. Toute ressemblance avec des sceptiques existant ou ayant existé n’est pas fortuite.
  4. J’ai commis l’erreur de débutante de demander à Gaël Violet, dont la concision n’a jamais été le fort, de s’occuper de me rédiger une courte note pour illustrer les tendances de l’Afis à diffuser les fausses rumeurs qui l’arrangent. Résultat, la note a grossi, et grossi, jusqu’à prendre la taille d’un petit article, qui sera publié un jour séparément et dont nous insérerons le lien ici. Note : c’est lui qui a écrit cette note, moi je bashe pas comme ça.
  5. J’ai regardé la vidéo de Malin Génie après avoir écrit ces lignes, en finissant l’article… et bien ils concluent leur vidéo sur la diffusion des mythes exactement sur ça eux aussi, d’ailleurs… preuve d’à quel point c’est une question critique.