Vers une vision bayésienne de la zététique: Justifier et enrichir la démarche zététique à partir de la formule de Bayes

Nicolas Martin, après avoir étudié les mathématiques appliquées à l’INSA Toulouse, a obtenu son doctorat en automatique au sein du GIPSA-lab et de l’université Grenoble Alpes. Il s’intéresse depuis plusieurs années à la zététique, l’esprit critique et leur transmission auprès du public. Depuis début 2020, Il publie des articles de vulgarisation scientifique et d’esprit critique sur le blog « Mon Œil ! »1Voici une de ses productions:

La zététique est un mouvement de pensée qui promeut l’utilisation de la pensée critique et de la méthode scientifique pour traiter efficacement le tsunami d’informations qui nous parvient chaque jour. Il semble néanmoins que cette démarche serait plus efficace encore si elle était soutenue par une vision bayésienne c’est-à-dire une approche qui prône l’usage des probabilités pour quantifier nos croyances. La démarche zététique est régulièrement le fruit de critiques : elle parait parfois dogmatique, parfois antipathique et parfois inapte à répondre à certains problèmes. Nous verrons dans cet article que le raisonnement bayésien soutient l’approche zététique et lui apporte un peu de nuance. Récemment, plusieurs travaux dans la communauté zététique sont allé dans ce sens, initiés principalement par Lê Nguyen Hoang (influencé par les travaux de Julia Galief écrivaine, conférencière et co-fondatrice du Center for Applied Rationality), avec son livre « La formule du savoir », sa série de vidéos sur le sujet 2 et ses podcasts3, l’approche bayésienne et ses apports à la zététique ont également été traités par Christophe Michel (animateur de la chaine Hygiène mentale)4, Nathan Uyttendaele (animateur de la chaine Chat Sceptique)5 ou encore Thibaud Giraud (animateur de la chaine Monsieur Phi)6. C’est dans ce mouvement que s’inscrit cet article dont l’objectif principal est de montrer comment le bayésianisme corrobore et enrichit certains outils zététiques.
Nous présenterons dans un premier temps quelques points critiques de la zététique qui motivent l’introduction d’un cadre bayésien. Nous introduirons ensuite succinctement le formalisme bayésien avant de présenter dans la dernière partie la contribution principale de cet article : la déduction de deux principes zététiques, rasoir d’Ockham et maxime de Hume, à partir de la formule de Bayes, formule sur laquelle se base l’approche bayésienne.
Cet article est loin de faire le tour de la question. Au contraire, comme son titre l’indique, le but ici est de fournir quelques arguments invitant à une réflexion plus poussée sur l’apport de l’approche bayésienne à la zététique.

Les limites de l’approche zététique

Il semble que l’approche zététique ait une mauvaise image de la part des croyant-e-s et des tenant-e-s des affirmations para-scientifiques7 mais pas seulement, certaines critiques viennent des zététiciens eux-mêmes8. Si certaines critiques peuvent être maladroites, d’autres en revanche nous paraissent pertinentes. Notons également que la plupart des critiques ne concerne pas la zététique dans son essence mais des écueils dans lesquelles il est facile de tomber. Nous proposons une liste de ces critiques ci-dessous. Nous verrons ensuite en quoi le bayésianisme peut répondre en partie à ces défaillances.

Des principes dogmatiques

Le rasoir d’Ockham, la maxime de Hume, la charge de la preuve, la valeur d’une preuve, l’impossibilité de prouver l’inexistence… Ces principes se posent parfois comme des dogmes de la zététique. Ce n’est pas un problème en soi puisque leur justification apparaît a posteriori : On se rend compte, en les utilisant, qu’effectivement on a tendance à se tromper moins souvent. En revanche, justifier a priori que ces principes sont cohérents, sont suffisants et nécessaires est une question plus complexe mais qui soutiendrait d’autant plus la démarche zététique.
En réalité, nous le verrons plus loin: le rasoir d’Ockham et la maxime de Hume peuvent se déduire de la formule de Bayes, formule dont on peut également justifier la cohérence.

De bons outils dans des mains maladroites

Carl Sagan dans The Fine art of Baloney Detection accompagne son texte de cette note appelant à la précaution : Like all tools, the baloney detection kit can be misused, applied out of context, or even employed as a rote alternative to thinking. But applied judiciously, it can make all the difference in the world — not least in evaluating our own arguments before we present them to others9. De même, dans son article critiquant la zététique, Sylvain Poirier fait remarquer : Ce n’est pas parce que beaucoup de principes zététiques affichés sont bons, que tout ce que disent les zététiciens est à croire sur parole. Si la zététique apporte un panel d’outils finement aiguisés, ils peuvent parfois être délétères lorsqu’ils sont utilisés sans un peu d’esprit critique.

Manque d’un formalisme mathématique

Le rasoir d’Ockham nous invite à “Privilégier l’hypothèse la plus parcimonieuse”. Mais comment quantifier la parcimonie d’une hypothèse ? Quelle métrique utiliser ?
La maxime de Hume, elle, stipule que “Une affirmation extraordinaire requiert des preuves extraordinaires”. Mais comment quantifier cette extraordinarité ? Et comment comparer l’extraordinarité d’une affirmation et l’extraordinarité des preuves ?
Bonne nouvelle, même si ces préceptes font office de principes généraux sans prétendre avoir une quelconque valeur quantitative, ils peuvent en fait être déduit de la formule de Bayes. Qui plus est, cette dernière leur donne un sens mathématique.

Manichéisme des arguments

Le curseur de vraisemblance10 invite à graduer la vraisemblance d’une affirmation sur une échelle continue entre 0% et 100%. Cette précaution apportée à notre jugement sur une théorie est bénéfique mais elle disparaît souvent quant on juge les preuves qui soutiennent la théorie : Il n’est pas rare d’entendre que tel argument est soit valide soit invalide; que le manque de rigueur d’un protocole invalide les résultats d’une expérience; que l’on peut jeter un discours puisque l’on y relève l’argument fallacieux n21 ou le n3711. Il semble cependant que l’on perde de l’information en disqualifiant complètement une preuve imparfaite12. Dans son article critiquant la zététique, Sylvain Poirier écrit: Le fait qu’il y ait des impostures et des erreurs de toutes sortes à la base de certaines affirmations du paranormal ou d’autres choses par les uns ou les autres, ne signifie pas que tout y est faux ni que rien n’aurait pu être effectivement prouvé. Est-il bien raisonnable de considérer la valeur d’un argument comme binaire ? Il semble peu probable qu’un protocole soit parfait tout comme il est peu probable que tout soit à jeter. En replaçant la zététique dans un cadre probabiliste, on quitte le maigre13 {0;1} pour l’infiniment plus riche14 [0,1].

Difficulté de conclure

“Est-il préférable pour la guérison d’une entorse de dormir avec un coussin bleu ou avec un coussin rouge ?”. Face à l’inexistence d’expériences randomisées en double aveugle avec groupe de contrôle, le zététicien doit-il s’enfuir laissant là son jugement suspendu ?
Devant bien des affirmations il semble que les outils de la zététique ne permettent pas de conclure. En particulier, on évoque souvent la hiérarchie suivante : une étude isolée est moins pertinente qu’une méta-analyse et une méta-analyse est moins pertinente que le consensus scientifique15. Mais alors, que dire d’un sujet sur pour lequel il existe peu ou pas d’étude ? Que dire d’un sujet face à un faisceau d’indices réduit et/ou peu rigoureux ? L’approche bayésienne permet de prendre en compte des informations de toutes sortes afin de se faire une opinion.

Et donc ?

L’approche bayésienne offre une perspective qui répond en partie aux critiques sus-citées en permettant de :

  1. Quantifier la validité d’une information et la probabilité d’une affirmation.
  2. Corroborer certains des principes dogmatiques de la zététique évoqués ci-dessus
  3. Replacer le discours zététique dans un langage probabiliste : Utiliser une formule comme « Il est très improbable que X » plutôt qu’un plus catégorique « À l’heure actuelle, il n’y a aucune preuve de X » rend le discours plus humble et plus propice à un échange bienveillant16.

Les apports du bayésianisme

Pour ne pas alourdir l’article la présentation du bayésianisme est assez minimaliste. Le lecteur curieux est invité à se référer aux références données dans l’introduction.

De la formule de Bayes

Le bayésianisme se base sur la formule de Bayes dont il tire son nom. La manière la plus simple d’écrire cette formule est la suivante

(1)   \begin{equation*}\Prob{A|B} = \frac{\Prob{A}\Prob{B|A}}{\Prob{B}}\end{equation*}

Les termes ℙ(A|B) et ℙ(B|A) sont des probabilités conditionnelles et se lisent respectivement “Probabilité de A sachant B” et “Probabilité de B sachant A”. La formule de Bayes permet donc simplement de lier les deux probabilités conditionnelles.

Exemple : On considère un lancer de dé, et on cherche à savoir quelle est la probabilité que le dé soit tombé sur 6 sachant que le dé est tombé sur un chiffre pair. On parle donc de probabilité conditionnelle car on cherche la probabilité d’un évènement en connaissant des informations partielles sur cet évènement.
Dans la formule de Bayes 1, on remplace A et B respectivement par “Faire un 6” et “Faire un nombre pair”. On va donc pouvoir calculer ℙ(A|B), la probabilité de “Faire un 6” sachant qu’on a “Fait un nombre pair”, ce qui est bien ce qu’on recherche. On obtient :

\small \Prob{\text{Faire un 6}|\text{Faire un nombre pair}} = \frac{\Prob{\text{Faire un 6}}\Prob{\text{Faire un nombre pair}|\text{Faire un 6}}}{\Prob{\text{Faire un nombre pair}}}

Ce qui se lit : la probabilité que j’ai fait un 6 sachant que j’ai fait un nombre pair est égale à la probabilité de faire un 6 (égale à 1/6) multipliée par la probabilité de faire un nombre pair sachant que j’ai fait un 6 (égale à 1) divisée par la probabilité de faire un nombre pair (égale à 1/2). Ce qui donne :

    \begin{equation*} \Prob{\text{Faire un 6}|\text{Faire un nombre pair}} = \frac{1/6 \times 1}{1/2} = 1/3 \end{equation*}

que l’on peut facilement vérifier.

À la formule du savoir

Initialement cette formule est un simple outil de calcul de probabilité conditionnelle relativement simple, et c’est ainsi qu’elle est enseignée aux étudiants. Cependant, réinterprétée, notamment par Pierre-Simon de Laplace, elle est devenue un profond principe épistémologique, que certains considèrent comme la formule ultime du savoir17 fondant ainsi le bayésianisme.
Comme nous le verrons, la formule de Bayes permet de calculer la vraisemblance d’une affirmation en fonction de la vraisemblance a priori de cette affirmation et d’une nouvelle information. Autrement dit, elle permet de mettre à jour nos croyances en fonction des preuves que l’on peut rencontrer : témoignage, étude scientifique, reportage TV, article de presse, …
Le théorème dit de Cox-Jaynes permet même de s’assurer que c’est la bonne manière de faire. Ce théorème montre que la logique bayésienne découle de certains prérequis naturels18 et qu’elle est donc indispensable pour manipuler raisonnablement de l’information.


La théorie des probabilités n’est rien d’autre que le sens commun qui fait calcul — Pierre-Simon de Laplace

Retour à la zététique

Nous voilà rendus bien loin des préoccupations zététiques. Mais en apportant une légère modification à la formule de Bayes ci-dessus nous allons y revenir. Changeons tout simplement le A dans la formule par affirmation, et le B par preuve19. Et voilà, nous avons un outil mathématique puissant pour estimer la vraisemblance d’une affirmation à partir de preuves (que ce soit des témoignages, des études, des arguments, …).
Mise en pratique :

    \begin{equation*} \Prob{\text{Affirmation}|\text{Preuve}} = \frac{\Prob{\text{Affirmation}}\Prob{\text{Preuve}|\text{Affirmation}}}{\Prob{\text{Preuve}}} \end{equation*}

\Prob{\text{Affirmation}|\text{Preuve}} est ce que l’on cherche à évaluer: la vraisemblance d’une affirmation à partir de preuves. Plus précisément, on cherche à calculer l’évolution de la confiance à accorder en une affirmation lorsque une nouvelle preuve est disponible. Cette quantité est aussi appelée probabilité a posteriori puisqu’elle correspond à la vraisemblance de l’affirmation après avoir pris en compte la preuve.
Par opposition, \Prob{\text{Affirmation}} représente la probabilité a priori. C’est à dire la vraisemblance de l’affirmation avant de prendre en compte la preuve. C’est un des principes fondamentaux du bayésianisme : notre croyance en une affirmation évolue sans cesse en fonction des nouvelles preuves qui nous parviennent.
\Prob{\text{Preuve}} est la probabilité a priori d’observer la preuve. Insistons: ces deux dernières probabilités (\Prob{\text{Affirmation}} et \Prob{\text{Preuve}}) sont calculées dans l’état initial des connaissances, c’est-à-dire sans prendre en compte la nouvelle preuve.
Enfin, la formule de Bayes nous dit que pour trouver \Prob{\text{Affirmation}|\text{Preuve}}, il nous faut, de plus, la probabilité d’observer cette preuve si l’affirmation est vraie. Cette probabilité est notée: \Prob{\text{Preuve}|\text{Affirmation}}, et est également appelée « fonction de vraisemblance », ou simplement « vraisemblance ».
On peut alors calculer \Prob{\text{Affirmation}|\text{Preuve}}, la probabilité a posteriori de l’affirmation, c’est-à-dire la confiance à accorder en l’affirmation20 une fois pris en compte les nouveaux éléments de preuve relativement aux connaissances préalables. D’une certaine manière, la formule décrit comment utiliser raisonnablement le curseur de vraisemblance connu des zététiciens.
La dépendance aux connaissances initiales peut sembler gênante puisqu’elle est subjective et risque de faire aboutir deux personnes à des conclusions différentes. Cependant la formule de Bayes assure qu’avec un nombre de preuves suffisant les probabilités a posteriori convergent vers une même valeur quelque soit la probabilité a priori.
Avec ces notations, une affirmation est très probable si \Prob{\text{Affirmation}} est proche de 1 et inversement très improbable si \Prob{\text{Affirmation}} est proche de 0. De même, \Prob{\text{Preuve}} proche de 0 correspond à une preuve très improbable dans le cadre initial de nos connaissance donc à une preuve que l’on peut qualifier d’extraordinaire (par ex. « Il a neigé en Août »), alors que \Prob{\text{Preuve}} proche de 1 est une preuve banale c’est à dire une information à laquelle on s’attend (par ex. « Il a neigé en Janvier »).
Avant de voir les avantages du cadre bayésien dans la démarche zététique, voyons un exemple rapide d’utilisation de la formule de Bayes dans un cadre zététique.

Exemple : La maison de mes grand-parents est connue pour être hantée, notamment la vieille chambre du fond. Armé de tout mon courage et de mes solides outils zététique je vais la visiter. J’émets deux hypothèses :

  • Affirmation Affirmation A_1 : « Il y a des oiseaux dans les combles à l’origine des phénomènes ». J’y attribue une probabilité de \Prob{A_1} = 0.9.
  • Affirmation A_2 : « Il n’y a pas d’oiseau dans les combles et la maison est vraiment hantée ». J’y attribue une probabilité \Prob{A_2} = 0.1 ça paraît fou mais la croyance est tenace dans la famille et dans le village.

En arrivant dans la chambre, et non loin en dessous d’une ouverture dans le plafond qui donne accès aux combles, je vois une plume d’oiseau. Voilà ma nouvelle preuve P qui va me permettre de mettre à jour mes croyances. On peut estimer la probabilité de trouver une plume là sachant qu’il y a des oiseaux dans les combles \Prob{P|A_1} = 0.05 : c’est commun de trouver des plumes mais encore fallait il qu’elle passe par cette petite ouverture. De même on estime la probabilité de trouver une plume sachant qu’il n’y a pas d’oiseau \Prob{P|A_2} = 0.0001 : c’est très peu probable, il aurait fallu que quelqu’un l’amène ici. On peut enfin calculer la probabilité de trouver une plume \Prob{P} grâce à la formule suivante21: \Prob{P} = \Prob{P|A_1}\times\Prob{A_1} + \Prob{P|A_2}\times\Prob{A_2} = 0.04501.
On peut maintenant appliquer la formule de bayes pour A_1 et A_2.

    \begin{equation*} \begin{split} \Prob{A_1 | P}& = \frac{\Prob{A_1}\Prob{P|A_1}}{\Prob{P}}\\ \Prob{A_1 | P} & = \frac{0.9 \times 0.05}{0.04501}\\ \Prob{A_1 | P} & \approx 0.9998 \end{split} \end{equation*}


et

    \begin{equation*} \begin{split} \Prob{A_2 | P} & = \frac{\Prob{A_2}\Prob{P|A_2}}{\Prob{P}}\\ \Prob{A_2 | P} & = \frac{0.1 \times 0.0001}{0.04501}\\ \Prob{A_2 | P} & \approx 0.0002 \end{split} \end{equation*}

Après mise à jour des vraisemblances j’attribue donc une probabilité de 99,98\% pour l’affirmation A_1 et 0,02\% pour l’affirmation A_2.
Évidemment faire une telle analyse chiffrée n’est pas possible au quotidien et ce n’est même pas utile à vrai dire. Mais il est très bénéfique d’adopter une pensée bayésienne en prenant l’habitude de mettre à jour la vraisemblance de nos croyances et en musclant notre intuition bayésienne22.

On peut maintenant voir en quoi cette approche permet de répondre aux critiques formulées dans la section précédente :

  • Elle peut être utilisée pour justifier les principes a priori arbitraires de la zététique. Puisque le théorème de Cox-Jaynes montre que l’approche bayésienne est la seule cohérente, alors démontrer les principes zététiques par la formule de Bayes justifierait leur pertinence. C’est ce que nous ferons dans la dernière section pour deux de ces principes.
  • Puisque dans l’approche bayésienne tout est exprimé en fonction de probabilité on évite la binarité et la rigidité que peut prendre parfois le discours zététique.
  • Comme nous le verrons dans la dernière section, en plus de justifier le rasoir d’Ockham et la maxime de Hume, l’approche bayésienne apporte un cadre mathématique qui permet de quantifier ce qu’on entend par « l’hypothèse la plus parcimonieuse » ou une « affirmation extraordinaire ».
  • Alors que la zététique requiert parfois une étude approfondie d’un sujet pour obtenir une conclusion, l’approche bayésienne permet toujours d’attribuer une vraisemblance à l’affirmation quel que soit la quantité d’information dont on dispose.

Les outils zététiques dans une main bayésienne

Les deux premières parties ont permis de montrer ce que le bayésianisme peut apporter à la zététique et s’alignent avec des travaux pré-existants (notamment ceux de Christophe Michel présenté dans l’introduction). Cette dernière partie est une contribution plus personnelle (et plus technique aussi peut-être) et montre comment le cadre bayésien permet de justifier deux principes fondamentaux de la zététique : le rasoir d’Ockham et la maxime de Hume répondant ainsi partiellement23 à la première critique formulée.

Rasoir d’Ockham

Quand on est confronté à plusieurs affirmations expliquant un même phénomène, le rasoir d’Ockham nous invite à privilégier l’affirmation la plus parcimonieuse. C’est à dire, l’affirmation qui requiert les hypothèses les moins coûteuses intellectuellement. Cependant, la signification de parcimonie ne va pas toujours de soi en l’absence de quantifications.
Voyons ce que l’approche bayésienne peut en dire. Admettons que l’on ait trois affirmations A_1, A_2 et A_3 pour expliquer la même preuve P. les formules de Bayes s’écrivent alors :

    \begin{equation*} \begin{split} \Prob{A_1|P} & = \frac{\Prob{A_1}\Prob{P|A_1}}{\Prob{P}} \\ \Prob{A_2|P} & = \frac{\Prob{A_2}\Prob{P|A_2}}{\Prob{P}} \\ \Prob{A_3|P} & = \frac{\Prob{A_3}\Prob{P|A_3}}{\Prob{P}} \\ \end{split} \end{equation*}

Chercher l’affirmation à privilégier revient à chercher l’affirmation la plus probable au vu de la preuve, donc la plus grande de ces trois probabilités. En multipliant toutes ces quantités par \Prob{P}, on cherche donc l’affirmation maximisant \Prob{A_i} \Prob{P|A_i}.
Ce qui peut se lire : Probabilité de l’affirmation A_i multipliée par la probabilité d’observer la preuve P sachant que l’affirmation A_i est vraie. La formule de Bayes nous dit donc comment interpréter le terme « plus parcimonieux » du rasoir d’Ockham. Ce n’est donc pas simplement l’affirmation la plus probable qu’il faut privilégier, c’est à dire \Prob{A_i}, mais bien le produit de cette probabilité avec la probabilité d’observer P sachant que A_i (l’exemple à venir rendra la nuance plus claire). On peut en déduire une nouvelle formulation pour le rasoir d’Ockham:

Rasoir d’Ockham bayésien :L’hypothèse maximisant \Prob{A_i} \Prob{P|A_i} doit être privilégiée. C’est à dire l’hypothèse maximisant le produit de la probabilité de A_i et de la probabilité d’observer la preuve P sachant A_i.

Cela peut sembler être une subtilité mais l’exemple suivant montre la différence induite par ce changement.

Exemple : Monsieur M. met dans une boite un chat et un souris. Dix secondes après il rouvre la boîte et la souris a totalement disparu. On peut émettre plusieurs affirmations :

  1. A_1Le chat a mangé la souris
  2. A_2La souris est passé dans une dimension différente pour échapper au chat
  3. A_3Monsieur M. est magicien

Usons de notre rasoir d’Ockham bayésien pour voir quelle affirmation privilégier. On considère les probabilités a priori des affirmations suivantes : \Prob{A_1} = 0.8 : Les chats aiment manger des souris;
\Prob{A_2} = 0.0000001 : Je n’ai pas connaissance de souris ayant une telle capacité;
\Prob{A_3} = 0.1 : Je ne connais pas bien cette personne, mais il n’est pas impossible que ce soit un tour de magie.

  • Si on s’intéresse au curseur de vraisemblance utilisé classiquement en zététique, nous pourrions penser qu’il ne faut considérer que la probabilité a priori \Prob{A_i} de ces affirmations. Ainsi il semblerait que l’affirmation A_1 soit à privilégier.
  • Considérons désormais la seconde partie du calcul uniquement (celle qui prend en compte la probabilité d’observer la donnée si l’affirmation est vraie), et que nous appelons la fonction de vraisemblance ou simplement vraisemblance. La donnée en l’occurrence est la révélation du contenu de la boite 10 secondes plus tard sans souris. On a alors par exemple : \Prob{P | A_1} = 0.1 : Seulement 10 secondes pour manger une souris et ne laisser aucune trace… ça me parait suspect; \Prob{P | A_2} = 0.999 : Si la souris avait un tel pouvoir elle aurait en effet sûrement disparu; \Prob{P | A_3} = 0.95 : Si Monsieur M. est magicien alors il est très probable que la disparition de la souris soit son tour de magie. En ne regardant que cette « vraisemblance », c’est alors le voyage inter-dimensionnel qui est à privilégier.
  • Dans un cadre bayésien, c’est la probabilité a posteriori que nous devrions regarder. C’est le produit des deux quantités précédentes24. On trouve alors :

    \begin{equation*} \begin{split} \Prob{A_1}\Prob{P|A_1} &= 0.8 \times 0.1 = 0.08 \\ \Prob{A_2}\Prob{P|A_2} &= 0.0000001 \times 0.999 = 0.0000000999 \\ \Prob{A_3}\Prob{P|A_3} &= 0.1 \times 0.95 = 0.095 \end{split} \end{equation*}

Au final, l’hypothèse à privilégier est que Monsieur M. est magicien…
Dans l’utilisation classique du rasoir d’Ockham cette précision n’est pas faite et le terme « affirmation la plus parcimonieuse » peut prêter à confusion.
On peut donc résumer le calcul ainsi :

    \begin{equation*} \begin{split} & \text{Probabilité a posteriori (ou \textit{posterior})} = \\ & \text{curseur de vraisemblance non bayésien (ou\textit{ prior})} \times \text{vraisemblance} \end{split} \end{equation*}


Les termes posterior et prior sont communément utilisés dans le cadre bayésien comme indiqué dans la formule ci-dessus.

Maxime de Hume

Également appelée standard de Sagan, ou de Truzzi, ou de De Laplace25, cette maxime postule que « Une affirmation extraordinaire requiert une preuve extraordinaire ».
Ici encore, nous allons voir que le cadre bayésien permet de retrouver et de préciser cette affirmation. Reprenons à nouveau la formule de Bayes :

(2)   \begin{equation*}\Prob{\text{Affirmation}|\text{Preuve}} = \frac{\Prob{\text{Affirmation}}\Prob{\text{Preuve}|\text{Affirmation}}}{\Prob{\text{Preuve}}}\end{equation*}

Comme dit précédemment une affirmation est dite extraordinaire si elle est a priori très peu probable. Une telle affirmation vérifie donc \Prob{\text{Affirmation}} = \epsilon, où \epsilon est une quantité très petite. Pour que cette affirmation, une fois pris en compte le nouvel élément de preuve, soit vraisemblable, il faut donc une preuve qui mène à \Prob{\text{Affirmation}|\text{Preuve}} \approx1. On peut montrer que cette condition26 implique la relation suivante:

(3)   \begin{equation*}\Prob{\text{Preuve}} \ll \Prob{\text{Preuve}|\text{Affirmation}}\end{equation*}

Ainsi pour qu’une affirmation a priori extraordinaire devienne vraisemblable il faut donc que la probabilité d’observer la preuve soit beaucoup plus petite que la probabilité d’observer la preuve sachant l’affirmation (nous verrons un exemple plus loin). La formule de Hume se déduit simplement en observant que comme toute probabilité est inférieur ou égale à 1 on a \Prob{\text{Preuve}|\text{Affirmation}} \leq 1 et donc

(4)   \begin{equation*}\Prob{\text{Preuve}} \ll 1\end{equation*}

Ainsi la probabilité d’observer la preuve doit être très petite. En d’autres terme, la preuve doit être extraordinaire27 ! Ainsi, la formule de Bayes permet bien de démontrer la maxime de Hume.
Cependant la formule (3) en dit un petit peu plus :

la condition, \Prob{\text{Preuve}} \ll 1 n’est pas suffisante ! Il faut également que \Prob{\text{Preuve}} \ll \Prob{\text{Preuve}|\text{Affirmation}} et donc que la probabilité d’observer la preuve sachant l’affirmation ne soit pas trop petite ! C’est à dire qu’il faut que la preuve soit ordinaire si l’affirmation est vraie : \Prob{\text{Preuve}|\text{Affirmation}} \equiv 1.
On peut en déduire une nouvelle formulation pour la maxime de Hume.

Maxime de Hume bayésienne : Une affirmation extraordinaire requiert une preuve extraordinaire. Mais il faut aussi que la preuve soit ordinaire si l’affirmation est vraie.

Exemple :

Considérons l’affirmation A = « les licornes existent » que l’on peut qualifier d’extraordinaire. J’y octroie a priori une probabilité de un sur un milliard : \Prob{A} = 10^{-9} Pour que cette affirmation paraisse crédible, il faut donc observer une preuve P vérifiant \Prob{P} \ll \Prob{\text{P}|\text{A}}.
Considérons par exemple la preuve P_1 : « Quelqu’un a vu de loin une silhouette de cheval avec une corne sur le front ». Ce n’est pas une preuve si extraordinaire : il a pu se tromper, c’était peut-être une installation artistique, des petits malins ont pu attacher un postiche ou il a menti. J’estime la probabilité d’observer cela à un sur mille. On a donc \Prob{P_1} = 0.001. En revanche, il est clair que la probabilité que quelqu’un ait vu de loin une silhouette de cheval avec une corne sur le front sachant que les licornes existent est très élevée : P(P_1 | A) \approx 1.
On peut maintenant appliquer la formule de Bayes pour mettre à jour ma croyance en A sachant P_1 :

    \begin{align*} \Prob{A|P_1} & = \frac{\Prob{A}\Prob{P_1|A}}{\Prob{P_1}} = \frac{10^{-9} \times 1}{0.001} = 10^{-6} \end{align*}

Après cette preuve, j’octroie à l’existence des licornes une crédence de un sur un million. Cette preuve satisfaisait donc un seul des deux critères de la maxime de Hume bayésienne : elle est ordinaire si l’affirmation est vraie mais elle n’est pas extraordinaire en soi.
Au contraire prenons une autre preuve P_2 qui a une chance sur un milliard d’être observée : « J’ai fait 30 piles de suite ». La preuve est bien extraordinaire \Prob{P_2} \approx 10^{-9}. Mais là encore la preuve ne satisfait qu’un seul des deux critères de la maxime de Hume baysésienne : elle est extraordinaire mais elle n’est pas ordinaire si l’affirmation est vraie. En effet, ici les deux évènements sont décorrélés : l’existence de licorne ne rend pas plus ordinaire une suite de 30 piles P(P_2 | A) \approx 10^{-9}. Ça ne suffit donc pas à me convaincre. En l’occurrence la formule de Bayes donne:

    \begin{align*} \Prob{A|P_2} & = \frac{\Prob{A}\Prob{P_2|A}}{\Prob{P_2}} = \frac{10^{-9} \times 10^{-9}}{10^{-9}} = 10^{-9} \end{align*}

Ce deuxième cas est caricatural mais il soulève une erreur de logique : se contenter d’une preuve extraordinaire sans vérifier que cette preuve est beaucoup plus probable dans l’affirmation qu’elle cherche à valider.
Enfin une preuve satisfaisante pourrait donc être P_3 un article scientifique corroboré par plusieurs chercheurs et fournissant suffisamment d’informations sur l’existence de licornes et étayé par des vidéos et des photos. Une telle preuve serait tout à fait extraordinaire en soi (estimée pour l’exemple à une chance sur 800 millions) et totalement ordinaire si l’affirmation est vraie (estimée ici à 0.99\%). La formule de Bayes donne alors :

    \begin{align*} \Prob{A|P_3} & = \frac{\Prob{A}\Prob{P_3|A}}{\Prob{P_3}} = \frac{10^{-9} \times 0.99}{1.25*10^{-9}} = 0.792 \end{align*}

Ma crédence en l’existence des licornes est donc passé à environ 80\%.

Conclusion

Voilà donc quelques idées sur la complémentarité entre bayésianisme et zététique. Nous avons montré d’abord quelques écueils possible de la démarche zététique et comment le cadre bayésien permets en partie d’y répondre. Dans une dernière partie nous avons montré comment la formule de Bayes permet de retrouver et préciser deux principes de la zététique : le rasoir d’Ockham et la maxime de Hume.
Bien d’autres pièces restent à ajouter au puzzle afin d’obtenir un paradigme plus solide. Quid des autres principes de la zététique ? Des biais cognitifs et des sophismes ? Quid de la charge de la preuve ? Est-ce que la perspective bayésienne permet d’en dire quelque chose, voire d’enrichir ces concepts ? Néanmoins, à l’avenir, si votre recette zététique semble mécontenter votre auditoire, essayer d’y rajouter une pincée de bayésianisme pour la rendre plus légère.

Pourquoi punir les siens conduit à discriminer les autres. Une illustration du biais d’exotisme

S’abstenir de juger les personnes issues d’une culture différente de la nôtre ou prendre garde ou ne pas interpréter leurs actions comme si elles relevaient de nos normes sont a priori des bons principes. L’étude de Habyarimana que je présente ici nous indique même que ces principes sont plus observés qu’on ne pourrait le croire. Ils peuvent toutefois conduire à autant de discriminations que l’attitude inverse. Retour sur cette étude qui nous alerte sur ce qu’on pourrait qualifier de biais d’exotisme, miroir du biais d’ethnocentrisme.

Une longue tradition en sciences sociales et anthropologie nous a transmis deux enseignements : 1. Que nous avons tendance à être ethnocentriques, c’est-à-dire à considérer le monde avec notre propre culture comme modèle de référence. 2. Que l’ethnocentrisme conduit à des formes d’intolérance et de racisme, car il conduit à condamner les comportements étranges ou différents des nôtres comme s’ils venaient de gens éduqués dans notre culture 1. Cela nous conduit, par exemple, à condamner des sociétés cannibales en vertu du fait que, chez nous, les comportements cannibales sont condamnés.

Ces deux éléments ne sont pas dénués de fondement et nous faisons souvent l’expérience de juger les comportements d’autrui, comme si le modèle de référence était le nôtre.  Par exemple, le fait qu’on désigne encore aujourd’hui d’« invasions barbares » ce que les allemands qualifient de « migrations des peuples germaniques » révèle cette différence fondamentale de point de vue. Les récits provenant de notre culture nous présentent comme les « envahis », victimes de brutes abreuvées au lait de chèvre et dont le langage est incompréhensible. Nous les appelons de la façon dont nos ancêtres les ont vu.

Un exemple de représentation des « invasions barbares »

Cependant, s’éloigner autant que possible de toute tentation ethnocentriste n’est pas forçement une bonne attitude. Il existe un biais opposé au biais d’ethnocentrisme qu’on pourrait qualifier de biais d’exotisme. Il consiste à considérer que, parce que les gens sont élevés dans une autre culture, ils ne doivent pas être jugés selon les normes qui régissent notre société. Ce biais est 1. extrêmement courant, au moins autant que le biais d’ethnocentrisme et 2. susceptible de nous conduire à un comportement raciste ou discriminatoire.

Habyarimana et ses collègues montrent ce problème à travers une étude menée en Ouganda 2, l’un des pays les plus ethniquement 3 diversifiés du monde. Ils partent de l’idée, globalement déjà constatée 4, que les individus coopèrent moins avec des personnes issues d’un autre groupe. Pour vérifier si cela s’applique aussi à la société ougandaise, les auteurs mettent en place un jeu.

Diversité ethno-linguistique en Ouganda.
Source : Bernard Calas (2000) « Recompositions ougandaises. Les dividendes géographiques de la paix et de la légitimité politique » dans Jean-Louis Chaléard, Roland Pourtier (dir) Politiques et dynamiques territoriales dans les pays du Sud, p. 171-196

Mesurer la coopération est assez simple : il suffit de faire jouer les gens au « dilemme du prisonnier ». Dans ce jeu, deux joueurs doivent décider de conserver pour eux-mêmes un billet de 1 000 shillings ougandais (SO) ou de l’utiliser pour un projet de groupe. Si les deux joueurs choisissent la deuxième option, ils gagneront un bonus de 500 SO chacun. Naturellement, s’ils choisissent la première option, les deux garderont leurs 1000 SO. Le problème est que si l’un des deux choisit d’utiliser ses 1000 SO pour le groupe, alors que l’autre ne le fait pas, le premier recevra 750 SO et le second 1750 SO. Les deux joueurs doivent faire leur choix simultanément et ne sont pas en mesure d’observer les actions de l’autre joueur.

Voici comme ça marche :

Matrice des gains

Si vous êtes Dembe vous avez intérêt à garder l’argent. Car si Mukisa le conserve aussi vous gagnerez 1000 au lieu de 750 SO. En revanche, si Mukisa l’utilise pour le groupe, vous aurez 1750 au lieu de 1500 SO. Dans les deux cas, vous gagnerez 250 SO en gardant l’argent pour vous. Si vous êtes Mukisa vous faites exactement le même raisonnement. Le problème est qu’au final vous aurez 1000 SO chacun, alors que si vous aviez coopéré vous auriez 1500 SO chacun. Pour que la coopération ait lieu, donc, deux conditions doivent être satisfaites : un fort degré de confiance dans le fait que l’autre joueur ne garde pas l’argent pour lui et une volonté de ne pas vouloir arnaquer l’autre joueur

Les joueurs avaient, en plus, accès au nom et à la photo du joueur qu’ils avaient en face d’eux.  Il s’agissait bien sûr d’une information créée de toutes pièces par les expérimentateurs, mais elle avait une fonction claire : à partir du nom et de la photo, les joueurs prêtaient une appartenance ethnique à l’individu.  

Conformément aux études antérieures, les résultats montrent que les personnes coopèrent davantage lorsqu’ils jouent avec une personne de leur propre ethnie. Lorsque l’autre joueur est d’une ethnie différente, le taux de comportement coopératif baisse de 18%. Jusqu’ici rien de nouveau. Mais pourquoi agissent-ils ainsi ? Parce qu’ils n’ont pas confiance en l’autre joueur ou parce qu’ils souhaitent l’arnaquer?

Une variante de cette expérimentation conduit à l’explication suivante : les sujets coopèrent moins avec les personnes des autres ethnies parce qu’ils ne savent pas si ces personnes sont attachées aux mêmes valeurs de coopération et réciprocité qu’eux. Si cela n’est pas le cas, ils ne leur en tiennent pas rigueur, puisqu’ils attribuent cela à leur appartenance à une autre culture. Cependant, dans le doute, les sujets préfèrent ne pas développer de projets collectifs avec ces « étrangers ».

Avant de développer ce point, voici la façon dont les auteurs en font la démonstration. Le même jeu a été mis en place avec, en plus, un troisième joueur. Ce joueur observe les actions des deux premiers joueurs et peut choisir de punir l’un des deux ou les deux pour leur comportement. Sanctionner quelqu’un coûte 500 SO au troisième joueur (soit environ 1/20ème de ses avoirs) et entraîne la suppression des gains du joueur sanctionné.

Comment se comporte le troisième joueur ? En général, il punit les gens qui gardent les 1000 SO pour eux. Mais surtout, il punit davantage les joueurs issus du même groupe ethnique que lui, surtout lorsque ceux-ci jouent contre quelqu’un qui vient aussi du même groupe ethnique (c’est-à-dire dans un trio homogène). Dans cette configuration, garder l’argent pour soi conduit à avoir 23% de chances en plus d’être puni par le troisième joueur.

Ce résultat nous renseigne sur deux éléments importants. Premièrement, les ougandais ne sont pas si ethnocentristes, puisque beaucoup d’entre eux sanctionnent seulement les membres de leur propre groupe ethnique. Ils se permettent donc uniquement de juger les personnes qui, selon eux, devraient agir selon des normes similaires aux leurs.  En revanche, ils sont bien plus tolérants avec les autres, dont ils ne connaissent pas la culture. Deuxièmement, c’est précisément parce qu’ils renoncent à juger les gens issus d’une autre culture, qu’ils renoncent également à coopérer avec eux. Pour coopérer avec quelqu’un il faut s’assurer qu’il partage les mêmes normes que nous, qu’il soit conscient que la tricherie existe et qu’ils la jugent, de façon partagée, comme quelque chose de socialement indésirable.  

On peut tirer de nombreuses implications de cette recherche – bien que circonscrite au cas ougandais – sur la façon de conceptualiser et de lutter contre le racisme.

Elles révèlent que les comportements discriminatoires (au logement, à l’embauche) peuvent, aussi, être dûs à un trop faible niveau d’ethnocentrisme. Employeurs ou propriétaires, peuvent refuser de considérer le monde avec leur propre culture comme modèle de référence et, de ce fait, refuser d’entretenir un commerce avec des gens qui ne sont pas issus de leur propre culture.   

Ont-ils raison ? Pas toujours. On a tendance, certainement, à exagérer les différences entre cultures. A penser, par exemple, que les cannibales, parce qu’ils sont cannibales, obéissent à des normes radicalement opposées aux nôtres.

Quoiqu’il en soit, se méfier de l’ethnocentrisme n’est donc pas suffisant pour être à l’abri du racisme. Il faut également se méfier de la tendance inverse, l’exotisme. Il consiste à exagérer les différences entre cultures ou êtres humains. A penser que chaque culture ne peut pas se comprendre quand on est à l’extérieur, comme l’a prêché avec succès Clifford Geertz 5. Cela semble un bon principe, mais poussé trop loin, il ne l’est plus.

Quand les sciences sociales s’intéressent aux coutumes bizarres

Les récits historiques et archives – ou, du moins, celles qui nous parviennent – regorgent d’exemples de pratiques bizarres ou franchement barbares. Prenons, par exemple, l’exemple de l’ordalie ou jugement de Dieu pratiquée en Europe durant le Moyen-Âge. Elle consiste à soumettre un suspect à une épreuve douloureuse et potentiellement mortelle dont l’issue, déterminée par Dieu lui-même, décidait de l’innocence ou de la culpabilité du suspect. L’ouvrage What the Fuck?! L’économie en absurdie de Leeson (2018) nous donne des outils pour décrypter ces usages.

Rien d’étonnant à ce que, en se plongeant, dans le passé, le récit de pratiques comme la vente aux enchères publique de femmes mariées pratiquées en Angleterre entre la fin du 18ème et du 19ème siècle suscite la réprobation et l’indignation. Cette réaction est même, à de maints égards, salutaire, et alimentée par la représentation médiatique et cinématographique du passé lointain. Le Moyen-Âge y est volontiers présenté comme une période obscure, où régnaient la pauvreté, la crédulité et la barbarie.

Vente aux enchères de femme mariée (1812-1814), Thomas Rowlandson

L’objectif de ce livre est de prendre le contrepied de cette réaction pour pousser le lecteur à se questionner sur ce qui conduit les personnes à adopter et à se prêter à de telles pratiques. Face à cette question, deux stratégies sont possibles. La première consiste à juger ces pratiques comme relevant de l’irrationnel et de l’exotique. De nombreuses pratiques archaïques ont, d’ailleurs, donné lieu à des descriptions denses mettant en avant leur caractère révolu et unique sur le plan de l’histoire de l’humanité 1. La second stratégie consiste à retracer, dans le passé, les facteurs qui expliquent la création, le maintien et la disparation de tels usages et qui pousseraient tout un chacun, placé dans les mêmes circonstances, à se prêter aux mêmes bizarreries.  A l’exotisme s’oppose donc la pensée analytique, basée sur une théorie du comportement humain, valable au-delà des circonstances historiques et géographiques.

Outil d’analyse et méthode employée

La grille d’analyse que choisit l’auteur de l’ouvrage est celle de la théorie du choix rationnel. Cette théorie repose sur un postulat et un outil :  

  • Postulat : Les individus sont rationnels dans un sens très précis : ils disposent de préférences qu’ils s’efforcent de poursuivre de la façon la plus efficiente possible (selon un calcul coût/ bénéfice) dans la limite de l’information dont ils disposent (et de leur capacité à la traiter)
  • Outil : Les calculs coût/ bénéfices des individus dépendent des contraintes et des « coups de pouce » (les incitations) auxquels ces derniers sont soumis. Ces incitations sont de divers types : institutions politiques, droit,… Si la rationalité (au sens défini plus haut) ne varie pas à travers les âges et les lieux, les incitations, elles, varient.

L’hypothèse est donc la suivante : une fois ces incitations décryptées, des pratiques étranges révèlent leur logique. Attention, il ne s’agit pas ici de justifier de telles pratiques mais de les analyser de la façon la plus rigoureuse possible.   L’intérêt de cette approche est de permettre de considérer l’irrationalité ou la folie de nos ancêtres comme l’hypothèse la plus coûteuse. Avant d’y recourir, autant épuiser des explications considérant que les personnes hier et aujourd’hui développent des stratégies ingénieuses pour régler les problèmes ils sont confrontés. Armés de cette grille analytique, la lectrice et le lecteur peut débuter son tour de l’absurde – le livre étant rédigé comme une visite commentée, où les analyses sont rythmées par les questions et réactions du public 2. La méthode employée est celle du récit analytique : la pratique ancienne est décryptée ainsi que le contexte idéologique, juridique et politique dans lequel elle s’insère (les fameuses incitations). L’auteur démontre ensuite comment les incitations expliquent l’existence de pratiques bizarres, et comment un changement dans ces incitations produit une disparition graduelle de la croyance ou sa persistance sous de nouvelles formes. L’analyse est fouillée sur la base de documents historiques, présentés en note. Pour les plus experts, une annexe modélise la pratique étudiée sur la base d’équations mathématiques.

L’exemple de l’ordalie

L’ordalie par le feu

Reprenons l’exemple de l’ordalie pour illustrer le propos. Quelques faits de base d’abord. Ce type de jugement a perduré entre le 9ème et le 13ème siècle en Europe. Deux types furent particulièrement courant. L’ordalie par le feu commandait de faire plonger la main du suspect dans de l’eau bouillante ou la faire brûler par du fer chaud (iudicium aquae fervantis and iudicium ferri). Si le suspect n’était pas blessé, un miracle avait démontré son innocence. L’ordalie par l’eau froide consistait en jeter à l’eau le suspect (probatio per aquam frigidam). Si le malheureux flottait, il était reconnu coupable. Ce jugement était très encadré (on ne rigole pas avec l’invocation de Dieu) et était réservé aux crimes les plus graves (selon les normes de l’époque) et aux cas où la vérité ne pouvait être connue par d’autres moyens (témoignage confondant ou aveux) (p.10).

Face à cette pratique, quelles sont les possibilités d’un suspect ? Précisons d’emblée qu’au Moyen-Âge la croyance en Dieu était très répandue et l’influence de l’Église très forte. Elle transparait d’ailleurs tout au long du livre. S’il est coupable, le suspect a fortement intérêt à avouer tout de suite, accepter la sentence et éviter une souffrance supplémentaire et inutile. S’il est innocent, le choix est plus difficile mais, comme l’individu a, en plus, de fortes chances de croire en Dieu, il peut tenter l’ordalie en espérant échapper à une sanction terrible et injuste.

Étrangement, les prêtres semblent parfaitement informés de ce raisonnement chez le suspect. En effet, les archives sur l’ordalie concluent au miracle dans la majorité des cas (entre 62,5% et 89 %). En reprenant les récits de jugement par le feu, l’auteur montre qu’un temps très long s’écoule entre le chauffage de l’eau ou du fer et le châtiment. La cérémonie est complexe et laissée à la totale discrétion du prêtre. Cela laisse largement la possibilité au fer et à l’eau de refroidir. Dans le cas de la mise à l’eau, les archives suggèrent que les prêtres sélectionnent les personnes les plus susceptibles de couler pour ce châtiment (les hommes lourds).

Aujourd’hui, avec l’ADN, les empreintes et autres avancées scientifiques, nous avons moins besoin de manipuler les suspects de la sorte. De plus, dans les sociétés connaissant un déclin des croyances religieuses, le jugement de Dieu n’est guère une manière de distinguer les coupables et les innocents. Cependant, nous pratiquons aussi nos « ordalies » à nous. L’auteur montre ainsi qu’aux États-Unis, la croyance en la toute-puissance de la technologie est plus développée que celle dans les croyances religieuses. Le système judiciaire y pratique donc le recours « détecteur de mensonge », une invention maison. Officiellement, il s’agit d’une technologie de pointe permettant de savoir si le suspect ment sur la base de manifestations physiologiques. En réalité, l’instrument si peu fiable qu’il ne sert quasiment à rien. Enfin, si : il sert à évaluer la motivation du suspect à se soumettre à une telle épreuve. S’il y va sans crainte, tel jadis un innocent face à l’eau bouillante, alors les enquêteurs pourront écarter la piste.

Cet ouvrage mérite sa place dans la bibliothèque de tout penseur critique et enseignant en pensée critique. Il invite à se méfier de notre tendance à considérer les pratiques passées comme exotiques et montre que les sciences sociales disposent d’outils pour analyser des institutions juridiques bizarres. Le raisonnement pourra être appliqué avec profit aux institutions actuelles. C’est aussi une mine d’or pour enseigner la pensée critique dans le supérieur ou, pourquoi pas, avec des lycéens sur la base d’exemples particulièrement bien choisis.


Les capacités cognitives ne sont pas suffisantes pour diminuer l’adhésion aux croyances non fondées

C’est un travail de recherche collectif et transdisciplinaire qui a permis la publication de cet article. Jaïs Adam-Troian, Denis Caroti et Thomas Arciszewski ont regroupé leur force pour étudier les réponses à un questionnaire envoyé aux enseignants de l’académie d’Aix-Marseille et sonder leurs croyances et capacités cognitives, mais avec une petite subtilité… En voici le résumé.

Cette étude, intitulée Unfounded beliefs among teachers: The interactive role of rationality priming and cognitive ability, s’inspire de recherches antérieures indiquant que les capacités cognitives doivent être associées à une motivation à être rationnel et à fonder ses opinions sur des preuves pour faire diminuer l’adhésion à des croyances non fondées (croyances surnaturelles et mentalité conspirationniste). Sur la base de ce travail, nous avons cherché à déterminer s’il était possible « d’activer » cette motivation à être rationnel de manière subtile, et si cela était suffisant pour renforcer la relation négative entre les capacités cognitives et les croyances non fondées. Pour cela, nous avons testé deux groupes équivalents d’enseignants du second degré français (762 en tout), le premier étant « amorcé » par une simple question demandant aux sujets de juger à quel point ils se jugeaient comme étant des personnes rationnelles.

Nous avons pu démontrer que cet amorçage, même subtil, renforçait la relation négative entre les capacités cognitives et les croyances surnaturelles non fondées, ainsi que la mentalité conspirationniste, et ce d’autant plus que les sujets se déclaraient être des personnes rationnelles. En d’autres termes, la diminution de l’adhésion aux croyances non fondées est liée négativement aux capacités cognitives que dans le cas de personnes se déclarant être rationnelles. Notons que si cette amélioration de la rationalité détermine complètement le lien entre capacités cognitives et mentalité conspirationniste, elle ne sert qu’à amplifier la relation entre capacités cognitives et croyances surnaturelles.

Ces résultats ouvrent des pistes intéressantes d’application pédagogiques. Des études antérieures ont montré qu’il est possible de promouvoir un scepticisme argumenté à l’égard de croyances non fondées en fournissant aux gens des contre-arguments spécifiques, l’inconvénient étant que de telles interventions ne ciblent que certaines affirmations, et qu’elles peuvent par ailleurs entraîner un effet rebond. En revanche, ces résultats confirment que les interventions pédagogiques visant à développer l’esprit critique pourraient être ciblées, non pas sur des sujets spécifiques, mais plus généralement sur la motivation des personnes à être « épistémiquement rationnelles », c’est-à-dire à reconnaître la valeur de la connaissance et à fonder leurs opinions sur des preuves fiables. Le recours à des stratégies pédagogiques allant dans ce sens, comme le choix de thématiques dont l’intérêt et l’enjeu sont perçus et en rapport avec les motivations du public cible (comme une utilité dans la vie de tous les jours), ou la mise en valeur (et désirabilité) de vertus épistémiques tendant vers la valorisation des connaissances, nous semblent des pistes intéressantes dans le cadre d’enseignements dont l’objectif est la formation de l’esprit critique.

Résumé en anglais :

Previous research suggests that Unfounded Beliefs (UB) such as conspiracist beliefs and beliefs in the supernatural stem from similar cognitive and motivational mechanisms. More specifically, it has been demonstrated that cognitive ability is negatively associated with UB, but only among individuals who value epistemic rationality. The present study goes beyond previous correlational studies by examining whether the negative association between cognitive ability and UB can be strengthened through a subtle rationality prime. In a large scale online experiment (N = 762 French teachers), we demonstrate that priming rationality (vs. control) does enhance the negative relationship between cognitive ability and adherence to supernatural beliefs, as well as Conspiracy Mentality (d = .2). This effect was not obtained for Illusory Pattern Perception. This study’s usefulness as a ‘proof of concept’ for future interventions aimed at reducing UB prevalence among the public is discussed.

Tout savoir sur le RIC: un nouvel ouvrage fondé sur les preuves

RIC pour référendum d’initiative citoyenne. Ces trois lettres ont fait les gros titres des médias et se sont retrouvées au cœur des revendications populaires suite au mouvement des Gilets Jaunes qui a débuté le 17 novembre 2018. Un nouveau livre écrit à plusieurs mains par des membres, collaborateurs et amis du CORTECS, dévoile ce qui se cache derrière ces trois lettres.

Depuis qu’il est devenu l’une des revendications majeures du mouvement des Gilets Jaunes, le RIC a alimenté les fantasmes et les théories les plus farfelues. On a ainsi pu entendre que le RIC conduirait au rétablissement de la peine de mort ou que la culture politique des Francais ne les rendrait pas aptes à utiliser la démocratie directe à la manière de leurs voisins suisses.

Étrangement, alors que les recherches sur le fonctionnement du RIC dans le monde et sur ses impacts sur la vie politique et les citoyens sont nombreuses, anciennes et solides, elles restent très peu diffusées en France. Un nouveau livre co-écrit par Raul Magni-Berton et Clara Egger – et auquel Ismael Benslimane, Nelly Darbois, Albin Guillaud et Baptiste Pichot ont collaboré – propose une synthèse de ces travaux pour permettre à chacun de se faire un avis éclairé sur ce sujet.

Les lectrices et lecteurs y trouveront les informations centrales sur les principes et justifications du RIC, son histoire, ses variantes dans le monde, ses conséquences sur la politique d’un pays et sur ses citoyens. Les deux derniers chapitres sont consacrés de facon plus opérationnelle à l’instauration du RIC en France.

De la matière pour exercer son esprit critique sur des sujets politiques !

Best of saison 26, mai 2018

Depuis vingt-six semestres, les étudiant.es qui suivent le cours Zététique & autodéfense intellectuelle à l’Université Grenoble-Alpes rendent des dossiers. Certains sont vraiment très bons, et méritent d’être diffusés. D’autres sont certes de moins bonne facture, mais valent le détour par une certaine forme d’audace intellectuelle, ou par une opiniâtreté rare. Ce semestre offre un bouquet rafraîchissant : du côté protocoles, une superbe étude sur l’expérience du riz de Masaru Emoto, un test de la « loi » de Murphy et une tentative très élégante de caractérisation du « voile d’ignorance », dans la théorie de la justice de Rawls ; sur le versant légendes urbaines, morsures d’araignées et anti-vomitifs  chez McDo ; dans la sphère psychologique, retour sur l’effet Pygmalion ; dans les grands classique de l’étrange, un peu de climato-révisionnisme et de pain empoisonné à Pont-Saint-Esprit ; enfin, facette plus politique, analyse lapidaire du sondage « sexe et politique, et très belle enquête sur la nébuleuse qui entoure Amma, alias Mata Amritanandamayi, qui elle-même entoure des millions de personnes de ses bras… généreux ?

Je précise que pour des étudiant-es de 1ère et 2ème année, ce type de travail d’enquête est souvent une première, aussi la forme est-elle parfois décousue, et les fautes ont parfois la forme de vraies constellations. Peu importe : ce qui compte est la qualité de la démarche, le scepticisme méthodologique et la curiosité.

Expérience du Riz de Masaru Emoto – Laura FREBY, Marius MONNIER, Clément CHLOUS

Y a-t-il des anti-vomitifs dans les McDo ? – Antonin BRESSON, Alexis PELLETIER, Jade GUICHENAL, Jeanne SERRA, Marion RUSSO, Romain BULLAT et Shane MOISSONIER

L’amour : un phénomène complexe aux enjeux biologiques et sociologiques – Caty BALULA, Laura SATIN, Diane THIBAUT, Charlotte AUCLAIR, Laurène ARGENVILLE

Loi de Murphy – Leslie DOS SANTOS, Camille FUSER, Souhaili SAIDI, Lucas SURREL, Justine BELLOT

Les araignées peuvent-elles pondre sous la peau ? – Zoé PONTON, Florine PELLERING, Isabelle JULIAA, Inès MUCEL, Héloïse VIVIER

L’efficacité de l’effet Pygmalion dans le milieu scolaire peut-elle être prouvée scientifiquement ? – Hava-nur KARADEMIR, Ipek DOGAN, Alexandra DEFLORENNE, Enrico CARRA, Charlotte BUIS

Les câlins d’Amma – Jérémie LECOCQ, Victoire GUERRINI, Zohra RUIZ, Laëtitia BOYER, Anthony KEFES

L’affaire du pain maudit de Pont-Saint-Esprit : est-il raisonnable de remettre en cause l’hypothèse de l’empoisonnement par l’ergot de seigle ? – Fanélie BUFFAT, Manon GINOUX, Justine LEFEBVRE, Athénaïs FANDOS

La conférence de Vincent Courtillot : les arguments avancés en faveur de la théorie climato-sceptique sont-ils valables ? – Thomas LESOURD-LAUX, Jordan PRAYER

Analyse critique du sondage « Sexe et politique » – Aloïs DELASALLE, Marie AGIER, Juliette ORIOT, Tiphaine DUCHÂTEAU, Ambre AUJARD-CATTOT

Test du Voile d’ignorance, dans la théorie de la justice de J. Rawls – Mathilde VOISIN, Mickaël GUINGAND, Caroline ROBERT

Rapport CORTECS CNOMK : l'ostéopathie viscérale à l'épreuve des faits

En 2015, nous avions réalisé un rapport à la demande du Conseil national de l’ordre des kinésithérapeutes (CNOMK) portant sur la validité scientifique de l’ostéopathie crânienne, une des ramifications de l’ostéopathie. En 2016, un an après, nous avons rendu un deuxième rapport au CNOMK concernant une deuxième sphère de l’ostéopathie : l’ostéopathie viscérale (RAPPORT CORTECS − Ostéopathie viscérale). Ce document a été rendu public au mois de mars 2018 après un vote des membres du CNOMK. Voici un résumé de ce rapport de 288 pages dans lequel nous avons soigné au maximum le détail des méthodes de recherche et d’analyse employées. Des remarques, des questions ? Nous vous invitons à lire la partie QFP à la fin de cet article.

Résumé

Dans ce rapport, nous nous sommes attelé·es à trois tâches principales. Nous avons d’abord reconstitué l’histoire de l’ostéopathie viscérale, puis nous avons décrit et analysé ses fondements théoriques, et enfin nous avons synthétisé et examiné les preuves portant sur ses procédures cliniques (diagnostiques et thérapeutiques).

À propos des fondements de l’ostéopathie viscérale, ont été décrits et analysés :

  • Les concepts de « mobilité viscérale » et de « dynamique viscérale ».
  • Le rapport entre mobilité viscérale et pathologie avec tous les concepts ostéopathiques associés tels que ceux d’« articulation viscérale », de « fixation viscérale », de « dysfonction ostéopathique viscérale », de « Dynamique intrinsèque© » et de « motricité viscérale ».
  • Le concept de « motilité viscérale ».
  • Le concept de « chaîne ostéopathique » recouvert par différentes expressions telles celles de « suite mécanique », de « chaîne lésionnelle », de « chaîne phréno-médiastino-vertébro-crânienne » et de « tendon viscéral central ».
  • Le concept de ptose viscérale et ses concepts parents tels celui d’« entéroptose » ou d’« hépatoptose ».
  • Le concept d’« élasticité viscérale » et ses concepts associés : « lésion de tissularité », « loi des tubulures », « autonomie viscérale », « dysfonction ostéopathique viscérale, « Dynamique© intrinsèque », « dysfonction de raccourcissement© » et « dysfonction d’étirement© ».
  • Le « Modèle Pressif© Finet-Williame » qui articule les concepts de « dysfonction ostéopathique viscérale », de « réflexe dynamogène », de « série musculaire respiro-posturale », de « dysposturalité tonique© » de « posturalité tonique-phasique© », de « colonne de pression© » et de « report pressif »CorteX_visceres.
  • Le concept d’« hypersensitivité© viscérale ».
  • Les concepts de « tenségrité », « biotenségrité » et de tenségrité en ostéopathie.

La conclusion de notre rapport est claire : aucun des concepts spécifiques à l’ostéopathie viscérale n’est fondé :

Si les ostéopathes viscéraux se sont appropriés des concepts physiologiques et biomécaniques valides (tels que la mobilité et la dynamique des viscères, le fait que la pression intra-abdominale puisse varier, ou encore le fait que les organes intra-abdominaux soient élastiques), tous ces phénomènes sont connus de la communauté médico-scientifique et aucun d’entre eux n’a été découvert par un ostéopathe.

Quant aux conceptions spécifiques à l’ostéopathie viscérale, aucune ne bénéficie de donnée scientifique pour la soutenir. En outre, les ostéopathes viscéraux font un mésusage du concept de « ptose viscérale » en s’appuyant sur un arrière-plan théorique dépassé. D’autre part, leur raisonnement en « chaîne ostéopathique » que l’on retrouve sous la forme de différents concepts chez tous les ostéopathes viscéraux, à défaut de produire des hypothèses testées ou testables expérimentalement, ne s’apparente pour l’instant qu’à un jeu intellectuel de construction anatomique et biomécanique […]

En résumé, rien ne permet aujourd’hui de défendre que l’ostéopathie viscérale dispose de fondements scientifiques théoriques propres, et cela tant du point de vue physiologique que pathologique. Toutefois, cela ne présage pas nécessairement de l’inefficacité des procédures diagnostiques et thérapeutiques des ostéopathes viscéraux : c’est pourquoi c’est à la recherche et à l’examen des données expérimentales testant ces procédures qu’a été consacrée la prochaine et dernière partie de ce rapport.

CorteX_bmcNotre travail sur les procédures diagnostiques et thérapeutiques de l’ostéopathie viscérale à quant à lui fait l’objet d’une publication dans la revue BMC Complementary and Alternative Medicine1 dont nous avons parlé ici. Nos résultats permettent d’affirmer qu’il n’existe aucune donnée soutenant les reproductibilités intra et inter-observateurs des techniques diagnostiques de l’ostéopathie viscérale. La majorité des études existantes et disponibles échoue à mettre en évidence ces reproductibilités pour tous les paramètres considérés. Enfin, la revue de littérature réalisée n’a pas permis d’identifier de preuve méthodologiquement valable et favorable à une efficacité thérapeutique spécifique des techniques de l’ostéopathie viscérale.

QFP (Questions fréquemment posées)

Nous répondrons bien volontiers aux remarques, questions et critiques qui :

  • concernent strictement le contenu de ce rapport (l’évaluation des fondements théoriques et cliniques de l’ostéopathie viscérale) ;
  • nous parviennent directement (contact < at > cortecs.org).
  • ont un ton courtois et ne font pas d’attaque à la personne ;
  • sont étayées avec des références précises et accessibles ;
  • ne sont pas déjà traitées dans le rapport ou dans notre article Rapport ostéopathie crânienne − réponses aux réactions.

Vidéo Disputatio n°2 – Souffrance animale et expérimentation thérapeutique

Après la première mouture de disputatio, réalisée en octobre 2016 (voir ici : Vidéo – Disputatio n°1 – L’art du débat rationnel), nous avons remis le couvert le mardi 21 novembre 2017 sur un thème fréquent de nos enseignements liés à la philosophie morale : la souffrance animale se justifie-t-elle moralement dans le cadre de l’expérimentation thérapeutique ? Nos invités furent le pharmacologue Christophe Ribuot et le militant égalitariste Yves Bonnardel. L’événement, qui rassembla environ 350 personnes, fut filmé par les bons soins de Fabien La Rocca, et mis en forme par Djamel Hadji, tous deux membres de l’équipe audiovisuelle de l’Université Grenoble-Alpes. L’événement fut dédié au réseau libre-penseur Mukto-Mona. Il n’y eut aucun travail de coupe dans le document. A déguster sans modération.

Déroulement

CorteX_Dispute_2_Ribuot
Christophe Ribuot

Le plan du soir fut le même que pour la première fois, et nos consignes sont données dans le début de la vidéo.

CorteX_Dispute2_Bonnardel_Darbois
Yves Bonnardel, et la juge Nelly Darbois
Nicolas Vivant
Nicolas Vivant
  • Puis 20/20/10/10 : tirage au sort de la partie qui commence, puis 20minutes de présentation pour chaque partie, puis 10 minutes de réponses aux arguments de la partie adverse.
  • Système d’arbitrage : deux juges de touche ont la possibilité d’arrêter le débat si une entourloupe argumentative est déployée.
  • Vérification des faits (fact checking) : en cas d’utilisation d’une donnée chiffrée, possibilité de vérifier en direct la valeur de la donnée.
  • Enfin le public a eu la possibilité de transmettre ses propres questions par SMS (nous réfléchissons à un système permettant d’archiver ces questions par un autre procédé).
CorteX_dispute2_Monvoisin_Peccoud_Guillaud
Richard Monvoisin, Julien Peccoud et Albin Guillaud

Faisant l’analyse de l’événement, le principal regret fut dans le fait que le débat s’est quelque peu « croisé », et non opposé. Par contre le débat fut dans la forme de haute tenue, et le nombre d’interventions assez faible du jury en est témoin.  Voyez plutôt ci-dessous.

Christophe Ribuot met son diaporama à disposition en pdf : ici.

Les vidéos

Premier round

Deuxième round

Troisième round

Quatrième round

Résultats du test

Avec l’aide de Timothée Guilhermet et de Timothée Gallen, nous avons dépouillé les 207 résultats exploitables. Nous avons posé les hypothèses suivantes :

  • H1: Il y a une différence significative entre les scores avant et les scores après le débat chez les personnes du public
  • H2 : les différences entre les scores avant et après le débat sont dépendantes de l’âge du public (avec l’hypothèse que plus une personne est âgée, moins elle tend à changer d’avis). Aussi avons-nous trié trois populations : moins de 18 ans, 18-34, et 35 ans et plus.
  • H3 : les Les différences entre les scores avant et après le débat sont dépendantes de la position de départ : si extrême, peu mobiles ; si modérée, elles seront plus mobiles.

Nous avons dépouillé en attribuant -1 jusqu’à -5 aux positions du non, et +1 à +5 aux position du oui. Tous les résultats sont tronqués à trois décimales.

Le résultat est… décevant.

La moyenne générale est avant débat de -0.789 ; après débat, de -0.756. Nous avons commencé par tester la normalité de la distribution, et comme celle-ci n’était pas normale, nous avons ensuite fait un test de Wilcoxon signé pour comparer les résultats avant et après. Aucun résultat significatif sur l’effet général, donc H1 n’est pas validée.

Moyenne des moins de 18 ans : avant débat: -0.571 ; après débat: -0.035.

Moyenne des 18-35 ans : avant débat: -1.175 ; après débat: -1.221.

Moyenne +35 ans avant débat: -0.625 ; après débat: -0.729.

La même méthode (normalité puis Wilcoxon) a été utilisée, en testant les moins de 18 ans, ce qui suffit à compromettre l’hypothèse H2. Les différences entre les scores avant et après le débat ne sont donc pas accrues avec la jeunesse du public, puisque les différences sont non significatives même pour les plus jeunes. H2 n’est donc pas validée.

Pour H3 (les différences entre les scores avant et après le débat sont dépendantes de la position de départ : si extrême, peu mobiles ; si modérée, elles seront plus mobiles), nous avons fait comme suit : soit Delta {+/-i}, la moyenne des différences entre la valeur avant et la valeur après pour les gens ayant répondu i ou-i avant.

On s’attend d’après H3 à :

Delta {0} > Delta {+/-1}  > Delta {+/-2} > Delta {+/-3} > Delta {+/-4}

Voici les résultats tronqués à la 4ème décimale.

Delta {0} = 1.5384

Delta {+/-1} = 1.0243

Delta {+/-2} = 1.0245

Delta {+/-3} = 0.625

Delta {+/-4} = 0.7380

On a donc : Delta {0} > Delta {+/-2}  > Delta {+/-1} > Delta {+/-4} > Delta {+/-3}

Sans aucun test, on constate par simple calcul de la moyenne que l’effet n’est pas présent.

Aucune de nos hypothèses de départ n’a donc été validée. Ainsi va la science. Il est possible que ce soit du fait du « croisement » des argumentaires, et/ou aussi d’un effet de gel des positions sur des sujets aussi affectivement marqués. D’autre part, l’idée du questionnaire a été tardive, et fut construite en peu de temps. Il n’est pas exclu que les résultats soient biaisés, par la forme de la présentation, par celle de la question ou celle des modalités de réponse. Nous ferons notre possible pour améliorer le prototype et enlever cette variable de nos biais potentiels. Gageons que les disputes ultérieures auront un plus fort impact, sinon il nous faudra admettre que ce stratagème pédagogique ne porte pas les fruits escomptés.

Les statistiques ont été traitées par le logiciel (non libre) SPSS par Timothée Guilhermet, Licence 3 de psychologie, et Timothée Gallen, Master 2 philosophie des sciences.

CorteX_disputatio_souffrance_animale_21.11.2017

Merci à Ismaël Benslimane, Julien Peccoud, Nicolas Vivant, Nelly Darbois, Albin Guillaud, Timothée Gallen, Timothée Guilhermet, Fabien La Rocca, Djamel Hadji, Francois B pour le graphisme, Serge Merlin-Forel qui s’est démené pour nous procurer les chaises d’arbitre et les conférenciers qui se sont bien donnés, Christophe Ribuot et Yves Bonnardel. Grand merci à Armand Zvenigorodsky pour la musique spécialement créée pour nous.

Publication sur l'ostéopathie viscérale dans BMC Complementary and Alternative Medicine

Depuis plusieurs années, nous analysons de manière approfondie l’historique, les fondements physio-pathologiques, les outils diagnostics et l’efficacité spécifique de diverses thérapies ou méthodes, pratiquées notamment par les kinésithérapeutes : fasciathérapie méthode Danis Bois, biokinergie ou encore ostéopathie crânienne. En décembre 2016, nous vous annoncions notre publication, non sans encombre, d’une partie de nos travaux sur l’ostéopathie crânienne dans Plos One. Nous nous sommes à nouveau soumis·es au processus de relecture par les pairs pour publication dans une revue scientifique indexée. Cet article porte cette fois sur l’ostéopathie viscérale. Se trouve ci-dessous la référence de la publication (en accès libre), son résumé, ainsi qu’une petite note à l’intention de nos lectrices et lecteurs qui attendent avec impatience la mise à disposition de notre rapport complet sur l’ostéopathie viscérale.

Référence de l’article

Albin Guillaud, Nelly Darbois, Richard Monvoisin, Nicolas Pinsault. Reliability of diagnosis and clinical efficacy of visceral osteopathy: a systematic review. BMC Complementary and Alternative Medicine. 2018 18:65

Lire ou télécharger la publication en PDF ici.

Résumé (en anglo-américain)

Il est possible d’utiliser Deep-L pour traduire ce texte.

Background

In 2010, the World Health Organization published benchmarks for training in osteopathy in which osteopathic visceral techniques are included. The purpose of this study was to identify and critically appraise the scientific literature concerning the reliability of diagnosis and the clinical efficacy of techniques used in visceral osteopathy.

Methods

Databases MEDLINE, OSTMED.DR, the Cochrane Library, Osteopathic Research Web, Google Scholar, Journal of American Osteopathic Association (JAOA) website, International Journal of Osteopathic Medicine (IJOM) website, and the catalog of Académie d’ostéopathie de France website were searched through December 2017. Only inter-rater reliability studies including at least two raters or the intra-rater reliability studies including at least two assessments by the same rater were included. For efficacy studies, only randomized-controlled-trials (RCT) or crossover studies on unhealthy subjects (any condition, duration and outcome) were included. Risk of bias was determined using a modified version of the quality appraisal tool for studies of diagnostic reliability (QAREL) in reliability studies. For the efficacy studies, the Cochrane risk of bias tool was used to assess their methodological design. Two authors performed data extraction and analysis.

Results

Eight reliability studies and six efficacy studies were included. The analysis of reliability studies shows that the diagnostic techniques used in visceral osteopathy are unreliable. Regarding efficacy studies, the least biased study shows no significant difference for the main outcome. The main risks of bias found in the included studies were due to the absence of blinding of the examiners, an unsuitable statistical method or an absence of primary study outcome.

Conclusions

The results of the systematic review lead us to conclude that well-conducted and sound evidence on the reliability and the efficacy of techniques in visceral osteopathy is absent.

Plus d’informations

Cet article est tiré d’un rapport que nous avons réalisé à la demande du Conseil national de l’ordre des masseurs-kinésithérapeutes (CNOMK). En plus du contenu de la publication dans BMC Complementary and Alternative Medicine, sont présentés dans ce rapport les résultats d’une enquête exhaustive sur l’histoire de l’ostéopathie viscérale, la description précise de ses fondements théoriques, et l’analyse de la validité scientifique de ces mêmes fondements1. Ce rapport est élaboré à partir d’une méthodologie similaire à celle employée dans le rapport sur l’ostéopathie crânienne, mais améliorée par notre expérience, nos erreurs et l’aide des outils de la collaboration Cochrane en constante évolution. Nous avons terminé et rendu le rapport au CNOMK en octobre 2016. Ce travail n’a pas encore été rendu public.

Les fondements de la sophrologie : entre conte New Age et pseudo-science – Parution dans Sciences et pseudosciences

Vous prenez une jeune et fringante doctorante, vous lui mettez sous le nez un thème qu’on prend pour évidemment solide, tellement il est incrusté dans la panoplie psychologique. Las ! Comme l’écrivait Aragon, « Rien n’est jamais acquis » 1. Et l’œil critique et bleu de Gwladys soulève le couvercle, et découvre la semi-vacuité de cette méthode, inventée et brevetée par un certain Alfonso Caycedo, décédé, il y a peu. Vient ensuite un spécialiste de la recherche bibliographique, mister Albin Guillaud, qui étoffe la revue d’études sur le sujet, mais rien n’y fait : que cela nous fasse plaisir ou pas, la Sophrologie caycédienne (marque déposée) est un brouet de sorcière, plein de tourbe, de vase, et de quelques ingrédients mystérieux qui semblent sortir directement de l’imagination du fondateur. Nous avons rédigé un travail complet, qui a été savamment réduit dans les pages du n°323 de la revue Sciences et pseudosciences de l’AFIS, sous le titre : Les fondements de la sophrologie : entre conte New Age et pseudo-science, par Gwladys Demazure, Albin Guillaud et Richard Monvoisin.

CorteX_SPS_323

Pour trouver l’article, et soutenir une revue au contenu rare, commandez le numéro ici.

Pour en savoir plus, nous mettrons sous peu notre article de départ.