Vers une vision bayésienne de la zététique: Justifier et enrichir la démarche zététique à partir de la formule de Bayes

Nicolas Martin, après avoir étudié les mathématiques appliquées à l’INSA Toulouse, a obtenu son doctorat en automatique au sein du GIPSA-lab et de l’université Grenoble Alpes. Il s’intéresse depuis plusieurs années à la zététique, l’esprit critique et leur transmission auprès du public. Depuis début 2020, Il publie des articles de vulgarisation scientifique et d’esprit critique sur le blog « Mon Œil ! »1Voici une de ses productions:

La zététique est un mouvement de pensée qui promeut l’utilisation de la pensée critique et de la méthode scientifique pour traiter efficacement le tsunami d’informations qui nous parvient chaque jour. Il semble néanmoins que cette démarche serait plus efficace encore si elle était soutenue par une vision bayésienne c’est-à-dire une approche qui prône l’usage des probabilités pour quantifier nos croyances. La démarche zététique est régulièrement le fruit de critiques : elle parait parfois dogmatique, parfois antipathique et parfois inapte à répondre à certains problèmes. Nous verrons dans cet article que le raisonnement bayésien soutient l’approche zététique et lui apporte un peu de nuance. Récemment, plusieurs travaux dans la communauté zététique sont allé dans ce sens, initiés principalement par Lê Nguyen Hoang (influencé par les travaux de Julia Galief écrivaine, conférencière et co-fondatrice du Center for Applied Rationality), avec son livre « La formule du savoir », sa série de vidéos sur le sujet 2 et ses podcasts3, l’approche bayésienne et ses apports à la zététique ont également été traités par Christophe Michel (animateur de la chaine Hygiène mentale)4, Nathan Uyttendaele (animateur de la chaine Chat Sceptique)5 ou encore Thibaud Giraud (animateur de la chaine Monsieur Phi)6. C’est dans ce mouvement que s’inscrit cet article dont l’objectif principal est de montrer comment le bayésianisme corrobore et enrichit certains outils zététiques.
Nous présenterons dans un premier temps quelques points critiques de la zététique qui motivent l’introduction d’un cadre bayésien. Nous introduirons ensuite succinctement le formalisme bayésien avant de présenter dans la dernière partie la contribution principale de cet article : la déduction de deux principes zététiques, rasoir d’Ockham et maxime de Hume, à partir de la formule de Bayes, formule sur laquelle se base l’approche bayésienne.
Cet article est loin de faire le tour de la question. Au contraire, comme son titre l’indique, le but ici est de fournir quelques arguments invitant à une réflexion plus poussée sur l’apport de l’approche bayésienne à la zététique.

Les limites de l’approche zététique

Il semble que l’approche zététique ait une mauvaise image de la part des croyant-e-s et des tenant-e-s des affirmations para-scientifiques7 mais pas seulement, certaines critiques viennent des zététiciens eux-mêmes8. Si certaines critiques peuvent être maladroites, d’autres en revanche nous paraissent pertinentes. Notons également que la plupart des critiques ne concerne pas la zététique dans son essence mais des écueils dans lesquelles il est facile de tomber. Nous proposons une liste de ces critiques ci-dessous. Nous verrons ensuite en quoi le bayésianisme peut répondre en partie à ces défaillances.

Des principes dogmatiques

Le rasoir d’Ockham, la maxime de Hume, la charge de la preuve, la valeur d’une preuve, l’impossibilité de prouver l’inexistence… Ces principes se posent parfois comme des dogmes de la zététique. Ce n’est pas un problème en soi puisque leur justification apparaît a posteriori : On se rend compte, en les utilisant, qu’effectivement on a tendance à se tromper moins souvent. En revanche, justifier a priori que ces principes sont cohérents, sont suffisants et nécessaires est une question plus complexe mais qui soutiendrait d’autant plus la démarche zététique.
En réalité, nous le verrons plus loin: le rasoir d’Ockham et la maxime de Hume peuvent se déduire de la formule de Bayes, formule dont on peut également justifier la cohérence.

De bons outils dans des mains maladroites

Carl Sagan dans The Fine art of Baloney Detection accompagne son texte de cette note appelant à la précaution : Like all tools, the baloney detection kit can be misused, applied out of context, or even employed as a rote alternative to thinking. But applied judiciously, it can make all the difference in the world — not least in evaluating our own arguments before we present them to others9. De même, dans son article critiquant la zététique, Sylvain Poirier fait remarquer : Ce n’est pas parce que beaucoup de principes zététiques affichés sont bons, que tout ce que disent les zététiciens est à croire sur parole. Si la zététique apporte un panel d’outils finement aiguisés, ils peuvent parfois être délétères lorsqu’ils sont utilisés sans un peu d’esprit critique.

Manque d’un formalisme mathématique

Le rasoir d’Ockham nous invite à “Privilégier l’hypothèse la plus parcimonieuse”. Mais comment quantifier la parcimonie d’une hypothèse ? Quelle métrique utiliser ?
La maxime de Hume, elle, stipule que “Une affirmation extraordinaire requiert des preuves extraordinaires”. Mais comment quantifier cette extraordinarité ? Et comment comparer l’extraordinarité d’une affirmation et l’extraordinarité des preuves ?
Bonne nouvelle, même si ces préceptes font office de principes généraux sans prétendre avoir une quelconque valeur quantitative, ils peuvent en fait être déduit de la formule de Bayes. Qui plus est, cette dernière leur donne un sens mathématique.

Manichéisme des arguments

Le curseur de vraisemblance10 invite à graduer la vraisemblance d’une affirmation sur une échelle continue entre 0% et 100%. Cette précaution apportée à notre jugement sur une théorie est bénéfique mais elle disparaît souvent quant on juge les preuves qui soutiennent la théorie : Il n’est pas rare d’entendre que tel argument est soit valide soit invalide; que le manque de rigueur d’un protocole invalide les résultats d’une expérience; que l’on peut jeter un discours puisque l’on y relève l’argument fallacieux n21 ou le n3711. Il semble cependant que l’on perde de l’information en disqualifiant complètement une preuve imparfaite12. Dans son article critiquant la zététique, Sylvain Poirier écrit: Le fait qu’il y ait des impostures et des erreurs de toutes sortes à la base de certaines affirmations du paranormal ou d’autres choses par les uns ou les autres, ne signifie pas que tout y est faux ni que rien n’aurait pu être effectivement prouvé. Est-il bien raisonnable de considérer la valeur d’un argument comme binaire ? Il semble peu probable qu’un protocole soit parfait tout comme il est peu probable que tout soit à jeter. En replaçant la zététique dans un cadre probabiliste, on quitte le maigre13 {0;1} pour l’infiniment plus riche14 [0,1].

Difficulté de conclure

“Est-il préférable pour la guérison d’une entorse de dormir avec un coussin bleu ou avec un coussin rouge ?”. Face à l’inexistence d’expériences randomisées en double aveugle avec groupe de contrôle, le zététicien doit-il s’enfuir laissant là son jugement suspendu ?
Devant bien des affirmations il semble que les outils de la zététique ne permettent pas de conclure. En particulier, on évoque souvent la hiérarchie suivante : une étude isolée est moins pertinente qu’une méta-analyse et une méta-analyse est moins pertinente que le consensus scientifique15. Mais alors, que dire d’un sujet sur pour lequel il existe peu ou pas d’étude ? Que dire d’un sujet face à un faisceau d’indices réduit et/ou peu rigoureux ? L’approche bayésienne permet de prendre en compte des informations de toutes sortes afin de se faire une opinion.

Et donc ?

L’approche bayésienne offre une perspective qui répond en partie aux critiques sus-citées en permettant de :

  1. Quantifier la validité d’une information et la probabilité d’une affirmation.
  2. Corroborer certains des principes dogmatiques de la zététique évoqués ci-dessus
  3. Replacer le discours zététique dans un langage probabiliste : Utiliser une formule comme « Il est très improbable que X » plutôt qu’un plus catégorique « À l’heure actuelle, il n’y a aucune preuve de X » rend le discours plus humble et plus propice à un échange bienveillant16.

Les apports du bayésianisme

Pour ne pas alourdir l’article la présentation du bayésianisme est assez minimaliste. Le lecteur curieux est invité à se référer aux références données dans l’introduction.

De la formule de Bayes

Le bayésianisme se base sur la formule de Bayes dont il tire son nom. La manière la plus simple d’écrire cette formule est la suivante

(1)   \begin{equation*}\Prob{A|B} = \frac{\Prob{A}\Prob{B|A}}{\Prob{B}}\end{equation*}

Les termes ℙ(A|B) et ℙ(B|A) sont des probabilités conditionnelles et se lisent respectivement “Probabilité de A sachant B” et “Probabilité de B sachant A”. La formule de Bayes permet donc simplement de lier les deux probabilités conditionnelles.

Exemple : On considère un lancer de dé, et on cherche à savoir quelle est la probabilité que le dé soit tombé sur 6 sachant que le dé est tombé sur un chiffre pair. On parle donc de probabilité conditionnelle car on cherche la probabilité d’un évènement en connaissant des informations partielles sur cet évènement.
Dans la formule de Bayes 1, on remplace A et B respectivement par “Faire un 6” et “Faire un nombre pair”. On va donc pouvoir calculer ℙ(A|B), la probabilité de “Faire un 6” sachant qu’on a “Fait un nombre pair”, ce qui est bien ce qu’on recherche. On obtient :

\small \Prob{\text{Faire un 6}|\text{Faire un nombre pair}} = \frac{\Prob{\text{Faire un 6}}\Prob{\text{Faire un nombre pair}|\text{Faire un 6}}}{\Prob{\text{Faire un nombre pair}}}

Ce qui se lit : la probabilité que j’ai fait un 6 sachant que j’ai fait un nombre pair est égale à la probabilité de faire un 6 (égale à 1/6) multipliée par la probabilité de faire un nombre pair sachant que j’ai fait un 6 (égale à 1) divisée par la probabilité de faire un nombre pair (égale à 1/2). Ce qui donne :

    \begin{equation*} \Prob{\text{Faire un 6}|\text{Faire un nombre pair}} = \frac{1/6 \times 1}{1/2} = 1/3 \end{equation*}

que l’on peut facilement vérifier.

À la formule du savoir

Initialement cette formule est un simple outil de calcul de probabilité conditionnelle relativement simple, et c’est ainsi qu’elle est enseignée aux étudiants. Cependant, réinterprétée, notamment par Pierre-Simon de Laplace, elle est devenue un profond principe épistémologique, que certains considèrent comme la formule ultime du savoir17 fondant ainsi le bayésianisme.
Comme nous le verrons, la formule de Bayes permet de calculer la vraisemblance d’une affirmation en fonction de la vraisemblance a priori de cette affirmation et d’une nouvelle information. Autrement dit, elle permet de mettre à jour nos croyances en fonction des preuves que l’on peut rencontrer : témoignage, étude scientifique, reportage TV, article de presse, …
Le théorème dit de Cox-Jaynes permet même de s’assurer que c’est la bonne manière de faire. Ce théorème montre que la logique bayésienne découle de certains prérequis naturels18 et qu’elle est donc indispensable pour manipuler raisonnablement de l’information.


La théorie des probabilités n’est rien d’autre que le sens commun qui fait calcul — Pierre-Simon de Laplace

Retour à la zététique

Nous voilà rendus bien loin des préoccupations zététiques. Mais en apportant une légère modification à la formule de Bayes ci-dessus nous allons y revenir. Changeons tout simplement le A dans la formule par affirmation, et le B par preuve19. Et voilà, nous avons un outil mathématique puissant pour estimer la vraisemblance d’une affirmation à partir de preuves (que ce soit des témoignages, des études, des arguments, …).
Mise en pratique :

    \begin{equation*} \Prob{\text{Affirmation}|\text{Preuve}} = \frac{\Prob{\text{Affirmation}}\Prob{\text{Preuve}|\text{Affirmation}}}{\Prob{\text{Preuve}}} \end{equation*}

\Prob{\text{Affirmation}|\text{Preuve}} est ce que l’on cherche à évaluer: la vraisemblance d’une affirmation à partir de preuves. Plus précisément, on cherche à calculer l’évolution de la confiance à accorder en une affirmation lorsque une nouvelle preuve est disponible. Cette quantité est aussi appelée probabilité a posteriori puisqu’elle correspond à la vraisemblance de l’affirmation après avoir pris en compte la preuve.
Par opposition, \Prob{\text{Affirmation}} représente la probabilité a priori. C’est à dire la vraisemblance de l’affirmation avant de prendre en compte la preuve. C’est un des principes fondamentaux du bayésianisme : notre croyance en une affirmation évolue sans cesse en fonction des nouvelles preuves qui nous parviennent.
\Prob{\text{Preuve}} est la probabilité a priori d’observer la preuve. Insistons: ces deux dernières probabilités (\Prob{\text{Affirmation}} et \Prob{\text{Preuve}}) sont calculées dans l’état initial des connaissances, c’est-à-dire sans prendre en compte la nouvelle preuve.
Enfin, la formule de Bayes nous dit que pour trouver \Prob{\text{Affirmation}|\text{Preuve}}, il nous faut, de plus, la probabilité d’observer cette preuve si l’affirmation est vraie. Cette probabilité est notée: \Prob{\text{Preuve}|\text{Affirmation}}, et est également appelée « fonction de vraisemblance », ou simplement « vraisemblance ».
On peut alors calculer \Prob{\text{Affirmation}|\text{Preuve}}, la probabilité a posteriori de l’affirmation, c’est-à-dire la confiance à accorder en l’affirmation20 une fois pris en compte les nouveaux éléments de preuve relativement aux connaissances préalables. D’une certaine manière, la formule décrit comment utiliser raisonnablement le curseur de vraisemblance connu des zététiciens.
La dépendance aux connaissances initiales peut sembler gênante puisqu’elle est subjective et risque de faire aboutir deux personnes à des conclusions différentes. Cependant la formule de Bayes assure qu’avec un nombre de preuves suffisant les probabilités a posteriori convergent vers une même valeur quelque soit la probabilité a priori.
Avec ces notations, une affirmation est très probable si \Prob{\text{Affirmation}} est proche de 1 et inversement très improbable si \Prob{\text{Affirmation}} est proche de 0. De même, \Prob{\text{Preuve}} proche de 0 correspond à une preuve très improbable dans le cadre initial de nos connaissance donc à une preuve que l’on peut qualifier d’extraordinaire (par ex. « Il a neigé en Août »), alors que \Prob{\text{Preuve}} proche de 1 est une preuve banale c’est à dire une information à laquelle on s’attend (par ex. « Il a neigé en Janvier »).
Avant de voir les avantages du cadre bayésien dans la démarche zététique, voyons un exemple rapide d’utilisation de la formule de Bayes dans un cadre zététique.

Exemple : La maison de mes grand-parents est connue pour être hantée, notamment la vieille chambre du fond. Armé de tout mon courage et de mes solides outils zététique je vais la visiter. J’émets deux hypothèses :

  • Affirmation Affirmation A_1 : « Il y a des oiseaux dans les combles à l’origine des phénomènes ». J’y attribue une probabilité de \Prob{A_1} = 0.9.
  • Affirmation A_2 : « Il n’y a pas d’oiseau dans les combles et la maison est vraiment hantée ». J’y attribue une probabilité \Prob{A_2} = 0.1 ça paraît fou mais la croyance est tenace dans la famille et dans le village.

En arrivant dans la chambre, et non loin en dessous d’une ouverture dans le plafond qui donne accès aux combles, je vois une plume d’oiseau. Voilà ma nouvelle preuve P qui va me permettre de mettre à jour mes croyances. On peut estimer la probabilité de trouver une plume là sachant qu’il y a des oiseaux dans les combles \Prob{P|A_1} = 0.05 : c’est commun de trouver des plumes mais encore fallait il qu’elle passe par cette petite ouverture. De même on estime la probabilité de trouver une plume sachant qu’il n’y a pas d’oiseau \Prob{P|A_2} = 0.0001 : c’est très peu probable, il aurait fallu que quelqu’un l’amène ici. On peut enfin calculer la probabilité de trouver une plume \Prob{P} grâce à la formule suivante21: \Prob{P} = \Prob{P|A_1}\times\Prob{A_1} + \Prob{P|A_2}\times\Prob{A_2} = 0.04501.
On peut maintenant appliquer la formule de bayes pour A_1 et A_2.

    \begin{equation*} \begin{split} \Prob{A_1 | P}& = \frac{\Prob{A_1}\Prob{P|A_1}}{\Prob{P}}\\ \Prob{A_1 | P} & = \frac{0.9 \times 0.05}{\Prob{0.4501}}\\ \Prob{A_1 | P} & \approx 0.9998 \end{split} \end{equation*}


et

    \begin{equation*} \begin{split} \Prob{A_2 | P} & = \frac{\Prob{A_2}\Prob{P|A_2}}{\Prob{P}}\\ \Prob{A_2 | P} & = \frac{0.1 \times 0.0001}{\Prob{0.4501}}\\ \Prob{A_2 | P} & \approx 0.0002 \end{split} \end{equation*}

Après mise à jour des vraisemblances j’attribue donc une probabilité de 99,98\% pour l’affirmation A_1 et 0,02\% pour l’affirmation A_2.
Évidemment faire une telle analyse chiffrée n’est pas possible au quotidien et ce n’est même pas utile à vrai dire. Mais il est très bénéfique d’adopter une pensée bayésienne en prenant l’habitude de mettre à jour la vraisemblance de nos croyances et en musclant notre intuition bayésienne22.

On peut maintenant voir en quoi cette approche permet de répondre aux critiques formulées dans la section précédente :

  • Elle peut être utilisée pour justifier les principes a priori arbitraires de la zététique. Puisque le théorème de Cox-Jaynes montre que l’approche bayésienne est la seulecohérente, alors démontrer les principes zététiques par la formule de Bayes justifierait leur pertinence. C’est ce que nous ferons dans la dernière section pour deux de ces principes.
  • Puisque dans l’approche bayésienne tout est exprimé en fonction de probabilité on évite la binarité et la rigidité que peut prendre parfois le discours zététique.
  • Comme nous le verrons dans la dernière section, en plus de justifier le rasoir d’Ockham et la maxime de Hume, l’approche bayésienne apporte un cadre mathématique qui permet de quantifier ce qu’on entend par « l’hypothèse la plus parcimonieuse » ou une « affirmation extraordinaire ».
  • Alors que la zététique requiert parfois une étude approfondie d’un sujet pour obtenir une conclusion, l’approche bayésienne permet toujours d’attribuer une vraisemblance à l’affirmation quel que soit la quantité d’information dont on dispose.

Les outils zététiques dans une main bayésienne

Les deux premières parties ont permis de montrer ce que le bayésianisme peut apporter à la zététique et s’alignent avec des travaux pré-existants (notamment ceux de Christophe Michel présenté dans l’introduction). Cette dernière partie est une contribution plus personnelle (et plus technique aussi peut-être) et montre comment le cadre bayésien permet de justifier deux principes fondamentaux de la zététique : le rasoir d’Ockham et la maxime de Hume répondant ainsi partiellement23 à la première critique formulée.

Rasoir d’Ockham

Quand on est confronté à plusieurs affirmations expliquant un même phénomène, le rasoir d’Ockham nous invite à privilégier l’affirmation la plus parcimonieuse. C’est à dire, l’affirmation qui requiert les hypothèses les moins coûteuses intellectuellement. Cependant, la signification de parcimonie ne va pas toujours de soi en l’absence de quantifications.
Voyons ce que l’approche bayésienne peut en dire. Admettons que l’on ait trois affirmations A_1, A_2 et A_3 pour expliquer la même preuve P. les formules de Bayes s’écrivent alors :

    \begin{equation*} \begin{split} \Prob{A_1|P} & = \frac{\Prob{A_1}\Prob{P|A_1}}{\Prob{P}} \\ \Prob{A_2|P} & = \frac{\Prob{A_2}\Prob{P|A_2}}{\Prob{P}} \\ \Prob{A_3|P} & = \frac{\Prob{A_3}\Prob{P|A_3}}{\Prob{P}} \\ \end{split} \end{equation*}

Chercher l’affirmation à privilégier revient à chercher l’affirmation la plus probable au vu de la preuve, donc la plus grande de ces trois probabilités. En multipliant toutes ces quantités par \Prob{P}, on cherche donc l’affirmation maximisant \Prob{A_i} \Prob{P|A_i}.
Ce qui peut se lire : Probabilité de l’affirmation A_i multipliée par la probabilité d’observer la preuve P sachant que l’affirmation A_i est vraie. La formule de Bayes nous dit donc comment interpréter le terme « plus parcimonieux » du rasoir d’Ockham. Ce n’est donc pas simplement l’affirmation la plus probable qu’il faut privilégier, c’est à dire \Prob{A_i}, mais bien le produit de cette probabilité avec la probabilité d’observer P sachant que A_i (l’exemple à venir rendra la nuance plus claire). On peut en déduire une nouvelle formulation pour le rasoir d’Ockham:

Rasoir d’Ockham bayésien :L’hypothèse maximisant \Prob{A_i} \Prob{P|A_i} doit être privilégiée. C’est à dire l’hypothèse maximisant le produit de la probabilité de A_i et de la probabilité d’observer la preuve P sachant A_i.

Cela peut sembler être une subtilité mais l’exemple suivant montre la différence induite par ce changement.

Exemple : Monsieur M. met dans une boite un chat et un souris. Dix secondes après il rouvre la boîte et la souris a totalement disparu. On peut émettre plusieurs affirmations :

  1. A_1Le chat a mangé la souris
  2. A_2La souris est passé dans une dimension différente pour échapper au chat
  3. A_3Monsieur M. est magicien

Usons de notre rasoir d’Ockham bayésien pour voir quelle affirmation privilégier. On considère les probabilités a priori des affirmations suivantes : \Prob{A_1} = 0.8 : Les chats aiment manger des souris;
\Prob{A_2} = 0.0000001 : Je n’ai pas connaissance de souris ayant une telle capacité;
\Prob{A_3} = 0.1 : Je ne connais pas bien cette personne, mais il n’est pas impossible que ce soit un tour de magie.

  • Si on s’intéresse au curseur de vraisemblance utilisé classiquement en zététique, nous pourrions penser qu’il ne faut considérer que la probabilité a priori \Prob{A_i} de ces affirmations. Ainsi il semblerait que l’affirmation A_1 soit à privilégier.
  • Considérons désormais la seconde partie du calcul uniquement (celle qui prend en compte la probabilité d’observer la donnée si l’affirmation est vraie), et que nous appelons la fonction de vraisemblance ou simplement vraisemblance. La donnée en l’occurrence est la révélation du contenu de la boite 10 secondes plus tard sans souris. On a alors par exemple : \Prob{P | A_1} = 0.1 : Seulement 10 secondes pour manger une souris et ne laisser aucune trace… ça me parait suspect; \Prob{P | A_2} = 0.999 : Si la souris avait un tel pouvoir elle aurait en effet sûrement disparu; \Prob{P | A_3} = 0.95 : Si Monsieur M. est magicien alors il est très probable que la disparition de la souris soit son tour de magie. En ne regardant que cette « vraisemblance », c’est alors le voyage inter-dimensionnel qui est à privilégier.
  • Dans un cadre bayésien, c’est la probabilité a posteriori que nous devrions regarder. C’est le produit des deux quantités précédentes24. On trouve alors :

    \begin{equation*} \begin{split} \Prob{A_1}\Prob{P|A_1} &= 0.8 \times 0.1 = 0.08 \\ \Prob{A_2}\Prob{P|A_2} &= 0.0000001 \times 0.999 = 0.0000000999 \\ \Prob{A_3}\Prob{P|A_3} &= 0.1 \times 0.95 = 0.095 \end{split} \end{equation*}

Au final, l’hypothèse à privilégier est que Monsieur M. est magicien…
Dans l’utilisation classique du rasoir d’Ockham cette précision n’est pas faite et le terme « affirmation la plus parcimonieuse » peut prêter à confusion.
On peut donc résumer le calcul ainsi :

    \begin{equation*} \begin{split} & \text{Probabilité a posteriori (ou \textit{posterior})} = \\ & \text{curseur de vraisemblance non bayésien (ou\textit{ prior})} \times \text{vraisemblance} \end{split} \end{equation*}


Les termes posterior et prior sont communément utilisés dans le cadre bayésien comme indiqué dans la formule ci-dessus.

Maxime de Hume

Également appelée standard de Sagan, ou de Truzzi, ou de De Laplace25, cette maxime postule que « Une affirmation extraordinaire requiert une preuve extraordinaire ».
Ici encore, nous allons voir que le cadre bayésien permet de retrouver et de préciser cette affirmation. Reprenons à nouveau la formule de Bayes :

(2)   \begin{equation*}\Prob{\text{Affirmation}|\text{Preuve}} = \frac{\Prob{\text{Affirmation}}\Prob{\text{Preuve}|\text{Affirmation}}}{\Prob{\text{Preuve}}}\end{equation*}

Comme dit précédemment une affirmation est dite extraordinaire si elle est a priori très peu probable. Une telle affirmation vérifie donc \Prob{\text{Affirmation}} = \epsilon, où \epsilon est une quantité très petite. Pour que cette affirmation, une fois pris en compte le nouvel élément de preuve, soit vraisemblable, il faut donc une preuve qui mène à \Prob{\text{Affirmation}|\text{Preuve}} \approx1. On peut montrer que cette condition26 implique la relation suivante:

(3)   \begin{equation*}\Prob{\text{Preuve}} \ll \Prob{\text{Preuve}|\text{Affirmation}}\end{equation*}

Ainsi pour qu’une affirmation a priori extraordinaire devienne vraisemblable il faut donc que la probabilité d’observer la preuve soit beaucoup plus petite que la probabilité d’observer la preuve sachant l’affirmation (nous verrons un exemple plus loin). La formule de Hume se déduit simplement en observant que comme toute probabilité est inférieur ou égale à 1 on a \Prob{\text{Preuve}|\text{Affirmation}} \leq 1 et donc

(4)   \begin{equation*}\Prob{\text{Preuve}} \ll 1\end{equation*}

Ainsi la probabilité d’observer la preuve doit être très petite. En d’autres terme, la preuve doit être extraordinaire27 ! Ainsi, la formule de Bayes permet bien de démontrer la maxime de Hume.
Cependant la formule (3) en dit un petit peu plus :

la condition, \Prob{\text{Preuve}} \ll 1 n’est pas suffisante ! Il faut également que \Prob{\text{Preuve}} \ll \Prob{\text{Preuve}|\text{Affirmation}} et donc que la probabilité d’observer la preuve sachant l’affirmation ne soit pas trop petite ! C’est à dire qu’il faut que la preuve soit ordinaire si l’affirmation est vraie : \Prob{\text{Preuve}|\text{Affirmation}} \equiv 1.
On peut en déduire une nouvelle formulation pour la maxime de Hume.

Maxime de Hume bayésienne : Une affirmation extraordinaire requiert une preuve extraordinaire. Mais il faut aussi que la preuve soit ordinaire si l’affirmation est vraie.

Exemple :

Considérons l’affirmation A = « les licornes existent » que l’on peut qualifier d’extraordinaire. J’y octroie a priori une probabilité de un sur un milliard : \Prob{A} = 10^{-9} Pour que cette affirmation paraisse crédible, il faut donc observer une preuve P vérifiant \Prob{P} \ll \Prob{\text{P}|\text{A}}.
Considérons par exemple la preuve P_1 : « Quelqu’un a vu de loin une silhouette de cheval avec une corne sur le front ». Ce n’est pas une preuve si extraordinaire : il a pu se tromper, c’était peut-être une installation artistique, des petits malins ont pu attacher un postiche ou il a menti. J’estime la probabilité d’observer cela à un sur mille. On a donc \Prob{P_1} = 0.001. En revanche, il est clair que la probabilité que quelqu’un ait vu de loin une silhouette de cheval avec une corne sur le front sachant que les licornes existent est très élevée : P(P_1 | A) \approx 1.
On peut maintenant appliquer la formule de Bayes pour mettre à jour ma croyance en A sachant P_1 :

    \begin{align*} \Prob{A|P_1} & = \frac{\Prob{A}\Prob{P_1|A}}{\Prob{P_1}} = \frac{10^{-9} \times 1}{0.001} = 10^{-6} \end{align*}

Après cette preuve, j’octroie à l’existence des licornes une crédence de un sur un million. Cette preuve satisfaisait donc un seul des deux critères de la maxime de Hume bayésienne : elle est ordinaire si l’affirmation est vraie mais elle n’est pas extraordinaire en soi.
Au contraire prenons une autre preuve P_2 qui a une chance sur un milliard d’être observée : « J’ai fait 30 piles de suite ». La preuve est bien extraordinaire \Prob{P_2} \approx 10^{-9}. Mais là encore la preuve ne satisfait qu’un seul des deux critères de la maxime de Hume baysésienne : elle est extraordinaire mais elle n’est pas ordinaire si l’affirmation est vraie. En effet, ici les deux évènements sont décorrélés : l’existence de licorne ne rend pas plus ordinaire une suite de 30 piles P(P_2 | A) \approx 10^{-9}. Ça ne suffit donc pas à me convaincre. En l’occurrence la formule de Bayes donne:

    \begin{align*} \Prob{A|P_2} & = \frac{\Prob{A}\Prob{P_2|A}}{\Prob{P_2}} = \frac{10^{-9} \times 10^{-9}}{10^{-9}} = 10^{-9} \end{align*}

Ce deuxième cas est caricatural mais il soulève une erreur de logique : se contenter d’une preuve extraordinaire sans vérifier que cette preuve est beaucoup plus probable dans l’affirmation qu’elle cherche à valider.
Enfin une preuve satisfaisante pourrait donc être P_3 un article scientifique corroboré par plusieurs chercheurs et fournissant suffisamment d’informations sur l’existence de licornes et étayé par des vidéos et des photos. Une telle preuve serait tout à fait extraordinaire en soi (estimée pour l’exemple à une chance sur 800 millions) et totalement ordinaire si l’affirmation est vraie (estimée ici à 0.99\%). La formule de Bayes donne alors :

    \begin{align*} \Prob{A|P_3} & = \frac{\Prob{A}\Prob{P_3|A}}{\Prob{P_3}} = \frac{10^{-9} \times 0.99}{1.25*10^{-9}} = 0.792 \end{align*}

Ma crédence en l’existence des licornes est donc passé à environ 80\%.

Conclusion

Voilà donc quelques idées sur la complémentarité entre bayésianisme et zététique. Nous avons montré d’abord quelques écueils possible de la démarche zététique et comment le cadre bayésien permets en partie d’y répondre. Dans une dernière partie nous avons montré comment la formule de Bayes permet de retrouver et préciser deux principes de la zététique : le rasoir d’Ockham et la maxime de Hume.
Bien d’autres pièces restent à ajouter au puzzle afin d’obtenir un paradigme plus solide. Quid des autres principes de la zététique ? Des biais cognitifs et des sophismes ? Quid de la charge de la preuve ? Est-ce que la perspective bayésienne permet d’en dire quelque chose, voire d’enrichir ces concepts ? Néanmoins, à l’avenir, si votre recette zététique semble mécontenter votre auditoire, essayer d’y rajouter une pincée de bayésianisme pour la rendre plus légère.

À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille1 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience2.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience3. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »4

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier5 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée6. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.

Cours Zététique et autodéfense intellectuelle à l’Université de Nîmes

Vous connaissiez les formidables cours de Zététique et autodéfense intellectuelle de l’inénarrable Richard Monvoisin ? Depuis 2019, ce sont nos collègues Jérémy Attard et Denis Caroti qui se sont lancés dans l’aventure. S’adressant à tous les étudiants en première année de licence de Psychologie de l’Université de Nîmes, ce cours est en quelque sorte le petit frère de celui de Grenoble. En voici quelques détails.

Lorsque Jonathan Delmonte, chercheur en psychologie clinique et psychopathologie, nous a demandé si nous voulions bien dupliquer les enseignements de Richard dans son université, la réponse fut rapide : oui, bien entendu ! Dès janvier 2019, un nouveau cours est donc né : 12x2h pour presque 400 étudiants de l’université de Nîmes (L1 psychologie) et un sacré boulot pour corriger les dossiers sur lesquels ils planchent pendant plusieurs semaines… mais finalement, la satisfaction de transmettre des connaissances, des outils pratiques et méthodologiques et surtout un état d’esprit : rationalité, souci de la preuve, humilité intellectuelle, curiosité et envie d’aller toujours (se) questionner.

Le programme des cours (qui varie à la marge) :

  1. Introduction à la zététique, l’esprit critique et l’autodéfense intellectuelle
  2. Qu’est-ce qu’une ‘bonne’ preuve ? Fiabilité de nos perceptions, biais cognitifs et témoignages
  3. Quelques bases d’épistémologie pratique (1)
  4. Quelques bases d’épistémologie pratique (2)
  5. Arguments fallacieux et raisonnements
  6. Chiffres, statistiques et graphiques
  7. Langage et effets : Barnum, paillasson, impact
  8. Hasard, coïncidences et scénarios complotistes
  9. La Nature et ses dérives
  10. Médecines alternatives : le cas de l’homéopathie
  11. Les créationnismes
  12. Prison, justice et philosophie morale

Les contenus sont accessibles sur simple demande par mail : contact-at-cortecs.org

L’ouverture d’un tel cours est suffisamment rare en France pour remercier Jonathan Delmonte et toute l’équipe enseignante pour leur confiance et envie de faire naître ce cours. Et bien entendu un merci spécial à Richard Monvoisin qui a plus qu’inspiré le contenu distillé aux étudiants mais également à Henri Broch, qui lança les premiers enseignements de zététique il y a plus de 30 ans à Nice.

Prendre du recul avant de travailler sur les scénarios conspirationnistes

Pour répondre au désarroi que nous observions chez les enseignant.e.s et les travailleur.euses.s sociaux qui se voient confier la délicate mission de “répondre aux discours conspirationnistes”, nous avions décidé de partager nos pratiques pédagogiques, lors de formations ou sous forme d’articles (comme ici et là) : description de séances, réflexions sur notre posture ou encore présentation d’outils pour déconstruire les raisonnements conspirationnistes. Si j’ai beaucoup relayé ce matériel, j’ai néanmoins longtemps regretté de ne pas aborder plus explicitement un point qui me paraissait pourtant primordial : la non-neutralité du recours à la désignation « complot » dans les discours et les politiques anti-complotistes1. Dans un contexte où l’étiquette conspirationniste est fréquemment utilisée comme repoussoir, je ressentais le besoin de partager mes questionnements à ce sujet. J’ai donc conçu cet atelier pour amener les enseignant.e.s à expérimenter la difficulté de faire le tri entre les différentes thèses mobilisant ce concept et à s’interroger collectivement sur sa connotation. J’ai l’espoir que cette approche contribue à éviter l’écueil consistant à vouloir faire « penser bien » sur ces sujets. L’atelier présenté dans ce qui suit a été mis en place en 2018 pour des travailleur.euse.s sociaux du Grand Lyon et repris ensuite pour des enseignant.e.s.

Cadre et publics

Ces ateliers ont été conçus pour des personnes « encadrantes » dans l’objectif de construire une réflexion collective sur la définition et les contours du concept de « complot » et sur les conséquences que cela peut avoir sur notre posture d’enseignant.e. J’ai réalisé ces ateliers deux fois : la première lors de la 4ème journée (sur 6) de formation de travailleur.euse.s sociaux du Grand Lyon 2. Les participants étaient une quinzaine et nous avions déjà passé trois journées à travailler sur les bases de l’esprit critique et de l’analyse critique des médias. J’ai reproduit ces séances lors d’un stage d’une journée Esprit critique et conspirationnismes  à l’intention d’une vingtaine d’enseignant.e.s du secondaire, dans le cadre du Plan académique de formation (P.A.F). Dans les deux cas, j’ai débuté la journée avec les deux premières séquences présentées ci-dessous.

Etape 1 – Qu’est ce qu’un complot?

Dans un premier temps, j’ai projeté au tableau les neuf affirmations suivantes 3

  1. Le rôle des médias est essentiellement de relayer une propagande mensongère nécessaire à la perpétuation du « système ».
  2. On n’est même pas encore sûr que le climat se réchauffe.
  3. La CIA est impliquée dans l’assassinat du président John F. Kennedy à Dallas.
  4. Il est possible que la Terre soit plate et non pas ronde comme on nous le dit depuis l’école.
  5. Le réchauffement climatique n’existe pas, c’est une thèse avant tout défendue par des politiques et des scientifiques pour faire avancer leurs intérêts.
  6. Étant largement soumis aux pressions du pouvoir politique et de l’argent, la marge de manœuvre des médias est limitée et ils ne peuvent pas traiter comme ils le voudraient certains sujets.
  7. Le ministère de la santé est de mèche avec l’industrie pharmaceutique pour cacher au grand public la réalité sur la nocivité des vaccins.
  8. Dieu a créé l’homme et la Terre il y a moins de 10 000 ans.
  9. La révolution française de 1789 et la révolution russe de 1917 n’auraient jamais eu lieu sans l’action décisive de sociétés secrètes tirant les ficelles dans l’ombre.

Les participant.e.s, en groupe de 4 ou 5, avait pour consigne : « commencez par classer ces affirmations en deux catégories – complotiste / pas complotiste – en explicitant les critères choisis pour distinguer ces deux catégories. Notez les éventuels points de désaccord dans le groupe ou les difficultés rencontrées pour classer certaines phrases. A l’issue de ce travail, proposez une définition de complot. »

Il n’est pas évident de rendre compte ici de la richesse des échanges lors de la mise en commun, mais voici tout de même un petit échantillon des réflexions exprimées :

  • Certaines phrases sont difficiles à classer parce que tout est dans la nuance (un mot un peu fort ou une tournure de phrase caricaturale). Certain.e.s participant.e.s pourraient adhérer sur le fond mais il y a un mot « en trop » (par exemple, dans les phrases 6,7 et 9).
  •  Il serait plus pertinent de parler de continuum (différents degrés de « conspirationnisme ») plutôt que de vouloir tout classer dans deux cases.
  • Des affirmations qu’on a envie de classer comme conspirationnistes ne sont pas nécessairement « idiotes » ou complètement fausses. Même si certaines sont parfois un peu caricaturales, il y a un peu de vrai. On peut avoir de bonnes raisons d’y adhérer totalement ou en partie.
  • Il y a de « vrais complots ».
  • Certaines affirmations n’ont pas été classées par certain.e.s participants parce qu’ils ne se sentaient pas compétents sur le sujet.
  • Il y  a différents types de complots : ceux qui visent une minorité et ceux qui visent un pouvoir.
  • Il y a des affirmations fausses qui ne sont pas complotistes.

Certaines personnes ont souligné le fait que la connotation négative du mot conspirationnisme provoque un effet repoussoir et discrédite d’un revers de main le fond du discours et la personne qui le porte. Il est notamment assez désagréable d’être presque d’accord avec les affirmations 1, 6 ou 7 et de se voir taxer de conspirationnisme. Loin d’inciter à s’interroger sur sa position, cela pousse plutôt à remettre en question la légitimité d’un individu ou d’une institution qui tente de nous décrédibiliser.

Spontanément, par effet miroir, le groupe s’est interrogé sur sa propre posture : qualifier de thèse conspirationniste une affirmation faite par des élèves revient à leur signifier, avant même d’avoir travaillé sur la question, qu’elle ne vaut rien. Nombre de participant.e.s ont ainsi réalisé que leur malaise venait de là : comment assumer cette posture de l’autorité qui sait ce qui est vrai ou faux et qui doit convaincre les « mal-pensants » ? Renoncer à raisonner en terme de conspirationnisme permet de repenser sa position d’encadrant.e : comme pour toute affirmation du type « ça existe », « c’est vrai » ou « ça marche comme ça », le fond du problème reste de savoir si la thèse présentée est plutôt vraie ou plutôt fausse. Et l’encadrant.e, au lieu d’incarner la personne qui sait, peut reprendre son rôle d’accompagnateur.trice dans cette démarche et remobiliser les outils présentés lors des journées précédentes, un poids de moins sur les épaules.


Au terme de ces échanges, les définitions du complot proposées se rapprochent de celle-ci : intentions ou manoeuvres d’un groupe qui agit secrètement pour défendre ses intérêts, notamment lorsqu’ils sont contraires à ceux d’autres groupes. Avec une telle définition, il devient raisonnable d’être parfois « complotiste ».  

Etape 2 – Comment reconnaître un faux complot ?

Dans un deuxième temps, j’ai projeté deux documents vidéo l’un à la suite de l’autre :

  • La véritable identité des chats (jusqu’à la minute 4’20). Nous avions relayé la genèse de ce document ici.
  • Un épisode d’Arnaques, une émission diffusée à la télévision québécoise sur ce qui fut appelé dans les années 1990 l’affaire des couveuses ou l’affaire Nayirah. Nous n’avons malheureusement pas les droits pour le diffuser en ligne. Je pense qu’il est possible de faire le même exercice avec le document suivant, récupéré ici :

Toujours en petit groupe, la consigne était la suivante : « vous allez visionner deux vidéos différentes, l’une à la suite de l’autre. Après le visionnage, pour chacune des deux thèses présentées, positionnez-vous individuellement sur un curseur de vraisemblance de 0 à 10 indiquant votre degré de conviction pour la thèse défendue – 0 signifie que vous n’êtes pas du tout convaincu, 10 que vous l’êtes tout-à-fait. Justifiez ensuite votre positionnement auprès des membres de votre groupe : quels sont les éléments de forme ou de fond qui motivent votre position. Pointez les différences entre les deux documents (forme et fond) ».

Cette fois encore, les participant.e.s ont peiné à trouver des critères pour conclure « c’est vrai » ou « c’est faux ». Tout au mieux sont-ils parvenus à pointer des types d’arguments ou de mises en scène qui « mettent la puce à l’oreille », qui « jettent le doute ».  L’exercice était d’autant plus difficile que l’émission Arnaques, qui revient sur ladite affaire des couveuses (ou affaire Nayirah)4, reprend volontairement les codes de la scénarisation sensationnaliste.

Voici quelques points dégagés lors de la mise en commun :

  • Quand la thèse a des implications importantes pour nous, nous sommes plus enclins à débattre et à évaluer la consistance des arguments. En revanche, on a tendance à se positionner très rapidement et sans analyse lorsqu’il s’agit d’une affirmation que l’on juge sans intérêt. 
  • Notre avis a priori et nos connaissances orientent notre position à la fin du visionnage du document (on est plus critique avec les discours qui vont à l’encontre de ce qu’on pense). Certain.e.s participant.e.s avaient notamment entendu parler de l’affaire des couveuses pendant leur scolarité et ils ont eu le sentiment que cela les poussaient à y accorder du crédit, indépendamment de la qualité des arguments présentés.
  • Ce qui complique les choses pour se faire un avis, c’est le fait que les argumentaires se basent sur des faits que l’on pense étayés mais s’en éloignent parfois ou font des liens entre des événements distincts, sur lesquels le public n’a pas nécessairement assez de connaissances pour savoir si c’est pertinent ou non. 
  • On voudrait se baser sur le degré d’expertise des intervenants, mais finalement, ce n’est explicite dans aucun des documents.
  • La mise en forme influence beaucoup (musique, gros plans, phrases chocs, jeu sur l’affect, dramatisation) et provoque un effet repoussoir. Difficile de s’intéresser sérieusement au fond.
  • On voudrait pouvoir vérifier les preuves nous-mêmes ; mais on ne peut pas (manque de moyen, manque de temps).
  • Il n’y a aucun critère rédhibitoire qui nous permette de trancher.

A la fin de cette mise en commun, une différence importante s’est quand même dégagée entre les deux argumentaires, notamment le fait que le documentaire d’Arnaques cite quelques sources et se base sur des faits dont on peut vérifier l’existence. En soi, cette vidéo ne permet pas de se faire un avis solide, mais elle donne des fils à tirer pour enquêter (sources, extrait du témoignage de Nayirah dont il faudrait la version intégrale5, lien familial entre Nayirah et l’ambassadeur qu’il faudrait pouvoir vérifier…). Si l’on veut se faire un avis étayé sur la question, il faudra donc prendre le temps de l’investigation.

C’est d’ailleurs comme cela que nous avons clôturé la séance : « quelles informations supplémentaires me faudrait-il vérifier pour décaler mon curseur vers très vraisemblable« .

Ce n’est qu’à la suite de ces deux ateliers que nous avons abordé les outils développés ici.

Bilan

J’ai longuement hésité à proposer ce type d’ateliers, notamment par crainte de déstabiliser profondément les encadrant.e.s qui expriment souvent, en premier lieu, le besoin d’avoir des outils  efficaces pour élaborer une réponse convaincante et rapide aux « croyances » farfelues des élèves. Or ces temps de réflexion font déchanter rapidement : la tâche est complexe, il n’existe pas de critères rédhibitoires pour trier le vrai du faux et un travail conséquent permet au mieux de constituer un dense faisceau d’indices. Aucune solution miracle, donc.
Je me suis décidée en réalisant qu’on hésite moins à bousculer les « croyances » de publics plus jeunes. C’est d’ailleurs aujourd’hui un attendu fort de nos institutions. Il m’a semblé alors assez légitime de s’imposer à soi-même ce que l’on va demander à d’autres.
Et je dois dire que j’ai été assez surprise par les retours de certain.e.s : complexifier et nuancer le fond du discours les a plutôt rassuré.e.s.  En effet, leurs objectifs se sont considérablement modifiés au cours de la journée. Il ne s’agissait plus d’évaluer le degré de vraisemblance de toutes les affirmations faites par les élèves et de les convaincre ensuite du résultat mais d’accompagner la réflexion et l’analyse en construisant collectivement une boîte à outils à laquelle se référer. Certes, cela ne se fait pas d’un coup de baguette magique, mais nous avons déjà sous le coude un certain nombre de pistes. 

N.B. : J’avais prévu de faire travailler les groupes sur un article du Monde Diplomatique qui présente 10 principes de la mécanique conspirationniste. L’objectif était d’apprendre à repérer les procédés rhétoriques fréquemment utilisés dans certains scénarios conspirationnistes. Le programme prévu s’est avéré trop ambitieux pour le temps imparti. En lisant un retour d’expérience de Denis Caroti, il me semble qu’il serait tout-à-fait judicieux de monter un atelier puzzle pour s’approprier ces 10 ingrédients… Si vous vous lancez, racontez-nous !

Best of saison 26, mai 2018

Depuis vingt-six semestres, les étudiant.es qui suivent le cours Zététique & autodéfense intellectuelle à l’Université Grenoble-Alpes rendent des dossiers. Certains sont vraiment très bons, et méritent d’être diffusés. D’autres sont certes de moins bonne facture, mais valent le détour par une certaine forme d’audace intellectuelle, ou par une opiniâtreté rare. Ce semestre offre un bouquet rafraîchissant : du côté protocoles, une superbe étude sur l’expérience du riz de Masaru Emoto, un test de la « loi » de Murphy et une tentative très élégante de caractérisation du « voile d’ignorance », dans la théorie de la justice de Rawls ; sur le versant légendes urbaines, morsures d’araignées et anti-vomitifs  chez McDo ; dans la sphère psychologique, retour sur l’effet Pygmalion ; dans les grands classique de l’étrange, un peu de climato-révisionnisme et de pain empoisonné à Pont-Saint-Esprit ; enfin, facette plus politique, analyse lapidaire du sondage « sexe et politique, et très belle enquête sur la nébuleuse qui entoure Amma, alias Mata Amritanandamayi, qui elle-même entoure des millions de personnes de ses bras… généreux ?

Je précise que pour des étudiant-es de 1ère et 2ème année, ce type de travail d’enquête est souvent une première, aussi la forme est-elle parfois décousue, et les fautes ont parfois la forme de vraies constellations. Peu importe : ce qui compte est la qualité de la démarche, le scepticisme méthodologique et la curiosité.

Expérience du Riz de Masaru Emoto – Laura FREBY, Marius MONNIER, Clément CHLOUS

Y a-t-il des anti-vomitifs dans les McDo ? – Antonin BRESSON, Alexis PELLETIER, Jade GUICHENAL, Jeanne SERRA, Marion RUSSO, Romain BULLAT et Shane MOISSONIER

L’amour : un phénomène complexe aux enjeux biologiques et sociologiques – Caty BALULA, Laura SATIN, Diane THIBAUT, Charlotte AUCLAIR, Laurène ARGENVILLE

Loi de Murphy – Leslie DOS SANTOS, Camille FUSER, Souhaili SAIDI, Lucas SURREL, Justine BELLOT

Les araignées peuvent-elles pondre sous la peau ? – Zoé PONTON, Florine PELLERING, Isabelle JULIAA, Inès MUCEL, Héloïse VIVIER

L’efficacité de l’effet Pygmalion dans le milieu scolaire peut-elle être prouvée scientifiquement ? – Hava-nur KARADEMIR, Ipek DOGAN, Alexandra DEFLORENNE, Enrico CARRA, Charlotte BUIS

Les câlins d’Amma – Jérémie LECOCQ, Victoire GUERRINI, Zohra RUIZ, Laëtitia BOYER, Anthony KEFES

L’affaire du pain maudit de Pont-Saint-Esprit : est-il raisonnable de remettre en cause l’hypothèse de l’empoisonnement par l’ergot de seigle ? – Fanélie BUFFAT, Manon GINOUX, Justine LEFEBVRE, Athénaïs FANDOS

La conférence de Vincent Courtillot : les arguments avancés en faveur de la théorie climato-sceptique sont-ils valables ? – Thomas LESOURD-LAUX, Jordan PRAYER

Analyse critique du sondage « Sexe et politique » – Aloïs DELASALLE, Marie AGIER, Juliette ORIOT, Tiphaine DUCHÂTEAU, Ambre AUJARD-CATTOT

Test du Voile d’ignorance, dans la théorie de la justice de J. Rawls – Mathilde VOISIN, Mickaël GUINGAND, Caroline ROBERT

Sondages d'opinion – Attention à l'intention

Vraiment, un grand merci à Fabien Tessereau, enseignant de mathématiques au collège du Mourion à Villeneuve-lez-Avignon, pour ce retour d’expérience sur un travail d’analyse critique de sondages d’opinion, mené en classe de 4ème. C’est toujours un plaisir de voir qu’on peut enseigner à repérer des biais méthodologiques importants, de manière ludique, y compris avec un public jeune. 

 

Sondages d’opinion : attention à l’intention !

Dans le cadre de la réforme du collège, nous avons projeté de monter en 4ème un Enseignement pratique interdisciplinaire (EPI) sur l’esprit critique avec mes collègues de français et d’histoire – géographie – EMC (enseignement moral et civique). Dans ce cadre, je me suis inscrit à un stage du Plan académique de formation (PAF) dont le thème était « Médias et esprit critique » mené par Guillemette Reviron du collectif « CORTECS ». C’est lors de ce stage qu’elle m’a donné l’idée de travailler avec les élèves sur les limites des sondages d’opinion en leur faisant construire une enquête sur la qualité de la cantine avec la consigne d’utiliser tous les biais possibles dans le recueil des données – mais sans modifier a posteriori ces données – pour que les résultats viennent confirmer une conclusion fixée préalablement. À notre connaissance, ce type de séquence pédagogique n’avait jamais été testée et le résultat n’était pas garanti. J’ai assumé la « prise de risque » et me suis lancé dans la mise en œuvre de cette idée en utilisant les différentes ressources présentées pendant le stage.

Séance 1 – Introduction

Diagrammes et graphiques

Dans mon cours sur les statistiques et la production de graphiques, j’ai intégré une première heure sur la sensibilisation au fait que les graphiques ne sont pas « neutres », même lorsqu’ils sont mathématiquement justes. L’objectif de cette première séance était de les sensibiliser au fait qu’un graphique ne donne pas seulement un résultat mathématique mais qu’il laisse aussi des impressions, et que celles-ci peuvent être orientées différemment par des représentations distinctes d’un même jeu de données. Après une introduction très courte, je leur ai présenté un extrait du journal télévisé de TF1 (20 janvier 2011) où Brice Hortefeux, alors ministre de l’intérieur, présente un diagramme sur l’évolution de la délinquance.

Ensuite, j’ai mis la vidéo en pause sur l’image du ministre présentant le graphique et j’ai demandé aux élèves de me décrire ce qu’ils voyaient. Au terme de l’échange – parfois relancé par mes questions – les élèves avaient pointé plusieurs choses sur la mise en forme : il est apparu que la couleur rouge avait été choisie pour la hausse de la délinquance et le vert pour la baisse. Les élèves ont réussi à analyser que le rouge est une couleur plutôt associée à ce qui n’est « pas bien » ou « interdit » contrairement au vert. Il a aussi été noté que les nombres en vert étaient écrits plus gros pour ressortir. Mais le principal argument mathématique n’est pas venu : aucun élève n’a remarqué l’absence d’échelle sur l’axe des ordonnées (si bien que l’on ne sait pas quels sont les nombres associés à la hauteur des rectangles), nous ne disposons donc que de pourcentages sans valeurs absolues ni ordre de grandeur. Cela pose pourtant au moins deux problèmes : 1) l’augmentation ou la diminution, qui peut paraître importante en pourcentage, peut en fait concerner un nombre très faible de délits, significatif statistiquement mais pas du tout d’un point de vue sociétal ; 2) l’impression d’augmentation ou de diminution peut être faussée si l’axe des ordonnées n’est pas gradué de manière régulière (de 5 en 5 par exemple), ce que nous ne pouvons pas vérifier ici.
Tout ce travail s’est fait à l’oral, en prenant la précaution de préciser que l’objectif n’était pas d’évaluer la pertinence du fond du propos (sur lequel il y aurait par ailleurs beaucoup à dire), mais de travailler sur sa mise en forme ; je notais simplement au tableau les différentes remarques.

J’avais prévu que les élèves ne remarqueraient pas l’absence de ces informations pourtant essentielles, et pour leur faire ressentir l’importance de préciser l’échelle sur les axes, j’ai choisi d’enchaîner avec la vidéo de Nicolas Gauvrit enregistrée pour le Cortecs.

La vidéo étant un peu longue (9 minutes), j’ai surtout fait des arrêts sur images sur les premiers diagrammes présentés (évolution de la délinquance et remboursement des médicaments) ; nous n’avons pas regardé la dernière partie trop complexe pour des élèves de 4ème. Pour chaque graphique, les élèves ont détaillé à l’oral ce qu’ils voyaient et leurs impressions. Ils se sont rendu compte de l’importance des axes, de la graduation choisie et donc de l’échelle utilisée. J’ai fait le rapprochement avec le dessin ou la peinture, quand l’artiste « représente » ce qu’il voit ou ce qu’il imagine (par exemple pour le tableau « Les Ménines » vu par Velasquez ou par Picasso). Il laisse ainsi une « impression » à ceux qui viennent voir l’œuvre. Nous avons alors repris le diagramme du journal de TF1, ils ont immédiatement remarqué qu’il manquait l’échelle et la légende sur l’axe des ordonnées. Là encore, nous avons conclu qu’il manquait des informations mathématiques, que cette omission était susceptible d’orienter notre jugement et que les couleurs choisies pouvaient avoir de l’importance. Les élèves ont très bien réagi à cette première partie en étant très actifs, même les moins à l’aise en mathématiques, les questions de description étant relativement simples et accessibles à tous.

Nous avons ensuite visionné un extrait du Petit journal de Canal+ (29 novembre 2011) qui compare les graphiques de l’évolution du chômage présentés le même jour par trois journaux télévisés différents : ceux de TF1, France 2 et France 3 sur un ton humoristique.

Nous en avons retenu que pour une même information, les trois graphiques – justes mathématiquement – ne laissaient pas la même impression.

Nous avons enchaîné sur un diaporama que j’ai réalisé à partir du travail d’Alain le Métayer sur le site du Cortecs sur les diagrammes en araignée des conseils de classe. Suivant l’ordre des matières sur la toile, les impressions données par les trois diagrammes sont différentes et pourtant les valeurs mathématiques sont exactement les mêmes. Là encore, les élèves ont très bien réagi, le but étant qu’ils se posent des questions et qu’ils doutent, sans tomber dans l’excès « Tout le monde nous ment ! ». J’ai bien insisté à chaque fois sur le fait de lire attentivement les éléments mathématiques et de faire attention aux impressions éventuellement données.

Tri sélectif des données et enquêtes d’opinion : les écueils du micro-trottoir

Nous avons ensuite réfléchi à la notion d’esprit critique dans le journalisme en visionnant un dernier extrait vidéo du Petit journal de Canal + (13 juin 2013).

On voit dans cette vidéo un micro-trottoir réalisé dans une gare parisienne un jour de grève des agents de la SNCF. Dans une première partie, les clients interrogés semblent particulièrement mécontents. Dans une deuxième partie, on voit les mêmes personnes bien plus nuancées voire même compréhensives envers les agents grévistes. Cela met en avant le fait que l’on peut fabriquer un point de vue en n’utilisant qu’une partie des réponses des personnes interrogées (c’est une illustration du tri sélectif des données). Les élèves ont été aussi bien surpris que choqués et ont vraiment pris conscience qu’un micro-trottoir, fruit d’une sélection de témoignages, peut être orienté dans un sens ou dans un autre. Toujours à l’oral, nous avons essayé de trouver un intérêt à ce reportage ; nous en sommes arrivés à questionner la pertinence du lieu utilisé pour réaliser le micro-trottoir. Nous sommes parvenus à la conclusion qu’en effet, à la gare un jour de grève, il y avait de grandes chances que les personnes présentes soient essentiellement celles qui n’étaient pas au courant de la grève, ou alors celles qui n’avaient pu faire autrement pour se déplacer, donc des gens probablement mécontents dans tous les cas (deuxième tri sélectif des données). J’ai saisi cette occasion pour parler d’échantillon représentatif.

Présentation du projet

Après ces réflexions, je leur ai présenté le projet : la classe serait divisée en deux groupes pour concevoir une enquête de satisfaction sur la cantine au sein du collège. Un groupe serait chargé de « s’arranger » pour que le recueil de données conduise à conclure que les élèves du collège apprécient la cantine, tandis que l’autre devrait « s’arranger » pour conclure l’inverse en jouant uniquement sur le mode de recueil des données mais en les traitant avec rigueur. La plupart des élèves se sont montrés immédiatement très motivés et investis. La classe a été répartie en deux groupes et chaque groupe a commencé à réfléchir chez soi, pour préparer la deuxième séance, à sa stratégie.

Séance 2 – Préparation de l’enquête

Pendant cette deuxième heure, un groupe est resté avec moi et l’autre groupe est allé réfléchir avec un collègue. Le but pour chaque groupe était de trouver les moyens d’arriver à sa fin. Nous avons réuni les deux groupes pour une mise en commun pour les dix dernières minutes. Il a été très intéressant de constater que les deux groupes ont choisi la même question : « qu’as-tu pensé du repas de la cantine aujourd’hui ? » (De son côté, le professeur de français travaillait avec les élèves sur les différentes façons de poser une même question mais pouvant aboutir à des réponses différentes pour une même personne interrogée).
Chaque groupe a décidé de proposer des réponses au choix (nous avions déjà vu dans un exercice qu’il pouvait être difficile pour le dépouillement de laisser les gens répondre ce qu’ils voulaient). Le groupe ayant pour mission d’obtenir une réponse positive a opté pour trois réponses au choix : 1 – Très Satisfaisant ; 2 – Plutôt  satisfaisant ; 3 – Pas du tout satisfaisant. L’autre groupe a choisi quatre réponse au choix : 1 – Excellent ; 2 – Satisfaisant ; 3 – Plutôt pas satisfaisant ; 4 – Pas du tout satisfaisant.
Pour le groupe dont j’ai eu la charge, je les ai laissé réfléchir entre eux sans intervenir pendant 10 minutes puis j’ai lancé quelques questions afin d’arriver à ce résultat. Comme leur but était de récupérer dans sa partie les personnes répondant plutôt au milieu (dans le plus ou le moins suivant le cas), la question s’est alors posée de savoir : qui interroger, où, et comment choisir les personnes interrogées ? Très rapidement la question du menu est arrivée – est-il prévu des épinards ou des frites ? Ensuite un élève a proposé d’interroger les élèves à la sortie du self à côté du tapis roulant où l’on dépose les plateaux : on ciblerait, suivant le groupe, les élèves dont le plateau déposé serait vide ou plein. Pour des questions d’organisation, je leur ai dit qu’ils ne pouvaient pas être plus de trois par jour à questionner leurs camarades. Enfin, le collège comptant 800 élèves, il a été décidé que chaque élève devait en interroger au moins 8 pour avoir environ 100 résultats pour chacune des deux versions de l’enquête. Afin d’être sûr de toucher un peu tous les élèves du collège, une deuxième question sur le niveau de l’élève a été ajoutée.

Séance 3 – Enquête et dépouillement

L’heure suivante, j’avais préparé dix questionnaires pour chacun (tous sur une même page pour des questions pratiques) et apporté les menus du mois suivant. Les élèves se sont alors répartis par groupe de 2 ou 3 sur les jours où ils allaient poser les questions en fonction des plats (la désignation des « bons » et des « mauvais » menus s’est faite sur des bases entièrement subjectives). Le recueil des données a duré un mois. Six élèves n’ont pas fait passer l’enquête par oubli ou par manque d’envie ou encore par timidité. À l’issue de cette collecte, trois élèves de chaque groupe ont dépouillé les réponses obtenues. Les tableaux avec les résultats ont été distribués à chacun (en fonction de son groupe de départ) et chaque élève a pu réaliser, grâce à l’assistant graphique du tableur, un diagramme circulaire avec les résultats obtenus. Et quels résultats ! Chaque groupe a en effet parfaitement réussi à obtenir les résultats attendus dès le départ. Un élève a aussi proposé de mettre en vert les réponses « positives » et en rouge les réponses « négatives » afin de voir le contraste entre les deux diagrammes. Nous avions donc une enquête sur la cantine rigoureuse sur le plan mathématique mais qui donnait deux résultats complètement différents.

Cortecs_Fabien Tessereau_Sondage_cantine_Non
Cortecs_Fabien Tessereau_Sondage_cantine_Oui
Cortecs_Fabien Tessereau_Sondage_cantine_donnees

 

Bilan

De façon générale sur l’ensemble du projet, les élèves ont été très motivés pour participer et le fait de pouvoir « manipuler » des résultats leur a beaucoup plu. Nous avons bien sûr aussi parlé du fait qu’ils pouvaient du coup, eux aussi être manipulés, malgré l’utilisation des mathématiques. Il nous a manqué du temps en fin d’année pour réaliser un panneau d’affichage avec les deux représentations graphiques sur la même page, mais c’est en projet pour cette année : même si les élèves sont en 3°. Cet esprit critique sur les statistiques me paraissant important, j’ai maintenant intégré à mon chapitre sur les statistiques la première heure de cours de ce projet (avec les vidéos) avec une trace écrite en plus.

Fabien Tessereau

La sophrologie Caycédienne, entre conte new age et pseudoscience

La sophrologie est un incontournable des techniques de bien-être et de développement personnel. Présentée (et vendue) comme une simple méthode, nous nous sommes interrogé·es sur son efficacité réelle, sur les piliers psychologiques sur lesquelles elle repose, et sur son substrat philosophique. À notre grande surprise, elle a rarement fait l’objet d’une analyse circonstanciée, aussi ébauchons-nous un chantier sceptique qui permettra de faire gagner du temps aux éventuels chercheur·e·s mais surtout apportera une touche contradictoire argumentée à ce que le marché cognitif du Web et des ouvrages de librairies vend et survend. À l’heure actuelle, il existe de multiples courants de sophrologie (la sophro-analyse, la sophrologie existentielle, la sophrologie dynamique, la sophro-substitution sensorielle, etc.1), chacun reprenant plus ou moins les fondements théoriques issus de la sophrologie Caycédienne. C’est la raison pour laquelle nous nous intéressons particulièrement à celle-ci, qui reste la base de tous les autres types de sophrologie existants. Et comme nous le verrons, à ce jour, ni la validité des fondements théoriques historiques de la sophrologie, ni son efficacité thérapeutique ne sont attestés.

Quels sont les fondements théoriques de la sophrologie Caycédienne ?

Selon Caycedo, fondateur de la sophrologie qui porte son nom, on peut considérer la sophrologie comme « une école scientifique » ayant pour base la « phénoménologie existentielle ». Elle permettrait de proposer une « étude nouvelle » de la conscience, en étant à la conquête des « valeurs » de l’existence et de l’être2.

Naissance et développement

Son fondateur, Alfonso Caycedo, est né en 1932 à Bogota, en Colombie, et décédé en 2017. Il devient médecin psychiatre puis professeur à la Faculté de Médecine de Madrid.

Voici l’histoire, qui mériterait une investigation plus poussée, présentée par différentes sources plus ou moins hagiographiques3 : constatant l’utilisation de techniques psychiatriques qui le révoltent, tels les électrochocs ou les comas insuliniques, il découvre l’hypnose (l’hypnose dite traditionnelle, au sens de Patrick-André Chéné4, directeur de l’Académie de sophrologie de Paris, et l’hypnose Ericksonnienne, de Milton Erickson) et l’introduit à l’hôpital où il travaille. Cependant, l’hypnose étant une technique connotée étrange ou mystique, pouvant faire peur ou être taxée de charlatanisme, Caycédo décide alors de créer un nouveau terme : la sophrologie. Ce terme, selon son fondateur, provient de trois racines grecques, sos (sérénité), phren (conscience), logos (étude). La sophrologie se définie alors comme l’étude de la « conscience en harmonie », laissant un flou conceptuel patent.

Alfonso Caycedo (1932-2017) - fondateur de la sophrologie caycédienne
Alfonso Caycedo (1932-2017) – fondateur de la sophrologie caycédienne

Il est dit que durant deux années, Caycedo et sa femme, qui pratiquent le yoga, vont voyager en Asie (Inde, Tibet et Japon). En Inde, ils auraient rencontré des moines tibétains pratiquant des exercices de « modification de conscience ». Caycedo se familiarise semble-t-il également avec le bouddhisme zen.

En 1968, Caycedo s’installe à Barcelone, en tant que professeur à l’école de psychiatrie de la Faculté de médecine de Barcelone, et c’est le point de départ de la distanciation entre la sophrologie et l’hypnose. Il crée le concept de relaxation dynamique, plus ou moins inspiré de techniques yogi et saupoudré de bouddhisme zen qu’il aurait découverts lors de son voyage en Asie. En 1992, afin de protéger la méthode originelle des copies et dérives, Caycedo dépose la marque de « Sophrologie Caycédienne » qui est considérée comme la « sophrologie dans sa forme authentique »5, selon l’Académie internationale de sophrologie Caycédienne (Sofrocay)6.

Un travail historique approfondi permettrait de vérifier, et de compléter cette biographie somme toute assez lisse.

Les grands principes

La phénoménologie existentielle

Selon les biographies disponibles, Caycedo aurait été passionné par la « phénoménologie existentielle ». Il n’existe pas à proprement parler de définition claire et consensuelle de ce concept, hormis celle de méthode technique de « recherche de la Conscience » (la majuscule étant de Chéné). Nous avons eu du mal à trouver une référence « fiable », qui ne soit pas de l’ordre du forum ou de la référence « sauvage » du ou de la sophrologue indépendant·e qui en délivre sa propre définition.

Bouchard, en 1990, tente une définition indirecte : en phénoménologie existentielle « le principal de l’activité clinique consiste à cultiver l’émergence d’expériences de contact » (la respiration pouvant être par exemple considérée comme une fonction de contact par la rencontre entre les poumons et l’air). Dans le cadre de cette approche, un inconscient de type freudien est postulé, mais avec lequel il n’existerait pas de séparation nette d’avec le conscient7.

La « phénoménologie existentielle » serait issue de la phénoménologie husserlienne, méthode philosophique proposée par le philosophe allemand Edmund Husserl (1859-1938) pour étudier la conscience89. Cette méthodologie « dérivée » va semble-t-il aider Caycedo à « étudier la conscience humaine en utilisant des attitudes phénoménologiques telles que la « suspension de jugement » ou « l’épochè » (ἐποχή), qui consiste à laisser venir les « phénomènes » qui apparaissent durant la séance sans les juger, les comparer ou les interpréter »10. Précisons que la notion d’épochè, est une notion classique chez les philosophes sceptiques grecs antiques (notion proche du bonheur extatique).

La sophronisation et la relaxation dynamique Caycédienne

Aujourd’hui, la sophrologie Caycédienne propose deux types d’exercices centraux : la sophronisation et la relaxation dynamique.

Schéma conscience Chené (p.101)
Schéma des différents états de conscience selon la sophrologie Caycédienne, tiré du livre de Chené (p.101)

Selon Caycedo, la conscience peut se trouver dans quatre états : la veille, puis le niveau sophro-liminal (sorte d’état intermédiaire), le sommeil et le coma. Paradoxalement, ce découpage n’est pas scientifique, et fait fi des travaux de Jouvet en 195911 et autres, pourtant fameux (sommeil paradoxal, lent léger, lent profond, phases hypnagogique et hypnopompique, etc.).

Le premier apprentissage est donc d’apprendre la sophronisation, c’est-à-dire à se placer dans cet état intermédiaire de conscience, pour arriver ensuite au contrôle de celui-ci. Cette technique est notamment inspirée de l’hypnose ericksonienne. Le but est « d’accéder à la libération de la conscience [des humains] à travers la double tridimensionnalité spatio-temporelle de ses techniques (…), d’embrasser la notion de totalité dans une liberté responsable de laquelle les valeurs fondamentales se dégagent de chaque être » (p.114)12.

12 degrés de relaxation - Chené
Tableau des douze degrés de la relaxation dynamique par Chené (voir ici).

La Relaxation Dynamique Caycédienne (RDC) permettrait de conduire au « développement de la perception de notre corps, de notre esprit, de nos états émotionnels et des valeurs qui nous sont propres »13. Le premier cycle de RDC, qui est le plus souvent effectué avec les patient·e·s, est constitué de 4 degrés :

  1. Degré de la concentration : découverte des sensations et du schéma corporel (inspiré des différentes écoles de yoga comme le Raja-Yoga et le Nada yoga) ;
  2. Degré contemplatif : contemplation du corps limité et de l’illimité de la conscience (inspiré du bouddhisme traditionnel tibétain)14. Les exercices sont principalement centrés autour de l’apprentissage de techniques de relaxation. Ici, les exercices sont des techniques méditatives ;
  3. Degré méditatif : intégration corps-esprit (inspiré du zen Japonais) ;
  4. Présence des valeurs (ajouté dans les années 1990 à la RDC) : renforcement des valeurs fondamentales de l’être humain (l’individualité ou la liberté, la « groupéité » (amis, famille, êtres chers), la société, l’humanité, l’universalité, l’éternité, la divinité15).

On remarque au passage que dès ce premier cycle, on perçoit que la démarche n’est pas laïque, mais déiste, avec un syncrétisme assez classique de ce qu’on appellera par la suite dans la littérature spécialisée le courant New Age16. Progressivement, la sophrologie se voit ajouter des cycles avec chacun des degrés supplémentaires.

Le deuxième cycle aiderait à prendre conscience de la « phylogenèse » (histoire évolutive de l’espèce) et de l’« ontogenèse » (développement d’un individu depuis la fécondation jusqu’à sa forme adulte) en tant que phénomènes caractéristiques de l’histoire de l’évolution de la conscience humaine. Un bien vaste programme qui devrait laisser perplexe qui sait à quoi se rapportent scientifiquement ces termes en biologie de l’évolution17.

Le troisième cycle permettrait de renforcer la présence et l’expérience des valeurs existentielles comme la liberté, la « tridimensionnalité » (prise de conscience du passé, du présent et du futur), la responsabilité et la dignité de l’être humain18.

Les effets prétendus de la Relaxation Dynamique Caycédienne

Selon Patrick-André Chené, considéré comme un auteur incontournable puisque son livre est considéré comme l’ouvrage de référence des sophrologues notamment au cours de la formation de Sophrologie Caycédienne en Andorre, l’étendue de ce que permet la pratique de la RDC est large :

« Une réconciliation du sujet avec le corps, une prophylaxie du déséquilibre psychosomatique, un traitement de la pathologie psychosomatique, un rétablissement de l’équilibre psychique, un amortissement de la résonance émotionnelle, une mise au repos de l’organisme, une amélioration de la concentration et de la mémoire, un contrôle de la douleur, une amélioration du sommeil, une autocritique et maîtrise de soi, une amélioration des rapports humains, une diminution importante de l’agressivité, une amélioration de l’adaptation de l’homme à son environnement, une discipline personnelle d’amélioration des potentiels personnels, une découverte, conquête et intégration des nouvelles valeurs de l’être, d’une conscience supérieure, la Conscience Sophronique, une nouvelle Quotidienneté (sic!) fondée sur une démarche existentielle libre et responsable. »19.

Selon lui, les champs d’application seraient alors particulièrement vastes du fait que les techniques peuvent être appliquées à la plupart des domaines de l’activité humaine et « qu’elles s’élargiront encore dans un proche avenir »20.

L’obtention du diplôme du sophrologue

Au jour de la rédaction de ce travail, début 2018, ce métier n’est pas réglementé et son exercice est libre en France, tout comme en Belgique par exemple. En effet, il est considéré comme étant « accessible sans diplôme particulier » avec une facilitation d’accès par « des formations spécifiques (médecines naturelles, alternatives ou complémentaires et traditionnelles, conseil et information en phytothérapie, naturopathie, …) selon la fiche Rome K1103 de Pôle Emploi21 datant d’octobre 2017. Cela signifie qu’un·e sophrologue n’est pas un·e soignant·e, et ne peut légalement procéder à aucun acte médical (diagnostic, traitement médical ou prescription de médicaments). Certaines formations bénéficient d’une prise en charge au titre de la formation professionnelle et de la validation des acquis et de l’expérience (VAE).

Il est actuellement possible d’obtenir un « master » en Sophrologie Caycédienne, exclusivement au siège européen de la Fondation Alfonso Caycedo en Andorre 22, ce titre étant considéré par l’Académie internationale de Sophrologie Caycédienne comme le seul permettant l’exercice de la Sophrologie Caycédienne. Il est impossible d’obtenir un tel diplôme en France car depuis juillet 2013, l’article L731-14 du code de l’Enseignement Supérieur indique que les établissements d’enseignement supérieur privés ne peuvent décerner des certificats portant le titre de baccalauréat, licence, master, doctorat, sous peine d’usurpation de diplôme et de 30 000 euros d’amende23. De ce fait, les intitulés de formation utilisant le nom de master sont interdits en France. Il existe des diplômes universitaires (D.U.) comme à l’Université de Lille 2 (D.U. de sophrologie) et à l’Université de Saint-Étienne (D.U. synthèse des techniques de relaxation et sophrologie). En France, quatre organismes privés délivrent le titre et 28 écoles préparent au titre RNCP (Répertoire national de la certification professionnelle) de sophrologue24. Dans le monde il existe 47 écoles privées de Sophrologie Caycédienne selon le site de l’Académie Internationale de Sophrologie Caycédienne (dont plus de la moitié sont en France).

En 2001, le rapport de la Mission interministérielle de vigilance et de lutte contre les dérives sectaires (MIVILUDES) indique :

« La sophrologie est source de nombreuses interrogations. On se bornera à constater que maintes offres de formation créent la confusion en proposant des titres tels que « sophrologue clinicien », « sophrologue de l’éducation et de la prévention » Ces appellations s’inspirent du titre de psychologue, titre dont la loi n° 85-772 du 25 juillet 1985 fixe l’usage, et qui peut être accompagné ou non d’un qualificatif, le plus souvent « psychologue clinicien », des notions d’éducation à la santé, et de prévention sanitaire. Or, les titres de « sophrologue clinicien », de « sophrologue de l’éducation et de la prévention » ne sont ni homologués ni reconnus. »25.

Critiques des fondements théoriques de la sophrologie Caycédienne

La sophrologie Caycédienne et son rapport à la science

La Sophrologie Caycédienne se définit comme une école scientifique qui étudie la conscience. Concernant l’aspect scientifique, Chené indique :

« Les nombreuses expérimentations et travaux scientifiques des sophrologues de tous les continents depuis plus de 35 ans ont validé les postulats de recherche du début de la Sophrologie. (…) La Sophrologie [qui] s’impose aujourd’hui comme science phénoménologique (…) »26.

« La méthodologie est la grande force de la Sophrologie Caycédienne. Elle comporte à la fois la thérapie et la recherche »27.

« De nombreuses études scientifiques, électroencéphalographiques et physiologiques, pharmacologiques et chimique, psychologiques et cliniques ont confirmé la validité du concept de l’Éventail de la Conscience comme base de travail de la Sophrologie »28.

Cependant, aucune de ces études n’est référencée par Chené. Tout au long de son ouvrage celui-ci ne fera aucune référence à des études scientifiques validées par des revues scientifiques à comité de lecture par les pairs. Les rares références ne concernent que les travaux de Caycedo.

Dans son livre, Chené explique que face à la critique d’un sophrologue (il ne nous donne cependant pas plus d’informations sur l’auteur de la question) qui demandait à ce que le terme « conscience » soit moins utilisé (il n’y a pas plus de précision dans le livre), car peu reconnu scientifiquement, voici ce que Caycedo répondit :

« Un bon professeur a un certain espace, maintient une rigueur, une éthique médicale ; la psychiatrie elle-même est devenue une « cachetologie », elle n’arrive pas à être phénoménologique, ce qui serait plus rapide pour l’évolution des consciences. Même la psychothérapie est limogée, une période d’animalisation de notre espèce s’annonce : on enlève la conscience, c’est l’animalisation, la médecine vétérinaire »29.

On remarque que Caycedo, au lieu de répondre sur le plan de la scientificité, mobilise un jargon de type pseudoscientifique, et joue sur le registre de la peur face à une aliénation, une « animalisation » prochaine de l’Humain, incluant de fait la critique du sophrologue dans ce processus menaçant.

Caycedo a cependant peu écrit en français. La plupart de ses écrits sont rédigés en anglais ou en espagnol entre les années 1961 et 1979 (sept publications en espagnol, trois publications en anglais et une en français). Sa dernière publication datant de 1995 a été écrite en français30. C’est Raymond Abrezol (1931-2010), dentiste formé au courant psychanalytique jungien et à la médecine traditionnelle chinoise31 qui diffuse la sophrologie en France et en Suisse. Il devient responsable de la Sophrologie Clinique en Suisse et de l’enseignement de cette discipline. En 1986, Abrezol rédige un livre intitulé Sophrologie et évolution : demain l’Homme, dans lequel il explique que l’humanité, décadente, est vouée à sa perte et qu’il est nécessaire de stimuler l’hémisphère cérébral droit, siège de l’intuition, afin de retrouver son identité propre. Il reprend ainsi les grands classiques, malheureusement faux, de latéralisation artificielle gauche/droite, rationnel/intuitif du cerveau humain (Grinder, etc.32). Les propos d’Abrezol, d’apparence scientifique, ne sont cependant pas appuyés sur des recherches scientifiques référencées, ni sur des descriptions de ces méthodes qui permettraient alors de tester les effets de la stimulation de l’hémisphère droit.

Le rapport entre la sophrologie Caycédienne et le spiritualisme

Une dimension ouvertement spiritualiste est utilisée par Abrezol lorsqu’il aborde notamment le thème de l’enfance, introduisant ainsi le concept syncrétique de « grands Maîtres » hérité du courant théosophique de Helena Blavatsky et du colonel Henry S. Olcott et qu’on retrouvera par la suite chez les Antroposophes autour de Rudolf Steiner.

« La conception ne doit pas être considérée sur le plan scientifique, mais selon le fruit de l’expérience des grands Maîtres ; elle n’a aucun rapport avec la raison (le carré). Nous abordons ici son côté spirituel, métaphysique (le cercle). Sur le plan de la structure de l’Homme, ce qui provient du cercle est inexprimable par le langage articulé que seul peut énoncer le carré »33.

Il se rapproche également de Omraam Mikhaël Aïvanhov (créateur de la Fraternité Blanche Universelle, considérée comme mouvement sectaire de 500 à 2000 adeptes34). Les enseignements d’Aïvanhov, couplés à la sophrologie, pourraient, selon Abrezol, permettre de créer un Homme nouveau :

« Cet homme sera capable de se défendre contre les fantastiques pressions déséquilibrantes de notre société et il pourra devenir la base d’une société nouvelle où régneraient la paix et l’harmonie entre les hommes. Peut-être s’agit-il de ce célèbre Âge d’Or annoncé par les grands maîtres ? »35.

Alors qu’initialement, la Relaxation Dynamique Caycédienne ne comportait que trois degrés, Caycedo « approfondit » de plus en plus son étude de la conscience en ajoutant davantage de néologismes, qui rendent les terminologies de plus en plus complexes pour les profanes. On peut par exemple citer l’ajout dans les degrés les plus avancés de l’utilisation de techniques de vibrations sonores, de nouvelles énergies (nommées Omicron, Ompsilon ou Epsilon) et de nouveaux niveaux de conscience (la Conscience Phronique). Ces ajouts de la part de Caycedo font fi des travaux scientifiques dans le domaine et rendent l’approche de la sophrologie Caycédienne plutôt opaque, même pour des professionnel·le·s de la santé mentale. Deux sophrologues rencontrés lors de l’enquête de Mahric & Besnier indiquent que « dans les plus hauts degrés, la spiritualité est clairement présente. »36. La « divinité » est effectivement une valeur présente dans les valeurs fondamentales explorées dans le degré 4 du niveau 1 de RDC. Chené cite Caycedo qui indique que la méditation est « une tentative d’atteindre la divinité par le développement de la conscience »37.

Chené indique, par exemple, que le quatrième degré correspond à la « marche vers la lumière » de la Conscience Sophronique, ce qui nous investirait d’une mission qui est celle « d’aider [nos] semblables à se libérer et à franchir le seuil de la caverne vers la lumière »38. Par ailleurs, il compare par exemple les systèmes et lieux du corps théorisés en Sophrologie Caycédienne avec les Chakras39.sophrologie - bonzai

Ainsi, on remarque que l’on s’éloigne de l’« approche résolument médicale et scientifique » prônée par l’Académie Internationale de Sophrologie Caycédienne. Cependant, la validité du corpus théorique d’une pratique thérapeutique donnée n’implique pas nécessairement son inefficacité. Qu’en est-il alors de l’efficacité de cette méthode ? Procédons à une recension des publications scientifiques sur la question.

Efficacité thérapeutique de la Sophrologie Caycédienne

Une recherche (datée d’août 2017) du terme « sophrology » sur PubMed (base de données médicale), Pascal, Francis, PsycARTICLES, PsycINFO, Psychology and Behavioral Sciences Collection, Library, Information Science & Technology Abstracts (bases de données en sciences humaines) donne 168 références. Alors que sont référencées 14 032 pour « hypnosis » et 1 199 pour « autogenic training ». On constate donc que très peu d’études ont été publiées concernant la sophrologie, en comparaison avec l’hypnose ou le training autogène (qui sont deux techniques thérapeutiques qui s’apparentent peu ou prou à la sophrologie).

Sur ces 168 références, la plupart des protocoles mis en place sont des études de cas (ne permettant pas la généralisation des résultats obtenus) et rares sont les études qui utilisent un groupe contrôle, pourtant indispensable à l’évaluation de l’efficacité spécifique d’une pratique thérapeutique quelconque40. Au total, deux études seulement répondent à ce critère. Malheureusement, ces études présentent un biais méthodologique important (manquement quant aux procédures d’aveuglement41). En outre, les deux publications ne rapportent pas quantité d’informations essentielles pour juger de la présence ou non d’autres biais. Ainsi, ces études ne peuvent servir de preuves en faveur de l’efficacité ni de la sophrologie Caycédienne, ni de la sophrologie tout court.

  • Un article français de Constantin et al. (2009)42 rapporte une étude randomisée et contrôlée dans laquelle a été étudié l’effet de la sophrologie sur 28 patient·e·s atteints d’insuffisance respiratoire en service de réanimation, et dont la prise en charge incluait l’utilisation d’un appareil de ventilation non invasive. Dans le groupe expérimental, une séance de sophrologie d’une durée de 30’ est réalisée par une infirmière. Dans le groupe contrôle, la prise en charge a consisté en un accompagnement standard de 30’ effectué par la même infirmière que dans le groupe expérimental. Les résultats montrent une diminution significative de la fréquence cardiaque, de la pression artérielle systolique, de la fréquence respiratoire et de la sensation de gêne et d’inconfort respiratoire (qui est le critère de jugement principal) pour les patient·e·s du groupe sophrologie.

Pour différentes raisons, cette publication est de qualité médiocre et l’étude qui y est décrite présente vraisemblablement des biais majeurs. Parmi ces raisons, nous retiendrons43 : 1) la procédure de randomisation n’est pas mentionnée ; 2) il n’est pas indiqué si une allocation cachée des traitements a été réalisée ; 3) outre la possibilité de mettre en place un double aveugle ou un simple aveugle strict pour ce genre d’étude, ce qui implique une rigueur sans faille sur les autres aspects méthodologiques, rien n’a été fait pour tendre vers un simple aveugle (le simple fait que la même infirmière réalise la prise en charge des deux groupes en est un indicateur décisif) ; 4) la procédure de traitement des données manquantes n’est pas mentionnée (or trois patient·e·s ont été exclus).

Ainsi, il n’est pas possible de considérer cette étude comme une preuve de l’efficacité de la sophrologie.

  • Un article de Tejedor et al.44 (2015), étudie les effets de la kinésithérapie (physiotherapy) soit isolément, soit associée à la sophrologie, soit à des techniques cognitivo-comportementales (TCC) dans le traitement des lombalgies. Trois groupes d’une vingtaine de sujets sont constitués. 10 séances de 45 à 60 minutes sont proposées dans les deux groupes. Le groupe contrôle est composé de patient·e·s sur liste d’attente. Des questionnaires sur la qualité de vie, l’anxiété, la dépression, la perception de la douleur et la sensation d’invalidité sont effectués au début de l’intervention puis à 6 mois. La qualité de vie est le critère de jugement principal. Les auteurs concluent qu’il n’y a pas de différences significatives entre les groupes pour l’ensemble des paramètres.

Ici encore, la publication est de piètre qualité et l’étude rapportée présente un risque de biais élevé : procédure de randomisation non décrite, allocation cachée des traitements vraisemblablement absente, aucune mesure décrite pour tendre vers du simple aveugle, absence de diagramme de flux, procédure de traitement des données manquantes non mentionnée, etc.

Comme pour l’étude précédente, ce travail ne peut être considéré comme une preuve en faveur ou en défaveur de l’efficacité de la sophrologie.

Finalement, il n’existe donc aujourd’hui aucune étude méthodologiquement rigoureuse qui démontre l’efficacité ou l’absence d’efficacité propre de la sophrologie.

Pour autant, la sophrologie présente une certaine popularité en France et dans les institutions. Selon l’enquête menée sur 80 sophrologues par l’Observatoire national de sophrologie, en 2011, environ 67% des sophrologues interrogés exercent ce métier depuis moins de 5 ans. On constate l’engouement pour le métier de sophrologue ces dernières années45. Dans le rapport de mai 2012 sur les médecines « complémentaires » à l’Assistance Publique – Hôpitaux de Paris46, la sophrologie fait partie des méthodes pratiquées par des personnels infirmiers ou des psychologues en tant que « médecine » complémentaire dans le traitement de la douleur chronique. On la retrouve au sein de nombreuses institutions (hôpitaux, écoles, etc.) mais également dans plusieurs cabinets en fonctionnement libéral.

Face aux questionnements de certaines personnes politiques concernant la non-reconnaissance de la formation des sophrologues, le ministre de la Santé et de la Protection sociale de l’époque répond47 :

« Par ailleurs, avant de reconnaître les bienfaits d’une thérapie, il est indispensable de définir les pathologies auxquelles celle-ci s’adresse et d’en apprécier l’efficacité. En effet, l’article 39 du code de déontologie médicale précise que « les médecins ne peuvent proposer aux malades ou à leur entourage comme salutaire et sans danger un remède ou un procédé illusoire ou insuffisamment éprouvé. Toute pratique de charlatanisme est interdite ». À ce jour, aucune étude sérieuse n’ayant été réalisée dans ce sens sur la sophrologie, cette activité ne saurait être considérée comme une méthode thérapeutique à promouvoir. »

En conclusion 

Selon l’Académie internationale de Sophrologie Caycédienne et Patrick-André Chené (rappelons que c’est un auteur incontournable dont l’ouvrage est considéré comme la référence sur lequel se base la formation de sophrologie Caycédienne en Andorre) la Sophrologie Caycédienne ne se considère pas comme une technique de relaxation ou comme une thérapie mais comme une discipline de développement de la conscience. Selon Chené, son domaine d’application s’étend sur de vastes domaines comme par exemple le « traitement de la pathologie psychosomatique » ou un « rétablissement de l’équilibre psychique ». Cependant, l’étude des articles référencés sur les bases de données des sciences humaines, ne permet pas de conclure quant à l’efficacité de la sophrologie pour des affections spécifiques.

La Sophrologie Caycédienne n’est pas le seul courant « sophrologique », bien que se défendant comme étant la sophrologie authentique. D’autres courants se sont formés par la suite comme la sophro-analyse, la sophrologie existentielle, la sophrologie dynamique ou la sophro-substitution sensorielle. Chaque méthode utilise ses propres principes afin d’aider le·la patient·e, et ce avec des fondements théoriques peu étayés voire douteux, et une efficacité non prouvée.

Un formateur en Sophrologie, après avoir formé 5 755 professionnel·le·s à la sophrologie (dont seulement 17% la réutilisent dans leur pratique) au cours d’une formation de 20 heures qui présente les principaux aspects théoriques et pratiques, met en garde face à l’omnipotence qu’il a observé chez certain·e·s professionnel·le·s. Selon lui, certain·s se considéreraient comme doté·es d’un pouvoir permettant de mettre les client·es dans un état modifié de conscience (EMC, ou ECM, chers à la parapsychologie moderne)48.

Tout un·e chacun·e, sans formation préalable à la santé mentale notamment, peut devenir sophrologue en suivant la formation dispensée dans les diverses écoles. Bien que la plupart des sophrologues partent certainement d’une bonne intention, celle d’aider la personne à aller mieux, à mieux se connaître, à mieux gérer leur stress, etc., les pratiques utilisées par les sophrologues posent question quant à leur efficacité et leurs fondements théoriques (plus adossés à la mystique et la spiritualité qu’aux résultats scientifiques). Il semble possible que certain·e·s professionnel·le·s puissent intentionnellement ou non s’appuyer sur la sophrologie pour manipuler les populations les plus fragiles, leur promettant une guérison miraculeuse, que les autres professionnels de santé n’ont pas pu ou su faire.

Il convient par ailleurs de rappeler, qu’au cours de leur formation pour devenir sophrologue caycédien49, les sophrologues ne suivent pas de cursus en psychologie et/ou psychopathologie. À moins que leur formation ne soit dans ce domaine, ils et elles n’ont pas appris les précautions à prendre en fonction des pathologies mentales que pourraient présenter certain·e·s patient·e·s en demande d’aide. Selon l’Académie Internationale de Sophrologie Caycédienne, il n’existe pas de contre-indication à la sophrologie et elle peut être utilisée par toute personne en pleine possession de ses facultés. La responsabilité incombe donc aux sophrologues de considérer si une personne est en « pleine possession de ses facultés » ou non, si l’on se réfère à l’Académie Internationale de Sophrologie Caycédienne. Cependant, il est peu recommandé de pratiquer une quelconque forme de méditation ou de relaxation avec des patient·e·s particulièrement anxieux·ses (certains exercices de méditation risquant d’entraîner une crise d’angoisse importante), ou qui seraient à risque d’entrer en phase de décompensation psychotique, de dissociation ou de vivre un épisode délirant ; les patient·e·s avec un trouble de la personnalité de type borderline (ou état limite) seraient également à risque50. Sur des patient·e·s ayant été hospitalisés à la suite d’un épisode délirant, les exercices de méditation de type mindfulness (méditation pleine conscience), effectués avec deux thérapeutes, ne durent pas plus de 15 minutes afin justement d’éviter que les patient·e·s expérimentent d’intenses symptômes délirants51. Un·e sophrologue non averti·e pourrait causer des dommages à ses patient·e·s s’il ne décèle pas cela en utilisant certaines techniques enseignées par la sophrologie Caycédienne.CorteX_SPS_323

Cet article, dans sa version épurée, est disponible ici, ainsi que dans le numéro 323 de Science & Pseudo-Sciences, à commander sur www.afis.org.

Gwladys Demazure, Albin Guillaud, Richard Monvoisin

Rapport CORTECS CNOMK : l'ostéopathie viscérale à l'épreuve des faits

En 2015, nous avions réalisé un rapport à la demande du Conseil national de l’ordre des kinésithérapeutes (CNOMK) portant sur la validité scientifique de l’ostéopathie crânienne, une des ramifications de l’ostéopathie. En 2016, un an après, nous avons rendu un deuxième rapport au CNOMK concernant une deuxième sphère de l’ostéopathie : l’ostéopathie viscérale (RAPPORT CORTECS − Ostéopathie viscérale). Ce document a été rendu public au mois de mars 2018 après un vote des membres du CNOMK. Voici un résumé de ce rapport de 288 pages dans lequel nous avons soigné au maximum le détail des méthodes de recherche et d’analyse employées. Des remarques, des questions ? Nous vous invitons à lire la partie QFP à la fin de cet article.

Résumé

Dans ce rapport, nous nous sommes attelé·es à trois tâches principales. Nous avons d’abord reconstitué l’histoire de l’ostéopathie viscérale, puis nous avons décrit et analysé ses fondements théoriques, et enfin nous avons synthétisé et examiné les preuves portant sur ses procédures cliniques (diagnostiques et thérapeutiques).

À propos des fondements de l’ostéopathie viscérale, ont été décrits et analysés :

  • Les concepts de « mobilité viscérale » et de « dynamique viscérale ».
  • Le rapport entre mobilité viscérale et pathologie avec tous les concepts ostéopathiques associés tels que ceux d’« articulation viscérale », de « fixation viscérale », de « dysfonction ostéopathique viscérale », de « Dynamique intrinsèque© » et de « motricité viscérale ».
  • Le concept de « motilité viscérale ».
  • Le concept de « chaîne ostéopathique » recouvert par différentes expressions telles celles de « suite mécanique », de « chaîne lésionnelle », de « chaîne phréno-médiastino-vertébro-crânienne » et de « tendon viscéral central ».
  • Le concept de ptose viscérale et ses concepts parents tels celui d’« entéroptose » ou d’« hépatoptose ».
  • Le concept d’« élasticité viscérale » et ses concepts associés : « lésion de tissularité », « loi des tubulures », « autonomie viscérale », « dysfonction ostéopathique viscérale, « Dynamique© intrinsèque », « dysfonction de raccourcissement© » et « dysfonction d’étirement© ».
  • Le « Modèle Pressif© Finet-Williame » qui articule les concepts de « dysfonction ostéopathique viscérale », de « réflexe dynamogène », de « série musculaire respiro-posturale », de « dysposturalité tonique© » de « posturalité tonique-phasique© », de « colonne de pression© » et de « report pressif »CorteX_visceres.
  • Le concept d’« hypersensitivité© viscérale ».
  • Les concepts de « tenségrité », « biotenségrité » et de tenségrité en ostéopathie.

La conclusion de notre rapport est claire : aucun des concepts spécifiques à l’ostéopathie viscérale n’est fondé :

Si les ostéopathes viscéraux se sont appropriés des concepts physiologiques et biomécaniques valides (tels que la mobilité et la dynamique des viscères, le fait que la pression intra-abdominale puisse varier, ou encore le fait que les organes intra-abdominaux soient élastiques), tous ces phénomènes sont connus de la communauté médico-scientifique et aucun d’entre eux n’a été découvert par un ostéopathe.

Quant aux conceptions spécifiques à l’ostéopathie viscérale, aucune ne bénéficie de donnée scientifique pour la soutenir. En outre, les ostéopathes viscéraux font un mésusage du concept de « ptose viscérale » en s’appuyant sur un arrière-plan théorique dépassé. D’autre part, leur raisonnement en « chaîne ostéopathique » que l’on retrouve sous la forme de différents concepts chez tous les ostéopathes viscéraux, à défaut de produire des hypothèses testées ou testables expérimentalement, ne s’apparente pour l’instant qu’à un jeu intellectuel de construction anatomique et biomécanique […]

En résumé, rien ne permet aujourd’hui de défendre que l’ostéopathie viscérale dispose de fondements scientifiques théoriques propres, et cela tant du point de vue physiologique que pathologique. Toutefois, cela ne présage pas nécessairement de l’inefficacité des procédures diagnostiques et thérapeutiques des ostéopathes viscéraux : c’est pourquoi c’est à la recherche et à l’examen des données expérimentales testant ces procédures qu’a été consacrée la prochaine et dernière partie de ce rapport.

CorteX_bmcNotre travail sur les procédures diagnostiques et thérapeutiques de l’ostéopathie viscérale à quant à lui fait l’objet d’une publication dans la revue BMC Complementary and Alternative Medicine1 dont nous avons parlé ici. Nos résultats permettent d’affirmer qu’il n’existe aucune donnée soutenant les reproductibilités intra et inter-observateurs des techniques diagnostiques de l’ostéopathie viscérale. La majorité des études existantes et disponibles échoue à mettre en évidence ces reproductibilités pour tous les paramètres considérés. Enfin, la revue de littérature réalisée n’a pas permis d’identifier de preuve méthodologiquement valable et favorable à une efficacité thérapeutique spécifique des techniques de l’ostéopathie viscérale.

QFP (Questions fréquemment posées)

Nous répondrons bien volontiers aux remarques, questions et critiques qui :

  • concernent strictement le contenu de ce rapport (l’évaluation des fondements théoriques et cliniques de l’ostéopathie viscérale) ;
  • nous parviennent directement (contact < at > cortecs.org).
  • ont un ton courtois et ne font pas d’attaque à la personne ;
  • sont étayées avec des références précises et accessibles ;
  • ne sont pas déjà traitées dans le rapport ou dans notre article Rapport ostéopathie crânienne − réponses aux réactions.

La thérapie miroir, l'effet neurosciences et les neuromythes

Il existe une multitude de techniques de rééducation proposées aux patient·es pour diminuer leurs douleurs ou améliorer leurs capacités fonctionnelles. Depuis 2014, je présente l’une de ces techniques, la thérapie miroir (TMi), aux étudiant·es en kinésithérapie de l’Institut de formation en masso-kinésithérapie de Grenoble. L’enseignement de cette technique est un bon moyen de mettre en application la recherche et le tri d’informations en santé et quelques outils d’autodéfense intellectuelle, notamment dans le domaine des neurosciences. Ci-dessous, je présente les grandes lignes du cours, les ressources pédagogiques utilisées et propose au format audio une présentation sur le sujet plus généraliste, présentée devant un public d’étudiant·es et chercheur·es en sciences humaines et sociales, professionnel·les de santé, ingénieur·es et patient·es.

Cours pour étudiant·es kiné

Introduction

En guise d’introduction, je propose aux étudiant·es (entre 50 et 70 personnes, lors d’un cours magistral en amphi de 3 heures) de répondre sur une feuille de manière anonyme à trois questions.

  • « On n’utilise que 10% de nos capacités cérébrales » (Réponses possible : totalement d’accord, d’accord, peu d’accord, pas du tout d’accord.)
  • « Il y a des preuves quant à l’efficacité de la TMi chez les patient·es souffrant de douleurs du membre fantôme. » (Réponses possible : totalement d’accord, d’accord, peu d’accord, pas du tout d’accord.)
  • « Il existe des techniques de rééducation agissant sur les neurones miroir et permettant par leur biais de retrouver une bonne motricité après un AVC massif. » (Réponses possible : totalement d’accord, d’accord, peu d’accord, pas du tout d’accord.)
CorteX_tmi-neuromythes
Résultats de la promotion d’étudiant·es en kinésithérapie eue en cours en 2014 (à l’époque, les choix de réponse n’étaient pas de type « échelle de Likert » comme expliqué précédemment mais sous la forme très vraisemblable, vraisemblable, peu vraisemblable, invraisemblable). Nb : une coquille s’est glissée dans le titre du graphique, on lira plutôt « On n’utilise que 10% de notre cerveau ».

J’invite ensuite les étudiant·es à regarder les réponses au test données par les étudiant·es les années précédentes et leur explique que ces différentes affirmations vont être traitées dans le cours.

Présentation de la technique

Afin de présenter la technique, je propose notamment de visionner cet extrait de l’épisode 4 saison 6 de la série Docteur House (l’extrait est en version originale).

 

Dans cet extrait on suit une « séance » de thérapie miroir pratiquée sur un patient amputé d’un bras et souffrant de douleurs du membre fantôme extrêmement fortes et gênantes depuis plusieurs années. Le patient, par le biais d’une simple boîte en carton, observe le reflet dans un miroir de son membre sain. À peine l’a-t-il observé que ses douleurs se volatilisent.

Si cette séquence a pour mérite d’assez bien présenter le dispositif de la TMi, elle est aussi une très belle illustration du traitement médiatique régulièrement réservé aux techniques d’éducation ou rééducation basée sur les neurosciences : on exagère les effets attendus.

Historique de la TMi

Diane et Vilayanur Ramachandran
Diane et Vilayanur Ramachandran

J’aborde ensuite brièvement l’historique de la TMi. La paternité de la Tmi est souvent attribuée à Vilayanur Ramachandran, qui est effectivement co-auteur (avec sa femme Diane Ramachandran) du premier article retrouvé dans les bases de donnée indexant les publications dans le champ de la santé, datant de 1996. Mais on retrouve dans la littérature des travaux datant de la fin du XIXème siècle qui déjà utilisaient l’idée de regarder dans un miroir certaines parties de corps et observaient les conséquences en terme de perceptions et motricité (travaux du psychologue George Malcom Stratton). J’explique un peu plus précisément comment se met en place une rééducation par TMi en montrant quelques photos voire vidéos de patient·es que j’ai pris en charge. J’introduis à ce moment là les limites découlant de ma propre expérience personnelle amenée comme preuve potentielle d’efficacité de la technique.

Problèmes liés à l’apport du témoignage en guise de preuve

J’explique que comme pour beaucoup de thérapies, ce sont souvent des témoignages de praticien·nes, de patient·es ou de chercheur·es qui peuvent être amenés en guise de preuve de l’efficacité de la TMi, y compris dans la littérature scientifique (études de cas). J’introduis ici les problèmes liés au témoignage et aux cas cliniques apportés comme preuve de l’efficacité de quelque chose : généralisation abusive, confusion corrélation-causalité, fluctuation des symptômes et des maladies et régression à la moyenne, biais de mémorisation, tri sélectif 1.

Je rappelle ici les principes de la pratique basée sur les preuves (ou Evidence-based practice) : l’idée n’est pas de mettre l’expérience personnelle des praticien·nes et des patient·es à la poubelle mais de leur accorder une juste place dans le triptyque expérience clinique, préférences des patient·es, données de la recherche.

L’accent est surtout mis sur la façon de se renseigner dans la pratique quotidienne sur une technique de rééducation dont on questionne l’efficacité (quels sites internet, quels mots clés, quelles informations lire), et sur la lecture critique de quelques essais (comment se faire rapidement une idée de la qualité des essais que l’on a devant les yeux ?), au travers de la littérature sur la TMi.

Une technique efficace ?

Revue de littérature

Cette partie est l’une des plus longues. Il s’agit de présenter les preuves disponibles dans la littérature scientifique sur l’efficacité (ou non) de la TMi (une liste non exhaustive de la littérature évoquée est disponible tout en bas de la page dans le document en PDF) pour différentes pathologies (principalement : l’hémiplégie suite à un accident vasculaire cérébral, la paralysie cérébrale de l’enfant, l’amputation, les syndromes douloureux régional complexe et les troubles musculo-squelettiques d’origine traumatologique ou rhumatologique) et symptômes (douleur, déficit articulaire ou musculaire, déficit fonctionnel, troubles sensitifs). Aujourd’hui, des preuves d’efficacité de la TMi comparativement à des prises en charge par TMi placebo ou prise en charge standard sont présentes pour certains symptômes présents chez les personnes hémiplégiques et les enfants souffrant de paralysie cérébrale. Il n’y a pas de preuve de qualité suffisante montrant l’effet de la TMi chez les personnes amputées, contrairement à ce qui est souvent avancé.

TMi « seconde vague »

Finalement j’aborde l’existence dans la littérature médicale relue par les pairs d’une sorte de TMi « seconde vague ». En effet, on voit apparaître depuis les années 2000, y compris dans des journaux de médecine réputés comme le Lancet 2, des articles présentant de la TMi par le biais d’environnements de réalité virtuelle, des exosquelettes ou encore des robots. Ces articles ne comparent jamais, à ma connaissance, l’efficacité de la TMi numérisée ou robotisée à la TMi plus classique. Pire, il s’agit le plus souvent d’études de quelques patient·es (parfois un seul 3) sans groupe contrôle. Or ses « études » ne peuvent constituer des preuves d’efficacité (et encore moins de supériorité) de la TMi numérisée ou robotisée, pour toutes les raisons évoquées dans la partie précédente réservée aux témoignages et cas clinique. Les dispositifs utilisés sont coûteux sur le plan économique et humain comparativement aux simples boîtes en carton « faites-maison » utilisées le plus souvent en TMi : fabrication (avec matières premières rares, pour les batteries notamment), achat par les établissements ou professionnel·les de santé, frais de formation des patient·es et des praticien·nes, maintenance, réparation. Sont aussi soulevés les problèmes liés au fait que le temps d’installation des patient·es sur ces dispositifs est conséquent, et qu’il n’est pas imaginable que chaque patient·es puisse avoir ces dispositifs à la maison et continuer les séances en autonomie. En résumé, il est abordé avec les étudiant·es les limites potentielles de ces dispositifs, particulièrement s’ils ne sont pas testés de manière comparative avec des outils moins coûteux.

Mécanisme d’action

Je rappelle aux étudiant·es que souvent lors des cours sur des techniques de rééducation, un temps non négligeable du cours est consacré aux mécanismes d’action (neurophysiologiques ou mécaniques) de la technique présentée. Concernant la TMi, une des hypothèses avancées pour expliquer son efficacité (dont les preuves disponibles sont circonscrites, on l’a vu, à certaines populations et indications bien précises) est l’activation du système des neurones miroirs lorsqu’on réalise la technique.

Les limites des explications cohérentes

J’explique pourquoi je passe peu de temps sur ces explications : une technique peut être tout à fait cohérente avec les connaissance antérieures en physiologie humaine et biomécanique, et pour autant ne pas montrer une efficacité supérieure à d’autres techniques ou à l’absence de prise en charge. Une illustration possible est l’histoire du flécaïnide, dans les années 80. La substance active contenue dans ce médicament réduisait les arythmies de patient·es souffrant de problèmes cardiaques. Il semblait donc logique de le recommander à des patient·es souffrant de troubles du rythme. Plus de 200 000 personnes furent traitées avec ce médicament. En parallèle, des essais contrôlés randomisés ont été menés sur d’autres patient·es. On s’est alors rendu compte que la mortalité des patient·es était plus importante dans les groupes avec flécaïnide que dans les groupes avec placebo. Le médicament a alors été retiré du marché pour certaines indications, bien que d’un point de vue physio-pathologique, l’indication était cohérente 4.

Les neurones miroirs

J’insiste sur le fait que l’hypothèse de l’activation du système des neurones miroirs lors de la TMi est une des hypothèses physio-pathologiques possibles, mais qu’elle ne peut constituer en rien une preuve quelconque de son efficacité.

Je rappelle brièvement ce que sont les neurones miroirs. J’insiste surtout sur l’extrapolation qui est faite des connaissances relatives aux neurones miroirs : on retrouve dans un certain nombre d’ouvrages de développement personnel, d’éducation ou de rééducation, destinés au grand public ou aux professionnel·les de santé, l’appel au système des neurones miroirs pour justifier l’efficacité d’une méthode ou expliquer des phénomènes complexes et multifactoriels. Cela est notamment le cas dans la conférence TED de Ramachandran où il qualifie les neurones miroirs de « neurones qui ont formé la civilisation », ou dans cet article de Médiapart où on trouve la citation suivante : « Ces neurones miroirs confirment les découvertes de C.G.Jung sur l’influence déterminante de notre inconscient personnel et collectif. » 5.

L’effet neurosciences

Définition

Ces présentations permettant d’enchaîner sur l’effet neurosciences, décrit ainsi par Normand Baillargeon : « On tend à accorder plus de crédibilité à une idée, même fausse, quand elle se réclame des neurosciences, quand elle utilise son langage, ses images. » 6.

Preuves expérimentales

Cet effet est étayé expérimentalement. Je présente une ou deux études illustrant cet effet : celle de Lindell et Kidd de 2013, qui montre que le fait d’être exposé à un prospectus vantant une méthode d’éducation dont le titre est Right Brain Training plutôt qu’à un prospectus de contenu strictement identique mais s’intitulant Right Start Training, influence les adhésions aux programmes des personnes (les gens exposés à Right Brain pensent par exemple plus souvent que le fondement scientifique de la méthode est important) 7. (Voir illustration ci-après, qui m’a été fournie par les auteur·es de la publication.)

CorteX_tmi_right-start CorteX_tmi_right-brain

 

 

 

 

 

 

 

CorteX_tmi_effet-neurosciencesUne autre étude s’intéressant à l’effet neurosciences est celle de Ali et al., 2014 8. Des étudiant·es sont exposé·es à une machine censée lire dans leur pensées (nommée Spintonics, qui les expose à des représentations graphiques de cerveaux) ; des questions leur sont posées relativement à leur scepticisme vis-à-vis des capacités de la machine, selon si les étudiant·es ont ou non suivi un cours d’esprit critique durant tout un semestre. Leur scepticisme vis-à-vis des capacités de la machine à leur pensée reste faible, y compris pour les étudiant·es exposé·es à des cours d’esprit critique sur les neurosciences.

Illustrations

On trouve de nombreuses illustrations de l’effet neurosciences dans des magazines grand public ou pour professionnel·les de santé, sur des sites internes, dans des brochures commerciales, etc. Le Neuromotus© est par exemple un appareil permettant de réaliser de la TMi par réalité virtuelle, notamment pour des personnes amputées.

Les neuromythes

Selon le temps dont je dispose, j’aborde également certains neuromythes tels que ceux présentés ci-dessous, qui ont déjà fait l’objet d’une présentation en accès libre disponible ici.

 

Audio

L’enregistrement audio de la présentation La thérapie miroir : de l’outil thérapeutique aux neuromythes par Nelly Darbois lors du séminaire Corps et prothèses, sensori-motricité, intersensorialité et réalité virtuelle du 26 janvier 2018 à Grenoble.

Télécharger l’audio ici. Voir ou télécharger le diaporama en PDF.

Nelly Darbois

Publication sur l'ostéopathie viscérale dans BMC Complementary and Alternative Medicine

Depuis plusieurs années, nous analysons de manière approfondie l’historique, les fondements physio-pathologiques, les outils diagnostics et l’efficacité spécifique de diverses thérapies ou méthodes, pratiquées notamment par les kinésithérapeutes : fasciathérapie méthode Danis Bois, biokinergie ou encore ostéopathie crânienne. En décembre 2016, nous vous annoncions notre publication, non sans encombre, d’une partie de nos travaux sur l’ostéopathie crânienne dans Plos One. Nous nous sommes à nouveau soumis·es au processus de relecture par les pairs pour publication dans une revue scientifique indexée. Cet article porte cette fois sur l’ostéopathie viscérale. Se trouve ci-dessous la référence de la publication (en accès libre), son résumé, ainsi qu’une petite note à l’intention de nos lectrices et lecteurs qui attendent avec impatience la mise à disposition de notre rapport complet sur l’ostéopathie viscérale.

Référence de l’article

Albin Guillaud, Nelly Darbois, Richard Monvoisin, Nicolas Pinsault. Reliability of diagnosis and clinical efficacy of visceral osteopathy: a systematic review. BMC Complementary and Alternative Medicine. 2018 18:65

Lire ou télécharger la publication en PDF ici.

Résumé (en anglo-américain)

Il est possible d’utiliser Deep-L pour traduire ce texte.

Background

In 2010, the World Health Organization published benchmarks for training in osteopathy in which osteopathic visceral techniques are included. The purpose of this study was to identify and critically appraise the scientific literature concerning the reliability of diagnosis and the clinical efficacy of techniques used in visceral osteopathy.

Methods

Databases MEDLINE, OSTMED.DR, the Cochrane Library, Osteopathic Research Web, Google Scholar, Journal of American Osteopathic Association (JAOA) website, International Journal of Osteopathic Medicine (IJOM) website, and the catalog of Académie d’ostéopathie de France website were searched through December 2017. Only inter-rater reliability studies including at least two raters or the intra-rater reliability studies including at least two assessments by the same rater were included. For efficacy studies, only randomized-controlled-trials (RCT) or crossover studies on unhealthy subjects (any condition, duration and outcome) were included. Risk of bias was determined using a modified version of the quality appraisal tool for studies of diagnostic reliability (QAREL) in reliability studies. For the efficacy studies, the Cochrane risk of bias tool was used to assess their methodological design. Two authors performed data extraction and analysis.

Results

Eight reliability studies and six efficacy studies were included. The analysis of reliability studies shows that the diagnostic techniques used in visceral osteopathy are unreliable. Regarding efficacy studies, the least biased study shows no significant difference for the main outcome. The main risks of bias found in the included studies were due to the absence of blinding of the examiners, an unsuitable statistical method or an absence of primary study outcome.

Conclusions

The results of the systematic review lead us to conclude that well-conducted and sound evidence on the reliability and the efficacy of techniques in visceral osteopathy is absent.

Plus d’informations

Cet article est tiré d’un rapport que nous avons réalisé à la demande du Conseil national de l’ordre des masseurs-kinésithérapeutes (CNOMK). En plus du contenu de la publication dans BMC Complementary and Alternative Medicine, sont présentés dans ce rapport les résultats d’une enquête exhaustive sur l’histoire de l’ostéopathie viscérale, la description précise de ses fondements théoriques, et l’analyse de la validité scientifique de ces mêmes fondements1. Ce rapport est élaboré à partir d’une méthodologie similaire à celle employée dans le rapport sur l’ostéopathie crânienne, mais améliorée par notre expérience, nos erreurs et l’aide des outils de la collaboration Cochrane en constante évolution. Nous avons terminé et rendu le rapport au CNOMK en octobre 2016. Ce travail n’a pas encore été rendu public.