Rasoir ancien démonté en 3 pièces

Non, il ne faut pas privilégier l’hypothèse la plus parcimonieuse ! De l’injonction au vraisemblable

Rasoir ancien démonté en 3 pièces

Le rasoir d’Ockham ! Quel outil intellectuel puissant. Ce principe (également appelé principe de parcimonie) nous dit qu’il faut privilégier la théorie avec les hypothèse les plus parcimonieuses. Autrement dit, les hypothèses les plus vraisemblables, les moins coûteuses ou les moins farfelues (nous nous attarderons pas ici sur la signification exacte, vous pouvez aller voir ici). C‘est un outil érigé comme pilier central de la pensée critique qui est enseigné et éculé depuis des siècles bien avant Guillaume d’Ockham d’ailleurs (Une liste des différentes formulations de ce principe à travers l’histoire est disponible sur le site Toupie.org : Les différentes formulations du rasoir d’Ockham). Mais quelle est la portée réelle de ce principe ? Qu’est-ce qu’il nous permet vraiment de dire sur le monde ? Nous allons le voir, le rasoir d’Ockham bien souvent est employé bien au-delà de son domaine d’application. Loin d’être anecdotique, ce mésusage du rasoir d’Ockham est probablement symptomatique d’une certaine manière de faire de l’esprit critique. Nous partirons donc d’une critique spécifique à cet outil pour questionner d’un point de vue philosophique plus globalement notre rapport à la pensée critique (oui, rien que ça !)

Si vous préférez, cet article est également disponible en vidéo ici.

Préliminaire : là ou le rasoir d’Ockham se grippe.

Quel est le problème ?

Commençons par donner deux exemples sur les limites du rasoir d’Ockham.

Le scientifique Randall Mindy du film Don't look up qui fait des calculs sur un tableau

Une équipe de la NASA collecte des données qui indiquent la présence d’un objet astronomique qui n’était pas encore référencé. D’après les études préliminaires, il y a de grandes chances pour que ce soit une petite comète qui passera à quelques centaines de millions de kilomètres de la Terre. Cependant, les mêmes données sont également compatibles avec une comète qui s’écraserait sur Terre dans les prochains mois. Mais ce genre de comète est assez rare et il faudrait qu’elle aie été captée avec un angle très particulier pour correspondre aux données. L’équipe estime pour l’heure à 0,004 % (1 chance sur 25000) la probabilité que ce soit effectivement une comète qui vise la terre.
Est-ce qu’il faut donc privilégier l’hypothèse de la comète inoffensive ? Et dans quelle mesure ? Quid si la probabilité était de 0,000004 % ou 0,4 % ?

Extrait de H où Aymé montre un tableau de reconnaissance de champignon
Non une collerette ce n’est pas une petite couleur !


Prenons un autre exemple : l’autre jour j’étais en forêt et je trouve un champignon (c’est faux je ne trouve jamais de champignon, c’est pour l’exemple). Piètre mycologue que je suis, j’ai du mal à identifier de quel champignon il s’agit. Il me semble cependant reconnaître un cèpe et je me rappelle qu’un ami m’a dit il y a quelques jours que dans ce coin-là presque tous les champignons sont comestibles, d’autant plus si ils n’ont pas de collerette. Tout porte à croire alors que mon champignon est comestible (pour rendre l’exemple plus parlant, vous pouvez d’ailleurs imaginer d’autres indices rendant plus crédible la comestibilité du champignon). Considérant les deux théories T1 : « le champignon est comestible » et T: « le champignon n’est pas comestible », les indices que j’ai en ma possession me poussent donc à croire que la théorie T1 est plus parcimonieuse.
Est-ce que je dois pour autant manger ce champignon ? Autrement formulé, qu’implique exactement le privilège accordé à cette théorie ? Quelle est sa portée ?

Ces deux exemples ont pour but de montrer qu’on ne peut pas se contenter de dire qu’il faut privilégier les hypothèses les plus parcimonieuses sans plus de précision

➤ Complément : Est-ce que ces exemples parlent réellement du rasoir d’Ockham ? (cliquer pour déroulé)

C’est un des retours critique que j’ai reçu à la sortie de cet article, je rajoute donc cette petite note pour ajouter des précisions. En réalité cela dépend ce que l’on entend par « parcimonie » dans principe de parcimonie. Dans une acception classique, la parcimonie correspond au faible nombre d’entités explicatives. Ainsi on préfèrera une explication qui ne fait pas intervenir d’extra-terrestre, de cryptide ou de pouvoir parapsychique si l’on peut s’en passer. De ce point de vue-là, les exemples donnés tape à coté : les théories concurrentes (champignon comestible vs. non comestible dans un cas, météorite dangereuse vs. inoffensives dans l’autre) ont chacune le même nombre d’entité explicative. Il est donc faux de dire que le rasoir d’Ockham dit quelque chose ici de la théorie à privilégier.
On peut cependant considérer une version un peu différente de cette parcimonie en considérant la plausibilité des hypothèses. Cette acception quoique abusive par rapport au sens original du rasoir d’Ockham semble etre toutefois utilisé (c’est celle-ci d’ailleurs qui est présentée et démontrée dans notre article Vers une vision bayésienne de la zététique).

La portée réelle du rasoir d’Ockham

Alors, le rasoir d’Ockham est il faux ? Faut-il l’abandonner dans nos réflexions et nos enseignements ? Non, ce n’est pas nécessaire. En fait il faut plutôt faire attention à ce qu’on lui fait dire. Considérons deux manières différentes de formuler le rasoir d’Ockham :

  1. La théorie la plus vraisemblable est celle ayant les hypothèses les plus parcimonieuses.
  2. Il faut privilégier la théorie ayant les hypothèses les plus parcimonieuses.

Ces deux formulations semblent relativement proches mais en réalité elles ne disent pas la même chose. D’une certaine manière la première formulation est une version faible du rasoir d’Ockham alors que la seconde va plus loin en donnant une valeur prescriptive au rasoir d’Ockham ce qui est, on va le voir, difficilement justifiable. C’est cette seconde formulation du rasoir d’Ockham que nous allons tenter de creuser ici. Et cette formulation du rasoir d’Ockham est relativement commune1. Et moi même, je l’utilise telle quelle la plupart du temps. Par abus de langage et suivant le contexte, ça peut tout à fait être entendable, mais il est intéressant d’investiguer en toute rigueur ce qui ne va pas avec cette formulation et en quoi cela nous renseigne plus généralement sur notre manière de conceptualiser la rationalité et la pensée critique. Détaillons donc la construction de cette formulation prescriptive du principe de parcimonie.

Illustration de la guillotine de Hume

Passer de la première formulation à la seconde sans plus de justification est une erreur de logique : une prescription ne peut se déduire simplement d’une description. C’est un principe fondamentale de logique que l’on appelle la guillotine de Hume. Une autre formulation, que l’on doit à Raymond Boudon2, dit qu’on ne peut passer d’une prémisse à l’indicatif (la première formulation) à une conclusion à l’impératif (la seconde formulation)


Pour avoir une construction logique qui aboutisse à la seconde formulation, il faudrait en réalité deux prémisses :

  1. La théorie la plus vraisemblable est celle ayant les hypothèses les plus parcimonieuses.
  2. Il faut privilégier la théorie la plus vraisemblable.

On peut appeler la première prémisse « rasoir d’Ockham descriptif » et la deuxième « injonction au vraisemblable ». De ces deux prémisses ont peut alors conclure aisément « Il faut privilégier la théorie ayant les hypothèses les plus parcimonieuses » que l’on pourra appeler « rasoir d’Ockham prescriptif ». Mais c’est là que le bât blesse, la seconde prémisse n’est pas gratuite du tout et ne peut pas être mobilisée à la légère. Les deux exemples d’introduction devraient vous en convaincre.

Une autre formulation du rasoir d’Ockham consiste à dire « il ne faut pas accumuler les hypothèses superflues » 3. Encore une fois, cette formulation ne poserait pas de problème si on précise que ce « il ne faut pas » se cantonne au cas où l’on recherche la théorie la plus vraisemblable. Mais, comme nous l’avons vu, un « il ne faut pas » absolu ne tient pas. Ceci étant dit cette autre formulation est intéressante parce qu’elle permet de voir le problème sous un nouvel angle : il existe de nombreux cas où il est en réalité rentable d’ajouter des hypothèses superflues. L’hypothèse du champignon toxique ou celle de la météorite qui pourrait nous écraser aussi peu parcimonieuses soient-elles peuvent être salvatrices pour nous, il est donc rentable de les tenir pour vraies.

La manière dont nous mobilisions communément le rasoir d’Ockham nous a donc permis de mettre en lumière une hypothèse sous-jacente, relativement insidieuse et largement répandue : une injonction au vraisemblable : « La théorie la plus vraisemblance doit être retenue ! ».
Laissons de coté ce cher Ockham pour nous concentrer plus généralement sur l’utilisation de cette hypothèse et sur sa légitimité.

« Tu privilégieras la meilleure hypothèse »

Suivant les contextes, la prémisse d’injonction au vraisemblable est parfois pertinente et parfois elle ne l’est pas. Prenons deux exemples classiques des enseignements de pensée critique :

  • On enferme un chat et une souris dans une pièce. Dix minutes plus tard on y retrouve plus que le chat. On peut alors formuler plusieurs théories : « le chat a mangé la souris », « la souris s’est téléportée », « la souris a tué le chat et a pris son apparence », etc. Cet exemple classique que l’on doit à Stanislas Antczak est souvent utilisé en cours pour illustrer le principe du rasoir d’Ockham.
    Ici il est clair que quand on dit qu’il faut privilégier la théorie ayant les hypothèses les plus parcimonieuses, il est sous-entendu que c’est dans un cadre spécifique où l’on cherche à trouver l’explication la plus vraisemblable dans un exemple théorique. La prémisse d’injonction au vraisemblable peut donc être sous-entendue sans problème.
  • Une femme Cro-Magnon se promenant en foret entend un bruit dans un buisson. Les prédateurs étant rares à cet endroit il est probable que ce soit seulement le vent ou une petite bête inoffensive. La théorie la plus parcimonieuse est donc « ce n’est pas un prédateur ». Faut-il pour autant la privilégier c’est-à-dire la tenir pour vrai4 et agir en fonction ? Non, ce serait trop risqué, s’il s’agit effectivement d’un prédateur elle pourrait se faire attaquer. Accepter l’injonction à la vraisemblance ici serait une erreur de raisonnement en plus d’être une vraie menace pour la survie. La théorie à privilégier est plutôt celle de la présence d’un prédateur c’est à dire la théorie qui a le plus de chance de sauver les fesses de notre aventurière.

On peut alors marquer une différence essentielle entre la théorie la plus vraisemblable et la théorie la plus rationnelle à adopter. Ainsi, il existe des situations où le choix rationnel n’est pas d’adopter la théorie la plus vraisemblable. On pourrait même conjecturer que c’est le cas dans la plupart des situations.

Faisons un petit jeu en guise de dernier exemple. Nous faisons un pari sur la réalité d’une visite extraterrestre. Voici les enjeux :

Photographie de Petit-Rechain supposée représenté un vaisseau extra-terrestre.
L’OVNI de Petit-Rechain reste un véritable mystère ! (Pas du tout)
  • Si aucun extra-terrestre n’a visité la terre au cours du siècle dernier, tu gagnes : je t’offre une chocolatine.
  • Si, au contraire, au moins un extra-terrestre a visité la terre au cours du siècle dernier, je gagne : tu dois boire un poison mortel.

Alors acceptez-vous mon pari ?

Un petit modèle mathématique

Cette section propose d’illustrer la situation au travers d’un modèle mathématique. Si vous n’êtes pas très à l’aise, vous pouvez passer directement à la section suivante.

Une manière d’envisager le problème est de considérer deux éléments :

  • La vraisemblance de la théorie
  • Les enjeux associés à l’adoption de cette théorie.

Il semble alors que la théorie qu’il faut tenir pour vraie doit prendre en compte la vraisemblance des différentes théories pondérées d’une certaine manière par les enjeux associés à chacune de ces théories. Essayons de mathématiser cela : Imaginons une situation dans laquelle s’affrontent deux théories T1 et T2 5 et on note P(Ti) la probabilité (ou la vraisemblance) de la théorie Ti.. On note enfin T* la théorie qu’il faut privilégier, c’est-à-dire la théorie qu’il faut tenir pour vraie. La formulation du rasoir d’Ockham prescriptif « Il faut privilégier la théorie ayant les hypothèses les plus parcimonieuses » L’injonction à la vraisemblance pourrait alors se traduire comme suit :

La théorie T* est telle que P(T*) ≥ P(Ti),

Autrement dit, la théorie à privilégier est celle parmi les deux théories qui a la plus grande probabilité d’être vraie.

Maintenant introduisons une fonction d’utilité u, qui à chaque paire de théorie Ti et Tj associe un nombre u(Ti | Tj) (entre -1 et 1 par exemple) correspondant à la balance bénéfice/coût liée au fait de tenir pour vraie la théorie Ti alors que c’est la théorie Tj qui est vraie. Donc par exemple u(T1 | T2) correspond à l’utilité de tenir T1 pour vrai alors que c’est T2 qui est vraie et u(T1 | T1) correspond à l’utilité de tenir T1 pour vrai alors que c’est bien que T1 qui est vraie. On pourrait alors choisir la théorie T* à privilégier comme ceci :

La théorie T* est telle que
u(T*,T1)×P(T1) + u(T*,T2)×P(T2) ≥ u(Ti,T1)×P(T1) + u(Ti,T2)×P(T2)

Autrement dit, la théorie à privilégier est celle parmi les deux théories dont l’adoption a les plus grands bénéfices attendus. Pour faire un parallèle avec le rasoir d’Ockham, on pourrait appeler ce principe le rasoir de Darwin puisque c’est celui qui maximise les conséquences positives et donc les chances de nous sauver les fesses (le rasoir « Gillette de sauvetage » marche aussi).

On peut ici reconnaître une vieille idée : celle du pari de Pascal. Il vaut mieux croire en Dieu puisque les gains sont infiniment plus grands s’il existe que le sont les pertes s’il n’existe pas. Au moment de faire un choix il ne faut pas seulement considérer la vraisemblance de l’existence ou de la non-existence de Dieu, il faut également considérer les enjeux liés à chacune de ses possibilités.

Afin d’illustrer cette mathématisation qui peut paraître obscure, reprenons l’exemple évoqué ci-dessus de la femme Cro-Magnon. On considère trois théories :

  • T1 : « Il s’agit d’un prédateur » 
  • T2 : « Il s’agit d’une bête inoffensive »
  • T3 : « Il s’agit d’un coup de vent »

Les probabilités associées sont par exemple P(T1 ) = 0,05 ; P(T2 ) = 0,35 ; P(T3 ) = 0,6.
L’injonction à la vraisemblance impliquerait donc de privilégier la théorie T3 : « Il s’agit d’un coup de vent ». Mais, nous l’avons vu, c’est un choix risqué. La théorie T3 n’est donc pas celle à privilégier est elle seulement la plus vraisemblable.

Considérons ensuite les fonctions d’utilité u(Ti, Tj) 6 résumée dans le tableau suivant :

Ti (je tiens pour vrai) ↓ \ Tj (réalité) → T1 : prédateurT2 : bête inoffensiveT3 : coup de vent
T1 : prédateur1
Vrai positif : Je considère que c’est un prédateur et c’est réellement un prédateur
→ Course et survie
-0,02
Faux positif : Je considère que c’est un prédateur et c’est une bête inoffensive
→ Course pour rien
-0,02
Faux positif : Je considère que c’est un prédateur et c’est un coup de vent
→ Course pour rien
T2 : bête inoffensive-1
Faux négatif : Je considère que c’est une bête inoffensive et c’est un prédateur
→ Pas de réaction, mort
0
Vrai positif : Je considère que c’est une bête inoffensive et c’est réellement une bête positive
→ Pas de réaction
0
Faux négatif : Je considère que c’est une bête inoffensive et c’est un un coup de vent
→ Pas de réaction et erreur sans conséquence
T3 : coup de vent-1
Faux négatif : Je considère que c’est un coup de vent et c’est un prédateur
→ Pas de réaction, mort
0
Faux négatif : Je considère que c’est un coup de vent et et c’est une bête inoffensive
→ Pas de réaction et erreur sans conséquence
0
Je considère que c’est un coup de vent et c’est réellement un coup de vent
→ Pas de réaction
Tableau donnant les valeurs de la fonction d’utilité7.

On peut alors calculer pour chaque théorie Ti la somme pondérée des utilités pour savoir laquelle il vaut mieux privilégier :

  • u(T1,T1)×P(T1) + u(T1,T2)×P(T2) + u(T1,T3)×P(T3) = 1× 0,05 – 0,02 × 0,35 – 0,02 v 0,6 = 0,031
  • u(T2,T1)×P(T1) + u(T2,T2)×P(T2) + u(T2,T3)×P(T3) = -1× 0,05 + 0 × 0,35 + 0 × 0,6 = -0,05
  • u(T3,T1)×P(T1) + u(T3,T2)×P(T2) + u(T3,T3)×P(T3) = -1× 0,05 + 0 × 0,35 – 0,2 × 0,6 = -0,05

Ainsi, il convient de tenir pour vrai la théorie T1. Ce qui est en effet le choix le plus rationnel.

D’une certaine manière la formulation du rasoir d’Ockham prescriptive (« Il faut privilégier la théorie ayant les hypothèses les plus parcimonieuses ») est un cas particulier de ce rasoir de Darwin dans lequel on considérerais que toutes les fonctions d’utilité sont égales. Et c’est tout à fait pertinent dans de nombreux cas, notamment quand on est le cul posé en amphi et que l’on cherche la bonne explication pour la disparition d’une souris imaginaire. Mais ça ne l’est plus quand on considère des choix concrets qui ont des impacts matériels dans nos vies.

Oui mais enfin, me dira-t-on, tu chipotes avec tes formules mathématiques et tes nuances sémantiques, personne ne fait cet abus-là ! Et bien, au contraire, il me semble que cela a des effets concrets sur la manière dont on parle et dont on transmet la pensée critique. L’idée (fallacieuse nous l’avons vu) qu’il serait toujours logique de privilégier le plus vraisemblable est, il me semble, un postulat sous-jacent et invisible qui semble assez largement répandu. Nous allons essayer de voir cela dans la partie suivante.

Quelques considérations sur la manière de transmettre la pensée critique

Parler du rasoir d’Ockham était surtout un prétexte. Ce principe reste bien évidement très utile dans de nombreux cas et notamment quand il s’agit de réfuter l’existence d’entité explicative superflue (extra-terrestre, cryptides, phénomènes psy, théières cosmique, licornes invisible et autres dragons dans le garage). Mais son application à des cas concrets est plus délicate et met en exergue une erreur logique que l’on a tendance à faire : considérer que le plus vraisemblable est nécessairement le plus rationnel à adopter. Et c’était plutôt cette idée que l’on voulait souligner ici.

Lutter contre cette idée c’est aussi aller vers une pensée critique plus large en cela qu’elle prend en compte au delà des considérations épistémologique, les conditions concrètes des individus, les enjeux et les intérêts particuliers qui peuvent gouverner a l’adoption d’une position. Cet aspect peut se retrouver dans certaines définition de l’esprit critique comme chez Matthew Lipman qui parle de sensibilité au contexte8 :

La pensée critique est cette pensée adroite et responsable qui facilite le bon jugement parce qu’elle s’appuie sur des critères ; elle est auto-rectificatrice ; elle est sensible au contexte.

Matthew Lipman (1988), « Critical thinking: What can it be? »

Je ne sais pas tout à fait ce qu’entendait Lipman par « sensibilité au contexte », mais il nous semble pertinent d’y voir une sensibilité aux enjeux. L’occasion de souligner que cette conception de l’esprit critique centrée sur la plausibilité n’est pas universelle. La recherche en esprit critique ou les théories du choix rationnel dépassent clairement cette conception là. Mais il semblerait qu’elle soit assez répandue dans une approche classique de la zététique (ce qui n’est pas sans rappeler la très bonne conférence Les deux familles du scepticisme de l’ami Tranxen)

Comprendre des choix jugés irrationnels

Il est d’autant plus intéressant de considérer ce double aspect vraisemblance et enjeux que c’est probablement quelque chose de cette forme-là qui a été sélectionné au fil de l’évolution et qui est effectivement implanté dans nos schémas de prise de décision9. Nous prenons des décisions en combinant ce qui nous semble vraisemblable (but épistémiques) et ce qui nous semble nous bénéficier (but non-épistémiques) 10. Prenons l’exemple d’une personne qui croit en une thèse conspirationniste. Ce n’est pas forcément que la personne croit plus vraisemblable que nous soyons dirigés par des lézards extraterrestres, mais c’est peut-être qu’elle considère plus utile, plus rentable pour elle de le croire. Cette utilité perçue peut d’ailleurs s’expliquer de différentes façons :

  • La personne peut percevoir qu’il vaut mieux croire dans l’existence des reptiliens. Par exemple en se disant que s’ils existent réellement et qu’on l’ignore, le risque de manipulation est énorme. Le risque inverse (y croire alors qu’ils n’existent pas) peut sembler moins grave.
  • La personne peut vivre dans un environnement social où cette croyance est valorisée.
  • Les engagements passées de la personne peut rendre très coûteux de changer d’avis.

Cette lecture permet également de comprendre pourquoi certaines personnes vont privilégier des thérapies alternatives et complémentaires (TAC). Ce n’est pas simplement que ces personnes jugent vraisemblable qu’une thérapie X soit plus efficace qu’une thérapie Y. C’est aussi le coût associé à chacune qui va guider ce choix. Par exemple, les TAC peuvent être perçues sans risque d’effet secondaire, plus en phase avec d’autres valeurs alors que le système de santé classique peut être perçu à la solde d’enjeux financiers ou source de discrimination. Des enjeux que l’on pourra juger pertinents.

De ce point de vue-là, il est difficile de considérer qu’un choix est irrationnel. Il est (presque) toujours rationnel à l’aune des enjeux perçus par l’individu. Ainsi, peut-être est-il un peu simpliste d’affirmer que les personnes qui s’opposaient au vaccin anti-covid était des « cons » sans prendre en compte les enjeux qui ont pu traverser ces individus (le manque de transparence, l’angoisse de la pandémie, la peur du contrôle, l’urgence…) comme cela est bien pointé dans la vidéo Le biais et le bruit de Hygiène Mentale (notamment à partir de 23:40) ou dans la série d’article Les gens pensent mal : le mal du siècle du blog Zet-ethique métacritique.

Ce qu’il faut croire et ce qu’il faut faire

Si l’on reprend une définition classique de l’esprit critique (Ennis 1991) « Une pensée rationnelle et réflexive tournée vers ce qu’il convient de croire ou de faire », il est intéressant de considérer séparément ces deux éléments ce qu’il faut croire et ce qu’il faut faire.

J’ai pensé dans un premier temps que ce qu’il faut croire correspond toujours à l’explication la plus vraisemblance alors que ce n’est pas nécessairement le cas pour ce qu’il faut faire. Pour reprendre deux exemples déjà donnés dans cet article, il serait rationnel de croire que mon champignon est probablement comestible et en même temps de ne pas le manger. Donc de croire en une théorie et d’agir en fonction d’une autre. Il serait rationnel pour la femme Cro-Magnon de croire que ce n’est pas un prédateur et en même temps de partir en courant.

Mais à la réflexion, je ne vois pas de raison pour que ce soit nécessairement le cas. Faut-il toujours accorder notre croyance à la théorie la plus vraisemblable ? On peut même trouver des contre-exemples : une théorie en philosophie de l’esprit affirme que la conscience11 n’existe pas ou du moins qu’elle n’existe pas comme on l’entend. Elle serait plutôt une illusion créé par notre système cognitif. Cette théorie s’appelle d’ailleurs l’illusionnisme. Quand bien même il y aurait des preuves solides de sa vraisemblance, j’imagine qu’il en va de notre santé mentale de ne pas trop y croire.
De la même manière, on pourrait aussi penser à la question de l’existence du libre arbitre. Quand bien même il serait plus probable que le libre arbitre n’existât pas, il pourrait être préférable de continuer d’y croire.

Il me semble qu’il n’y a pas de raison qu’il faille en soi croire en la théorie la plus parcimonieuse. Cela nous pousserait à nouveau à faire un bond périlleux à travers la guillotine de Hume. La prémisse « il faut croire ce qui est vraisemblable » est certes très utile la plupart du temps, il me semble que rien ne l’impose dans l’absolu. J’imagine que la plupart du temps il est même préférable de croire en une version approximative, facilement manipulable et transmissible qu’en la théorie la plus parcimonieuse.

Une vision plus globale de la pensée critique

Considérer que les choix et les actions d’un individu ne se base pas seulement sur ce qu’il considère comme étant le plus vraisemblable, ouvre d’autres pistes de réflexions qui peuvent être prolifiques.

Comme on l’a vu dans les exemples précédents, le recours à des TAC ou les discours conspirationnistes ne peuvent plus se réduire à la bêtise ou la méconnaissance de l’individu. Il convient de prendre en compte les enjeux qu’il perçoit autour de ces questions et qui le poussent à adopter tel ou tel point de vue.

Prenons un nouvel exemple : la question du nucléaire civil. Certaines organisations s’opposent au nucléaire en évoquant le danger qu’il représente (déchets, accidents…). Pourtant des sources sérieuses abondent pour expliquer en quoi la sécurité est très bien contrôlée et les risques assez minimes. On pourrait alors perdre son temps à développer en quoi ces discours sont contraires aux meilleures connaissances actuelles. C’est-à-dire restreindre le champ de réflexion de la pensée critique à une simple question épistémique.
Il semble plus riche de considérer plus globalement les enjeux perçus pour comprendre les différentes positions. Les risques liés au nucléaires peuvent être perçus comme particulièrement angoissants : les échelles de temps très longue, les représentations des catastrophes passées, la méconnaissance d’une technologie extrêmement complexe, … Probablement que ces éléments-là peuvent influencer les positions sur le nucléaire au moins autant qu’un seul point de vue épistémique de la question. Le contexte socio-politique dans lequel prend place cette technologie influence donc la représentation que peut en avoir la population : quel contrôle de la part de la population ? Y a-t-il des intérêts privés ou militaires ? Quelle confiance est accordée au gouvernement ?
Il est probable par exemple qu’un système davantage démocratique (transparence et contrôle sur nos choix énergétiques, médias sans conflits d’intérêts, …) pourrait favoriser l’adoption de points de vue plus informés et raisonnés.

Cela ouvre donc d’autres leviers d’action pour la pensée critique : au-delà de considérer simplement un individu, ses systèmes de croyances, ses stratégies argumentatives… on peut questionner et vouloir modifier le champ informationnel dans lequel il baigne et qui influence ses croyances et ses actions. Pour paraphraser Bertold Brecht : « On dit d’un fleuve emportant tout qu’il est irrationnel, mais on ne dit jamais rien de l’irrationalité des rives qui l’enserrent ».

——-
Un grand merci à mes camarades du Cortecs Jeremy Attard, Céline Schöepfer et Delphine Toquet pour leurs relectures attentives et leurs conseils pour la rédaction de ce texte qui est presque devenu un article collectif !

affiche festival low-tech

Pensée critique & Low-tech : le Cortecs au festival Apala

affiche festival low-tech

Du 22 au 25 Juin avait lieu à Nantes le festival « Low-tech : au-delà du concept » organisé par l’association APALA (« Aux petits acteurs l’avenir ») et qui se veut un lieu d’échange autour des enjeux environnementaux et sociaux actuels. Le Cortecs y était présent en la personne de Nicolas Martin qui y a donné une conférence et un atelier. Il nous raconte.

« Contre le concept de nature »

Faut-il revenir à la traction animale pour éviter d’avoir à utiliser un tracteur ? Voilà un dilemme low-tech 1 qui aurait pu servir d’introduction à la conférence. Si la question est complexe, l’argument consistant à dire que la traction animale serait plus « naturel » semble en tout cas peu satisfaisant ! Et c’est là un écueil possible des mouvements low-tech (et écologistes en général) : promouvoir un retour à un passé fantasmé, à un état antérieur qui aurait été perverti. Et c’était là le propos de ma conférence : Pourquoi la nature n’est pas un bon critère et comment est-ce que l’on peut s’en passer2. Vous pouvez retrouver une rediffusion de la conférence ici :

Nicolas Martin – Contre le concept de nature

Notons que les critiques de « l’appel à nature » se résument parfois à l’opposition entre nature et chimique que l’on retrouve souvent dans le marketing, l’alimentation ou la santé. En réalité l’idée de nature est bien plus pernicieuse que cela puisqu’elle soutient au moins en partie des systèmes de dominations (spécisme, sexisme, racisme, validisme…) et joue un rôle important dans la surexploitation des ressources et dans notre système économique actuelle.

Pour répondre au dilemme ci-dessus, plutôt que d’invoquer le critère de nature — ou un autre critère arbitraire, comme le progrès — il semble plus judicieux de considérer les conséquences de chaque option et choisir celle qui, par exemple, minimise les souffrances de tous les êtres capables d’en ressentir (cheval y compris donc). Il est important aussi d’explorer toutes les alternatives possibles : le problème « traction animale vs. tracteur » formant certainement un faux dilemme.
Ce remplacement d’une vision naturaliste par une vision conséquentialiste (et sentientiste 3) est abordé dans la deuxième partie de la conférence.

J’ai, malheureusement, oublié pendant la conférence de citer le très bon site contrenature.org qui référence du très bon contenu sur ce sujet là.

Enfin je remercie les personnes (entre autre Thomas Lepletier) qui suite à ma conférence m’ont remonté les bretelles sur mes références à Philippe Descola. Si son travail sur l’idée de nature a été central et reste pédagogiquement intéressant, il serait possiblement dépassé et peu enclin à porter un discours anti-spéciste 4. J’en prend note pour l’avenir !

Atelier esprit critique pour le militant : décortiquer une question complexe

Couverture du manuel
Couverture du manuel

En plus de la conférence j’ai également animé un atelier proposant de décortiquer une question complexe avec des outils critiques. L’atelier s’appuyait en grande partie sur les outils proposait dans le petit manuel d’esprit critique pour le militantisme écologiste présenté ici.

Le déroulé de l’atelier s’est fait en trois temps : dans un premier temps, j’ai proposé une introduction rapide présentant le petit manuel ainsi que l’intérêt d’avoir des outils face à des questions complexes ; ensuite les participants, par groupe de 3 ou 4 ont travaillé sur une problématique de leur choix en suivant la méthode proposée (détaillée ci-dessous) ; enfin dans un dernier temps nous avons fait un débat en utilisant la grille de lecture préalablement établie.

La méthode proposée

Partant du principe que nos points de vues sont limités (on ne voit qu’une partie du problème et qu’une partie des solutions), l’idée est d’éclater le problème pour en avoir une vue plus globale. Cela se fait en 5 étapes dont le but principal est de construire un tableau. Chaque groupe travaille sur un problème et en parralèle je fais le même exercice à partir d’un exemple traité dans le petit manuel celui de l’expérimentation animale.

  1. Pensée multifactorielle : Lister tous les facteurs et enjeux liés à cette problématique.
    Dans l’exemple que je traite je liste les suivants : avancées médicales, bien-être animal, rapports de domination, coûts financiers, emplois du secteurs, …
    Chaque groupe en fait de même puis le présente aux autres. En échangeant on peut identifier de nouveaux facteurs. Je rajoute d’ailleurs avancées scientifiques et enjeux religieux / philosophiques à ma liste.
  2. L’alternative est féconde : Identifier les autres solutions, modes de fonctionnement, qui pourraient se substituer à l’alternative principale.
    Dans mon cas je note : Expérimentation sur les humains, simulation bio-informatique, abandon de la recherche médicale nécessitant des tests, puis sur proposition d’une participante Expérimentation in-vitro (non sentient).
    Chaque groupe en fait de même et échange sur les différentes alternatives. À ce stade ils ont un tableau avec en ligne les facteurs et en colonne les solutions.
  3. Remplissage du tableau : Noter si la solution x est plutôt positive ou négative au regard du facteur y.
    Pour ma part par exemple l’arrêt net de l’expérimentation a un impact négatif sur les avancées médicales mais positifs sur les rapports de domination et sur les souffrances.
    Puisque cette étape demande beaucoup de temps et de documentation. Je propose de la faire partiellement et de rajouter des points d’interrogations là où il y a le plus d’incertitude.
  4. Comment trancher ? Sans rentrer dans le détail, j’explique qu’une fois le tableau rempli il faut une réflexion éthique pour savoir comment trancher et se demander ce qui compte le plus.
  5. Comment mettre en place ? Que peut on actionner, individuellement et collectivement, pour promouvoir la solution envisagée.

Je conclus en leur indiquant qu’à partir de cet outil il est possible de mener quatre types de réflexion5 : scientifique (en creusant l’étape 3) ; éthique (en creusant l’étape 4) ; politique (en creusant l’étape 5) et une réflexion « méta » (en creusant l’étape 1 & 2 et en critiquant plus généralement les limites de cet outil).

On termine en faisant un petit débat mouvant sur la question de l’expérimentation animale en se basant sur le tableau que j’ai construit pendant l’atelier et que vous pouvez voir ci-dessous (en qualité discutable) :

Le reste du festival

Ce week-end aura été également l’occasion d’intervenir sur deux autres médias : le podcast du futurologue dans un épisode à venir ainsi que pour un documentaire de Julien Malara à venir.

Le festival aura été l’occasion de discussions riches avec de nombreuses personnes alimentant les réflexions et les échanges entre pensée critique et militantisme que je crois, plus que jamais, très productifs (bien souvent d’ailleurs du militantisme vers la pensée critique !)

Encore un grand merci aux organisateur·ices et à tous·tes les bénévoles pour leur travail formidable et pour la programmation très diversifiée qui laisse un espace considérable à l’auto-critique ! À très vite, j’espère.

L’esprit jubile : recension de la BD « L’esprit critique »

Qu’est-ce que l’esprit critique ? On pense tous l’avoir mais sait-on vraiment le définir ? C’est la question à laquelle ont voulu répondre Isabelle Bauthian (biologiste de formation, scénariste et rédactrice culturelle et scientifique) et Gally (dessinatrice) dans cette bande-dessinée publiée aux éditions Delcourt (130 pages). Et… c’est tout bonnement une petite merveille !

Case issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 4.

D’un point de vue narratif et esthétique

Lors d’une soirée, Paul rencontre une jeune femme qui se présente comme druide. Après une discussion animée autour de photos de fées, Paul rentre chez lui, se connecte sur ses réseaux sociaux et déverse sa haine de l’irrationnel. C’est alors qu’il apparaît, enfin… elle : L’esprit critique !

On prend énormément de plaisir à faire un bout de chemin avec ces personnages extrêmement attachants. Paul, croyant en La science sans aucune méthode, perdu dans la complexité du monde qui s’ouvre devant lui grâce à Elle, doppelgänger métamorphe critique aux cheveux roses qui donne au lecteur une soif de connaissance comme jamais. Paul, c’est tout simplement nous qui découvrons cet univers de l’esprit critique. Il exprime nos interrogations et nos doutes sur cette conception à laquelle nous n’avons pas forcément beaucoup réfléchit. Elle, elle est l’incarnation de l’esprit critique et de sa perfectibilité.

Grâce à ses pouvoirs elle fait sortir Paul de son petit confort, de sa petite routine pour l’emmener vers des contrées inconnues (voyage dans le temps et dans l’espace). L’odyssée de Paul commence avec une plongée dans l’histoire des sciences, des bâtons d’Ishango à Kepler et Galilée en passant par les philosophe grecs (Platon, Thalès, Aristote, Ptolémée Anaximandre de Millet, etc.). On regrette juste l’absence d’une excursion auprès des premiers sceptiques à l’instar de Pyrrhon d’Élis. Le voyage de notre personnage se poursuit ensuite sur la méthode scientifique moderne (évaluation des hypothèses, principe de réfutabilité, notion de preuve, pseudo-sciences, etc.) puis sur la déconstruction partielle de nos systèmes cognitifs principalement avec l’approche des biais (tous représentés de manière très parlante). Le périple continue avec les méthodes d’évaluation de l’information (approches des statistiques, théière de Russell, évaluation d’une étude scientifique, sophismes, etc.) et se conclut sur une note de tolérance et sur les limites de l’esprit critique (distinction entre faits et foi, valeurs, importance des émotions, différences de points de vue idéologiques, politiques et sociaux). 

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 21.

D’un point de vue éducatif et pédagogique

L’alchimie du couple, l’humour malicieux, la bienveillance, la douceur du trait de Gally, la joie qui se dégage de cette BD… nous rend tous simplement heureux. C’est bête à dire, mais particulièrement pertinent dans un ouvrage qui veut nous faire sortir de notre zone de confort. Une tendresse véritable alimente des représentations réfléchies et travaillées en particulier au niveau du genre. Elle, l’esprit critique, est à la fois professeure, chercheuse, super-héroïne, militaire, dragonne, étudiante, etc. Autant de modèles hautement positifs et encourageants pour des secteurs où les femmes sont encore peu représentées allant de pair avec une mise en avant de femmes scientifiques (notamment l’astronome américaine Maria Mitchell) trop souvent invisibilisées par une historiographie grandement patriarcale.

C’est une mine d’or pour qui veut commencer à modeler son esprit critique avec des outils précis quoiqu’un peu survolés. Histoire des sciences et des idées, fonctionnement de la recherche moderne, biais cognitifs, sophismes et paralogismes, etc. Presque tout y est. Chaque planche, chaque case est d’une richesse incroyable. Certaines fonctionnent parfaitement en solitaire et pourraient être affichées dans les écoles, les collèges et les lycées (coup de cœur pour la planche de la « Méthode scientifique moderne »). On regrettera peut-être le rythme extrêmement intense de la BD qui transcrit l’enthousiasme de ses autrices mais sans doute trop soutenu pour un néophyte qui commencerait à s’y intéresser et qui devra sans aucun doute reprendre ses lectures plusieurs fois. Peut-être que plusieurs tomes auraient pu être à la fois plus détaillés et prendre plus de temps sur certains concepts. Mais ce n’est pas tellement gênant finalement puisque cette lecture est tellement plaisante qu’on prendra beaucoup de bonheur à s’y replonger.

En ce qui concerne « La » science, on aurait aimé une approche plus précise notamment des différents modes de construction des connaissances et non pas uniquement de la méthode hypothético-déductive ; et donc plutôt une approche « des » sciences. Par exemple, on regrettera, page 44, la formulation : « La science moderne est objective, expérimentale et autocorrective ». En effet, concernant l’objectivité, la sociologie des sciences nous a démontré le contraire ; tandis qu’au niveau de l’expérimentation, elle n’est pas l’apanage de tous les domaines. Quid de l’histoire, de la sociologie, etc.

Il faut donc voir cet ouvrage comme une vaste introduction, qui permettra au lecteur novice de savoir où creuser pour affiner ses outils de réflexion et de compréhension du monde. Et ça, c’est déjà pas mal !

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 46-47.

D’un point de vue humaniste

La bienveillance et la tendresse ne sortent pas de nulle part, mais bien d’une très grande confiance en l’être humain et en ses capacités. Dans cette époque morose où nous sommes submergés d’information, où les polémiques s’enchaînent, où la société se divise, où l’univers médiatique appuie l’idée que l’irrationalité semble l’emporter… c’est une sublime bouffée d’air frais. Nous pouvons changer, nous en tant qu’être humain, et finalement changer la société qui nous entoure en nous basant sur des outils simples et dont l’efficacité est vérifiable sans forcément se mettre au-dessus de la mêlée. Pratiquer l’esprit critique ce n’est pas devenir une machine apathique mais au contraire comprendre et maîtriser ses émotions « nécessaires au raisonnement ». Pratiquer l’esprit critique ce n’est pas défendre le scientisme, mais connaître les limites de nos connaissances et tracer la frontière entre les faits et nos opinions (même si les autrices préfère le terme « foi ») . On regrette un peu que les philosophies des lumières et leurs apports essentiels à l’émancipation des sciences n’aient pas été abordées, mais on pardonne facilement au vu de la richesse des connaissances déjà présentes.

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 56.

Pour conclure

En bref, on rigole, on est ému, on apprend, on voyage… C’est une véritable aventure initiatique à mettre entre toutes les mains… Bon, à partir d’un certain âge peut-être parce qu’assez ardue. De plus, certains concepts sont illustrés de manière… originale. L’explication de la différence entre moyenne et médiane avec la b*** de Rocco Siffredi reste mon préféré. Beaucoup de choses pourront vous sembler floues, complexes, dures à conceptualiser, mais ce n’est que le début de votre expédition en terre inconnue. Avec un peu de recherches extérieures pour recouper les sources – exercice ô combien sain et indispensable – vous arriverez à vous y retrouver. De plus, la bande dessinée propose une bibliographie et une section « pour aller plus loin ».

Pour les autres, ceux déjà rompus à l’exercice, vous y redécouvrirez les marottes du scepticisme et vous amuserez à trouver les différents easter egg zététiques et références geeks cachées un peu partout. Mais pour approfondir vos connaissances sur le sujet, ce n’est sans doute pas l’objet adapté. Dans tous les cas, si vous êtes convaincu, courez l’acheter et faites vivre ses autrices ; si vous n’êtes pas convaincu, courez l’acheter parce que vous manquez sans doute d’esprit critique. Comment ça un faux dilemme ?

Cases issues de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 93.
La verité sortant du puits, tableau de Jean-Léon Gérome

Quand faut-il dépendre son jugement ? Ou l’objectif du scepticisme

La vérité est au fond du puits, nous dit-on1.
Voilà ce que nous répètent les sceptiques de tout poil depuis la nuit des temps : illusions d’optique, faux souvenirs, erreurs de jugement, limites de notre langage, erreurs de logique, sophisme, conformisme social, bulles de filtre, constructions socio-culturelles et toujours la possibilité d’un rêve, d’une simulation ou d’un malin génie, … et puis si ça se trouve vous n’êtes qu’un papillon en train de rêver d’être un humain2.
Les distorsions de l’information sont nombreuses et apparaissent à toutes les échelles. Il est alors tentant, à la manière de Pyrrhon, de sombrer dans l’indifférence, de ne donner pas plus de crédit à ceci qu’à cela, et laisser son jugement suspendu pour toujours. Ou alors il faut décider de dépendre son jugement – si celui-ci est suffisamment affiné.
Cet article propose quelques pistes de réflexion sur cet acte crucial dans la démarche sceptique : la dépendaison du jugement.

Juger et choisir

La vérité est au fond du puits, vous dis-je. Et il y a une solution toute trouvée : n’allons plus au puits. L’univers qui m’entoure m’est éternellement inaccessible – et encore, même ceci n’est pas certain – il n’y a pas de raison d’aller y chercher une quelconque vérité.

C’est, en tout cas, la réponse qu’apporte la première grande école du scepticisme1, celle de Pyrrhon, qui suspend son jugement aussi vite qu’il le peut. « Épochè« , nous dit-il2. C’est la suspension, l’interruption, l’arrêt du jugement. Alors, on s’assoit sur le bord de la réalité et on la regarde défiler.

Appliquer cette doctrine à des enjeux actuels donnerait quelque chose comme ça : Catastrophes écologiques ? Mouais, peut-être ; Inégalités sociales ? Pas plus que ça ; Covid ? J’en sais rien ; Guerre en Ukraine ? Je m’abstient3 ; Tu boiras quand même un petit coup ? Bof, à la rigueur.

Pyrrhon ira voter blanc. Ou il n’ira pas voter. Ou bien il ira. Cela importe bien peu au final. Rien n’est mieux que rien, rien n’est plus beau que rien. Même « rien n’est mieux que rien » n’est pas mieux que « certaines choses sont mieux que d’autres ». C’est dire.

Ainsi, puisqu’il n’affirme rien, le sceptique radical ne se trompe jamais. À la bonne heure. Mais évidemment, en contrepartie, il se condamne à ne plus dire, à ne plus faire, autant dire à ne plus être. Ou à être tout juste une plante.

S’il [le sceptique] ne forme aucun jugement, ou plutôt si, indifféremment, il pense et ne pense pas en quoi différera-t-il des plantes ?

Aristote, Métaphysique4

Cela semble être une position bien peu satisfaisante.
Pourtant, la suspension du jugement, lorsqu’elle est appliquée temporairement, est une position épistémologiquement très saine, voire indispensable. Tant que je ne connais pas suffisamment un sujet, il est raisonnable de rester prudent, jusqu’à ce que la cumulation de connaissance me permette de trancher.

S’il veut prétendre être davantage qu’un cactus au soleil, le sceptique doit, tôt ou tard, faire le choix de dépendre son jugement qu’il avait soigneusement suspendu quelque temps.

“Certes, nous pouvons pour un moment déclarer que tout est égal, que la réalité n’est qu’un rêve. C’est très bien, cela nous fait sourire comme Bouddha ; mais ensuite, si nous choisissons de continuer à vivre dans la réalité, nous ne pouvons que nous remettre en jeu, comprendre et choisir. Nous pouvons se faisant continuer à sourire, mais nous ne continuons pas moins à nous mettre en jeu, à comprendre et décider.[…] Parce que juger et choisir est la même chose que penser et vivre”

Carlo Rovelli, Anaximandre ou la naissance de la pensée scientifique

Photo de Carlo Rovelli devant un tableau noir
Carlo Rovelli, physicien et philosophe des sciences, devant un tableau noir avec des équations (ça fait plus intelligent)

Cette position philosophique s’appelle scepticisme scientifique. On suspend prudemment son jugement (c’est la partie sceptique), jusqu’à ce que toute la puissance de la rigueur et de la démarche intellectuelle (c’est la partie scientifique) nous en libère. C’est ce que nous appellerons ici « dépendre son jugement ».

Mais donc une tension apparait : la vérité absolue nous est à jamais étrangère et pourtant il faut finir par trancher. Trancher ce qui est suffisamment fiable pour qu’on puisse le tenir pour vrai.
Et réfléchir à la manière dont on fait ce choix semble crucial pour avoir une démarche sceptique raisonnable.

Quand faut-il « dépendre » son jugement ?

Considérons une affirmation A sur un sujet que je ne connais vraiment pas. Dans un premier temps, je n’exprime pas mon opinion sur le sujet. C’est ce que l’on appelle la suspension du jugement et c’est une position épistémologiquement saine (manière un peu pompeuse de dire « c’est pas con »).
Découvrant de mieux en mieux le sujet, j’accorde à l’affirmation A une vraisemblance croissante.
Mais à partir de quel degré de confiance en A, par rapport à non-A, est-il judicieux de commencer à exprimer mon opinion sur le sujet ? 51 % ? 75% ? 99% ? 100% ?
La réponse sceptique radicale serait 100% – autrement dit jamais – alors qu’une réponse assez crédule serait 51%.

Précisons, avant d’aller plus loin, que cela dépend fortement du contexte : je m’exprimerais avec plus ou moins de prudence suivant que ce soit au cours d’un repas de famille, d’une publication sur les réseaux ou d’un article scientifique. Mais ceci étant dit, cela ne change pas grand-chose à la suite de l’article.

Probablement que le plus judicieux est de naviguer quelque part entre ces deux positions. Mais pour trancher, il faut répondre à une question fondamentale : Qu’est-ce que l’on vise ?
Finalement, pourquoi sommes-nous sceptique, zététicien, ou penseur critique (selon votre terminologie préférée) ?5
L’importance de cette question était déjà identifiée par le philosophe David Hume :

Car voici la principale objection et la plus ruineuse qu’on puisse adresser au scepticisme outré6, qu’aucun bien durable n’en peut jamais résulter tant qu’il conserve sa pleine force et sa pleine vigueur. Il nous suffit de demander à un tel sceptique : Quelle est son intention ? Que se propose-t-il d’obtenir par toutes ces recherches curieuses ? Il est immédiatement embarrassé et ne sait que répondre.

Hume, Enquête sur l’entendement humain, cité dans Le scepticisme, Thomas Bénatouil

David Hume

Hume reconnait par ailleurs la puissance des principes sceptiques. Selon lui, ceux-ci « fleurissent et triomphent dans les écoles où il est difficile, sinon impossible, de les réfuter ».
Il leur reproche en revanche leur inutilité quand ils sont employés dans leur « pleine force » : « Mais un pyrrhonien ne peut s’attendre à ce que sa philosophie ait une influence constante sur l’esprit, ou, s’il en a une, que son influence soit bienfaisante pour la société ».

Héritier de ce scepticisme, les zététiciens aujourd’hui ne tombent pas dans le piège de l’indifférence interminable des pyrrhoniens qui laissent pour toujours leurs jugements suspendus. Non, bien au contraire, les zététiciens, dépendent leur jugement : ils démystifient, ils enquêtent, ils trouvent, ils se positionnent, ils s’opposent, ils twittent, etc.
Ceci dit, cela ne devrait pas nous exempter de répondre à la question de Hume : Qu’est-ce que l’on vise en faisant cela ? Quelle règle permet de trancher si un niveau de connaissance est suffisant pour donner son avis ?

Ce qui est et qui doit être

Pour trancher sur ce qu’il faut faire, ou autrement dit, ce qui doit être, il peut-être utile de s’en remettre au principe de la guillotine de Hume7 que l’on pourrait formuler ainsi : « Ce qui doit être ne peut se déduire de ce qui est« .

Une proposition sur ce qui doit être, que l’on qualifiera de prescriptive (ou normative, éthique, morale, axiologique, politique selon les contextes) ne se déduit pas d’une proposition descriptive – sur ce qui est – mais d’une autre proposition prescriptive8.
Par exemple : la proposition prescriptive « L’homéopathie doit être déremboursée » ne peut se déduire ipso facto de la prémisse descriptive « L’homéopathie n’a pas d’effet propre ». Il faut y adjoindre une autre prémisse prescriptive comme « Ce qui est inefficace doit être déremboursée ». Dans ce cas, la démonstration est rigoureuse (ce qui ne signifie pas que la conclusion est vraie, mais que la véracité des prémisses implique la véracité de la conclusion).

Ainsi, pour savoir quand dépendre son jugement, inutile de contempler l’univers ou de charcuter des équations mathématiques. Ce n’est pas dans ce qui est que l’on trouvera une réponse. Il faut avant tout adopter une prémisse prescriptive. Il faut s’adosser à un système éthique, une règle (ou un ensemble de règles) axiomatique qui guident ce qu’il est éthique de faire ou de ne pas faire, ce que l’on considère comme bien et mal9.

En conjuguant des propositions prescriptives à des descriptions factuelles, il est alors possible de déduire de nouvelles affirmations prescriptives.

Illustration du principe de la guillotine de Hume
Illustration du principe de la guillotine de Hume

Ce prisme-là permet, d’ailleurs, de justifier la position des sceptiques pyrrhoniens. Leur objectif primordial est d’atteindre l’ataraxie, c’est-à-dire l’absence de trouble. Voilà donc leur prémisse prescriptive.
D’autre part, ils développent un argumentaire qui ressemble à cela : La suspension du jugement (épochè), engendre l’absence de jugement (adoxastous) qui engendre l’absence d’affirmation (aphasie). Enfin, puisque ne rien affirmer épargne les déceptions, erreurs et faux espoirs, il s’ensuit l’absence de trouble (ataraxie). 10.
Conclusion implacable : Il faut toujours suspendre son jugement.

Guillotine de Hume appliquée au pyrrhonisme
Guillotine de Hume appliquée au pyrrhonisme

Il est évidemment possible de discuter de cette construction argumentaire en prenant soin de traiter les propositions descriptives et prescriptives en tant que telles. Il n’y a pas de sens à dire que la recherche de l’ataraxie est vraie ou fausse, comme il n’y a pas de sens à dire que le fait que l’aphasie implique l’ataraxie soit bien ou mal.

« Le sceptique, parce qu’il aime les hommes… »

La construction précédente n’est qu’une interprétation du scepticisme pyrrhonien – peut-être un peu naïve – qui ne rend pas entièrement hommage à cette pensée complexe qui ne se laisserait pas si simplement capturée dans un cadre aussi rigide.
Voyons maintenant, une autre interprétation du pyrrhonisme, qui permet également d’illustrer le principe de la guillotine de Hume. Elle se fonde sur cet extrait de Sextus Empiricus :

Le sceptique, parce qu’il aime les hommes , veut les guérir par le discours autant qu’il le peut, de la témérité et de la présomption dogmatique.

Sextus Empiricus , Esquisses Pyrrhoniennes

D’après ce passage, le principe prescriptif fondateur du scepticisme serait l' »amour des humains » ou autrement la défense des individus11 . En le conjuguant à une proposition descriptive implicite ici (quelque chose comme « La présomption dogmatique nuit aux humains »), on en déduit qu’il faut lutter contre la présomption dogmatique.

Interpertation de Sextus Empiricus du point de vue de la guillotine de Hume
Interprétation de Sextus Empiricus du point de vue de la guillotine de Hume

Petite parenthèse : ce passage semble mettre à jour un paradoxe entre deux justifications du scepticisme. D’une part la recherche de l’ataraxie, qui justifie de suspendre éternellement son jugement, d’autre part un engagement « humaniste » qui, semble-t-il, peine à justifier cette incessante aphasie (Si « le sceptique aime les hommes » doit-il suspendre son jugement devant les pires des injustices ?).
Une réponse à ce paradoxe est peut-être donnée un peu plus loin dans le texte de Sextus Empiricus dans un paragraphe intitulé « Pourquoi le sceptique s’applique-t-il parfois à proposer des arguments d’une faible valeur persuasive ? »

[Le sceptique] use d’argument de poids propres à venir à bout de cette maladie qu’est la présomption dogmatique pour ceux qui sont fortement atteints de témérité, mais il use de plus léger pour ceux qui sont superficiellement atteints par le mal de la présomption et facile à soigner et qu’il est possible de rétablir par une persuasion plus légère.

Sextus Empiricus, Esquisses Pyrrhonienne

Sextus Empiricus

Ce point de vue pourrait expliquer la position extrême des sceptiques de l’antiquité : en réalité, la force de leur discours s’adapte en fonction de leur interlocuteur et ce seraient les arguments les plus radicaux qui auraient été retenus par l’histoire.
Peut-être alors que le vrai projet pyrrhonien n’était pas tant de défendre un doute absolu et inconditionnel, presque insensé, mais plutôt de protéger les hommes des discours dogmatiques et la tradition n’aura retenu que les positions les plus radicales qu’ils tenaient face à leurs adversaires les plus coriaces. Peut-être.

Refermons cette parenthèse antique qui permettait surtout d’illustrer différentes constructions argumentaires qui aboutissent à différents projets sceptiques : suivant la prémisse prescriptive qui fonde le discours, les conclusions peuvent différer. Elle influence donc notre rapport à la suspension du jugement, mais pas seulement. Elle guide également le choix des sujets que l’on va traiter, le ton que l’on va adopter, l’audience à qui l’on veut diffuser ces idées, etc.

Prenons un exemple.
Considérons les deux propositions descriptives suivantes : « X prétend être atteint de la pathologie P »; « Il est très probable que X ne soit pas vraiment atteint de la pathologie P ». Doit-on, face à une telle situation, suspendre son jugement sur ce qui est vrai ou faux et sur ce qui est bien ou mal de faire ?
La réponse dépend de la prémisse prescriptive ; par exemple : « Il faut maximiser le bonheur de X », « Il faut dévoiler coute que coute la vérité sur P », « Il faut informer au mieux sur P sans nuire à X », etc.

Posture morale par défaut

Est-il possible d’échapper au choix ?

Non seulement le sceptique doit choisir. Mais pire, il le fait. Aussi attaché soit-il à la suspension du jugement, un sceptique finira tôt ou tard par choisir. La prétention à une indifférence absolue ne survit guère en dehors du confort d’un cabinet de philosophe. Elle s’évapore à l’instant où l’on quitte ces élégantes constructions mentales.

« Comme le doute sceptique résulte naturellement d’une réflexion profonde et intense […], il augmente toujours à mesure que nous poursuivons nos réflexions, qu’elles s’opposent à lui où lui soit conformes. Seules la négligence et l’inattention peuvent nous apporter quelques remèdes.
C’est pourquoi je leur fais entière confiance et j’admets sans discussion que, quelle que soit l’opinion du lecteur à cet instant, il sera dans une heure persuadé qu’il existe à la fois un monde extérieur et un monde interne ».

David Hume, Traité de la nature humaine, I,IV, II

Ainsi, impossible de se croire exempté de la laborieuse tâche qui consiste à s’interroger sur le fondement de son entreprise sceptique.
Que ce soit réfléchi ou non, toute démarche sceptique (et intellectuelle plus généralement) s’appuie sur des hypothèses sous-jacentes sur ce qui doit être.
La vérité est au fond du puits. Qu’est ce qui me donne suffisamment soif pour m’y pencher ?

Quelles valeurs par défaut ?

On pourrait alors réfléchir, à ce qui guide inconsciemment les choix moraux, aux prémisses prescriptives que l’on applique par défaut sans en avoir conscience. On prendrait alors le risque de sortir du champ de cet article (et de mes compétences) alors que d’autres l’ont déjà fait très bien (ici par exemple, ou plus récemment ).
Simplement, il semble que l’on peut remonter à quelques invariants dans notre manière de faire des choix inconscients parmi lesquels la consistance avec son groupe social. Qu’on l’appelle conformisme à la façon de Asch, ou capital symbolique à la manière de Bourdieu, notre conception du monde, et à fortiori notre conception du bien, s’aligne souvent sur la conception que s’en font nos semblables.

Beaucoup de nos actions sont mises en œuvre, non pas pour ce qu’elles sont, mais pour acheter le regard de l’autre.

Aurélien Barrau, extrait de conférence samplé dans Nouveau Monde de Rone.

Évidemment, les milieux sceptiques ne sont pas épargnés par ce mécanisme et certains comportements ou prises de position sont motivés, au moins partiellement, non pas par leur valeur épistémique intrinsèque ou leur bénéfice espéré, mais par ce qu’elles sont valorisées par la communauté.
Que ce soit dans le choix des sujets, dans le ton adopté, dans l’audience visée. Ainsi, semblent apparaitre certaines valeurs qui s’éloignent de la démarche sceptique et humaniste défendue il y a 2000 ans déjà par Sextus Empiricus : le sceptique, parce qu’il aime les hommes…

Application : Zététique et psychophobie.

Certains discours reprochent à la zététique d’être psychophobe notamment en ce qu’elle utiliserait à tort le champ lexical de la psychiatrie et/ou banaliserait des termes péjoratifs sur la santé mentale (fou/folle, démence, parano, perché, …). Une synthèse de cette critique peut être retrouvé dans l’article « Zététique & Psychophobie » de Sohan Tricoire.
D’autres voix se sont élevées contre cette critique parce qu’elle leur paraissait infondées, moralisatrice ou inutilement tatillonne.

Du haut de mon ignorance, difficile d’avoir un avis péremptoire sur la question :
Quel est l’impact réel de l’utilisation de ces termes ? Est-ce que le fait de décrire ces termes comme violents ne contribue-t-il pas, justement, à les faire ressentir comme violents ? Cette critique procède-t-elle, comme on peut l’entendre, d’une pureté militante propre à la culture « woke » ?
D’un autre coté, les personnes qui s’opposent à cette critique ne sont-elle pas, simplement sur la défensive face à un discours qui remet en cause leurs habitudes et qui les accuse d’une certaine violence ?
Est-ce que je peux, moi, remettre en question la violence ressentie par d’autres ? Et d’ailleurs, n’étant pas concerné, est-il judicieux que je m’exprime sur cette question ?

Toutes ces questions demandent des connaissances en linguistique, en psychologie, en sociologie, en philosophie voire en politique, que je n’ai absolument pas. De ce fait, comment me positionner face à cette question ?

Si, à la manière de Sextus, on adopte la défense des individus comme objectif premier, il en découle (assez naturellement) que la défense des individus marginalisés ou soumis à des oppressions, est d’autant plus important.
Ainsi, face aux doutes que je peux avoir, mon raisonnement revient à cet objectif premier et, dans certains contextes au moins, il me semble plus important de défendre la voix des oppréssé.e.s que de laisser mon jugement suspendu.

Il me semble que personne (ou peu) refuserait consciemment la posture « humaniste » proposée ici et déciderait à la place d’adopter un autre objectif comme le triomphe coute que coute de la vérité.
En réalité, ce qui empêche certaines personnes d’adopter cette position « humaniste » relève davantage d’un aveuglement par rapport à leur valeur morale implicite qui risque de se retrouver de facto calqué sur une idéologie dominante. Ce qui ramène à l’importance cette question déjà posée plus haut : « Qu’est ce que l’on vise ? »

Former l’esprit critique : ressources pour enseignant·e·s

Depuis juillet 2020, je participe à une rubrique consacrée à l’esprit critique dans la revue Sciences & Pseudosciences éditée par l’Association Française pour l’Information Scientifique (AFIS). J’y explore notamment les différentes facettes de la formation à l’esprit critique des enseignant·e·s ainsi que les questions en lien avec l’éducation à l’esprit critique. Vous trouverez ici l’ensemble des articles déjà publiés et mis en ligne par l’AFIS, ainsi qu’une présentation de ceux-ci, facilitant leur lecture et la compréhension générale de ce travail.

Pourquoi enseigner l’esprit critique ?

Dans ce premier article, je présente le cadre général de l’éducation à l’esprit critique, ses objectifs et enjeux, la définition de l’esprit critique et ses différentes dimensions. J’aborde également la question des formations à l’esprit critique pour les enseignant·e·s. En effet, si depuis 2015 celles-ci se développent fortement, certaines sont ancrées dans le travail du Cortecs et abordent spécifiquement la question de l’épistémologie, des démarches scientifiques, de la zététique et de l’autodéfense intellectuelle.

Former les enseignant·e·s à enseigner l’esprit critique

Dans ce deuxième article, je présente plus spécifiquement le contenu des formations à l’esprit critique pour les enseignant·e·s. En insistant d’abord sur le sens et les objectifs que l’on donne à ces formations, je reviens sur le juste équilibre à trouver entre un contenu ciblant des ressources pédagogiques à destination des enseignant·e·s et des activités permettant avant tout de former des individus. En effet, si l’on souhaite que soit transposée en classe cette éducation à l’esprit critique, il faut d’abord et avant tout que nos collègues s’approprient et trouvent un intérêt à aborder ces thématiques. Je présente également les différents « modules » que contient cette formation et décris rapidement un premier temps de « remue-méninges » pour travailler sur la délicate distinction entre science, croyances, connaissances et pseudosciences.

Croire et savoir

Cet article développe ce qui a été décrit à la fin du précédent : comment aborder la question de la distinction entre croyances et connaissances ? Comment, en tant qu’enseignant·e, s’y retrouver et être capable de poser clairement les choses face aux élèves ? J’y évoque quelques « astuces » et mises en œuvre pour travailler sur ce sujet : d’abord, en distinguant la capacité à remettre en question (ou pas) nos croyances et connaissances, puis en relevant les différences entre nos croyances (et connaissances individuelles) et les connaissances scientifiques. L’idée est de sortir d’une vision simpliste de la distinction entre croyances et connaissances, tout en donnant des moyens aux enseignants de répondre concrètement aux élèves sur ces questions.

La hiérarchie des niveaux de preuve

Pour continuer sur le lien entre épistémologie et esprit critique, cet article aborde la difficile tâche d’évaluer la fiabilité des preuves étayant une affirmation. En effet, parvenir à ajuster notre niveau de confiance face à une information passe par différents aspects, dont notamment notre capacité à savoir si les éléments fournis pour l’étayer sont suffisants. J’y présente d’abord ce qu’est une preuve puis j’y discute l’intérêt et les limites d’utiliser une échelle des niveaux de preuve, ainsi que les différentes manières d’aborder ces aspects au niveau pédagogique.

Bases théoriques et indications pratiques pour l’enseignement de l’esprit critique

Dans cet article, j’ai le plaisir d’interviewer Elena Pasquinelli, chercheuse, formatrice et membre du Conseil Scientifique de l’Éducation Nationale, ayant en charge les travaux du groupe n°8 consacré à l’esprit critique. Elle revient notamment sur la publication et contenu du rapport produit par ce groupe en 2021 et fournissant pour la première fois un corpus théorique et pratique pour l’enseignement de l’esprit critique. Cet article permet ainsi d’avoir un bon résumé du contenu du rapport qui, si l’on devait le résumer en une phrase, précise l’importance d’identifier certains critères opérationnels et concrets, permettant aux enseignants de savoir comment orienter efficacement leur cours dans l’objectif d’y incorporer des éléments propres à l’éducation à l’esprit critique.

Le niveau d’étude peut-il aggraver les préjugés ?

Une question souvent posée en lien avec l’esprit critique et son enseignement concerne le rôle des connaissances. Celui-ci est indéniable : l’esprit critique ne s’exerce pas à vide. Mais ces connaissances ne suffisent pas pour évaluer l’information et reconnaître si l’on est en face d’un contenu biaisé ou frauduleux. Parfois, elles peuvent même entretenir nos préjugés erronés. Dans cet article, je reviens sur les travaux conduits par différents chercheurs étudiant le lien entre le niveau de connaissances générales (ou même le niveau d’études) et les capacités cognitives ainsi que le niveau de croyances non fondées. Par exemple, certaines recherches suggèrent que, sur des sujets médiatiquement controversés ou très contestés (réchauffement climatique, théories de l’évolution, recherche sur les cellules souches), le niveau d’études, même s’il s’agit d’études scientifiques, est corrélé à un renforcement des préjugés idéologiques. Il ne fait qu’aider à confirmer les opinions préexistantes des individus, même lorsqu’elles sont fausses…

Croyances, connaissances et boule de neige

Quand nous abordons dans nos cours la question de la distinction entre croyances et savoirs (ou connaissances, je ne ferai pas la distinction ici), cette distinction repose sur un postulatqui pose bien des problèmes.Croyances et savoirs sont-ils, en effet, si facile de les distinguer ? L’objet d’une telle discussion anime les épistémologues depuis des lustres et en quelques heures ou lignes, il serait bien entendu illusoire d’apporter une réponse nuancée. Il est par contre possible de faire réfléchir à cette question, et de bien des manières. Nous proposons ici un atelier très simple à mettre en place, décliné sous la forme d’un débat boule de neige et permettant de faire émerger la complexité de cette problématique, donnant ensuite quelques pistes pour y répondre.

Le débat « boule de neige »

Principe du débat

Le débat « boule de neige » est, comme son nom l’indique, un débat permettant « d’accumuler » les contributions de plusieurs élèves/étudiants/personnes sur un sujet donné1. Il se déroule en différentes étapes et l’objectif est de faire participer toutes les personnes, pour échanger des arguments et construire une réponse collective sur un sujet donné. Chaque étape est chronométrée, permettant de rythmer les discussions. Seuls dans un premier temps, les participants se regroupent petit à petit en différentes « boules » pour échanger leurs arguments et discuter.

Déroulement du débat

Pour commencer, il faut tout d’abord choisir une affirmation, une phrase sur laquelle on souhaite faire réfléchir.

  • On commence le débat boule de neige par une phase de réflexion individuelle avec la consigne suivante : « Êtes-vous d’accord ou pas avec cette affirmation ? » puis « Trouver des raisons/arguments justifiant votre position. » Cette première étape peut durer entre une et trois minutes afin de laisser le temps à chacun de prendre conscience du problème posé par l’affirmation.
  • Dans une deuxième étape, on regroupe les participants deux par deux, toujours avec les même consignes auxquelles on ajoute qu’il faut maintenant présenter ses arguments et cerner les points d’accord et de désaccord. Cette phase peut durer entre deux et cinq minutes maximum : en effet, à deux, il arrive souvent que les arguments échangés ne soient pas très nombreux. Mieux vaut alors enchaîner sur l’étape suivante.
  • La troisième étape permet de regrouper par quatre les participants (on réunit les groupes précédents deux par deux). Les consignes sont identiques. C’est sans doute l’étape la plus prolifique et pertinente du débat, aussi prévoir entre 10 et 15 minutes est tout à fait raisonnable.
  • On réunit ensuite les « boules » de quatre pour former des groupes de huit, toujours avec les mêmes consignes, précédées de cette recommandation : « désignez une personne de chaque groupe pour résumer en quelques phrases les différents arguments avancés précédemment ». À huit, la discussion est souvent animée, mais on remarque aussi que certains peuvent prendre plus (trop) souvent la parole : l’occasion de rappeler quelques règles utiles comme le bâton de parole (avec restrictions sur le nombre de fois autorisées) ou la désignation d’un responsable donnant la parole au fur et à mesure des demandes (mains levées).
  • Selon la disposition de la salle et l’envie ou pas de l’animateur-trice, on peut former des groupes de seize. Mêmes consignes.
  • La dernière étape consiste à réunir tous les participants : debout, en cercle, tout le monde débat ensemble. Si un consensus se dégage, on peut demander de l’indiquer. Dans le cas contraire, on demande de rapporter les différents points de divergences.

  • Le rôle de l’animateur-trice dans toutes ces étapes est de gérer le temps et, dans la dernière étape, de s’occuper de la prise de parole du groupe (ou de désigner quelqu’un pour le faire). Pendant toute la durée des débats, il-elle circulera autour de chaque groupe, aidant ou relançant si nécessaire les participants à nuancer, envisager d’autres pistes, sans répondre directement aux questions portant sur le fond du sujet. Il est important de garder un certain retrait vis-à-vis des échanges de chaque groupe afin d’éviter au maximum le regard du « sachant » à un moment où chacun est invité à exprimer son point de vue de manière totalement égale aux autres.

Croyances ? Connaissances ?

Le choix de l’affirmation

Pour faire réfléchir et discuter élèves, étudiants ou enseignants en formation, j’ai toujours choisi la même affirmation : « Les croyances s’opposent aux connaissances« . Elle permet de faire émerger un ensemble de questions et de problèmes que les participants, ensemble, vont tenter de résoudre. Par le jeu des échanges, les personnes les plus convaincues dès le début se rendent compte que d’autres avis peuvent être légitimes, en fonction de la force des arguments avancés. Certains m’ont parfois suggéré d’inverser le sens de l’affirmation, ce que j’ai fait, sans observer de grands changements dans les débats entendus.

Points de vigilance

Le rôle de l’animateur du débat est crucial : il faut être capable de laisser débattre les participants sans intervenir comme signalé ci-dessus, mais il est aussi nécessaire de savoir relancer les échanges quand ceux-ci sont au point mort. On pourra par exemple poser des questions au groupe comme « Êtes-vous d’accord sur le sens du mot croyance ? » ou « D’après vous, quels types de croyances s’opposent aux connaissances ? ». On pourra également demander de bien penser à justifier chaque point de vue donné, ou encore de faire la liste des points d’accord ou de désaccord entre les participants.

On peut également conseiller, avant chaque nouvelle « boule », que chaque groupe distinct résume la teneur de ses échanges précédents, permettant ainsi de ne pas tout répéter et d’avancer dans le débat.

Quand arrive le regroupement à plus de 8, se pose la question de la parole. Après quelques minutes passées à débattre, je demande à chaque groupe s’il est satisfait de la manière dont se passent les échanges. Il se peut que laisser la gestion de la parole sans règle explicite fonctionne bien, mais on peut aussi donner quelques conseils comme utiliser un bâton de parole (ne parle que celle ou celui qui a le bâton ou quelque autre objet), ou désigner une personne responsable d’indiquer à qui vient le tour de parler.

Enfin, la dernière « boule » – le groupe entier donc – se réunit pour la dernière partie du débat. Il est alors utile de rappeler que l’objectif de ce dernier regroupement est de parvenir à exprimer de manière collective les différents avis qui ont émergés, avec leurs justifications, leurs arguments ou toutes raisons amenant à considérer qu’une opinion mérite d’être entendue.

Ce type de débat peut aussi être utilisé pour prendre une décision collective : la dernière étape étant utilisée pour faire émerger les différentes propositions et choisir parmi elles le cas échéant.

Quant à la manière d’utiliser ce débat pour traiter de la question de fond sur la différence entre croyances et connaissances, ce sera l’objet d’un prochain article.

Vers une vision bayésienne de la zététique: Justifier et enrichir la démarche zététique à partir de la formule de Bayes

Nicolas Martin, après avoir étudié les mathématiques appliquées à l’INSA Toulouse, a obtenu son doctorat en automatique au sein du GIPSA-lab et de l’université Grenoble Alpes. Il s’intéresse depuis plusieurs années à la zététique, l’esprit critique et leur transmission auprès du public. Depuis début 2020, Il publie des articles de vulgarisation scientifique et d’esprit critique sur le blog « Mon Œil ! »1Voici une de ses productions:

La zététique est un mouvement de pensée qui promeut l’utilisation de la pensée critique et de la méthode scientifique pour traiter efficacement le tsunami d’informations qui nous parvient chaque jour. Il semble néanmoins que cette démarche serait plus efficace encore si elle était soutenue par une vision bayésienne c’est-à-dire une approche qui prône l’usage des probabilités pour quantifier nos croyances. La démarche zététique est régulièrement le fruit de critiques : elle parait parfois dogmatique, parfois antipathique et parfois inapte à répondre à certains problèmes. Nous verrons dans cet article que le raisonnement bayésien soutient l’approche zététique et lui apporte un peu de nuance. Récemment, plusieurs travaux dans la communauté zététique sont allé dans ce sens, initiés principalement par Lê Nguyen Hoang (influencé par les travaux de Julia Galief écrivaine, conférencière et co-fondatrice du Center for Applied Rationality), avec son livre « La formule du savoir », sa série de vidéos sur le sujet 2 et ses podcasts3, l’approche bayésienne et ses apports à la zététique ont également été traités par Christophe Michel (animateur de la chaine Hygiène mentale)4, Nathan Uyttendaele (animateur de la chaine Chat Sceptique)5 ou encore Thibaud Giraud (animateur de la chaine Monsieur Phi)6. C’est dans ce mouvement que s’inscrit cet article dont l’objectif principal est de montrer comment le bayésianisme corrobore et enrichit certains outils zététiques.
Nous présenterons dans un premier temps quelques points critiques de la zététique qui motivent l’introduction d’un cadre bayésien. Nous introduirons ensuite succinctement le formalisme bayésien avant de présenter dans la dernière partie la contribution principale de cet article : la déduction de deux principes zététiques, rasoir d’Ockham et maxime de Hume, à partir de la formule de Bayes, formule sur laquelle se base l’approche bayésienne.
Cet article est loin de faire le tour de la question. Au contraire, comme son titre l’indique, le but ici est de fournir quelques arguments invitant à une réflexion plus poussée sur l’apport de l’approche bayésienne à la zététique.

Les limites de l’approche zététique

Il semble que l’approche zététique ait une mauvaise image de la part des croyant-e-s et des tenant-e-s des affirmations para-scientifiques7 mais pas seulement, certaines critiques viennent des zététiciens eux-mêmes8. Si certaines critiques peuvent être maladroites, d’autres en revanche nous paraissent pertinentes. Notons également que la plupart des critiques ne concerne pas la zététique dans son essence mais des écueils dans lesquelles il est facile de tomber. Nous proposons une liste de ces critiques ci-dessous. Nous verrons ensuite en quoi le bayésianisme peut répondre en partie à ces défaillances.

Des principes dogmatiques

Le rasoir d’Ockham, la maxime de Hume, la charge de la preuve, la valeur d’une preuve, l’impossibilité de prouver l’inexistence… Ces principes se posent parfois comme des dogmes de la zététique. Ce n’est pas un problème en soi puisque leur justification apparaît a posteriori : On se rend compte, en les utilisant, qu’effectivement on a tendance à se tromper moins souvent. En revanche, justifier a priori que ces principes sont cohérents, sont suffisants et nécessaires est une question plus complexe mais qui soutiendrait d’autant plus la démarche zététique.
En réalité, nous le verrons plus loin: le rasoir d’Ockham et la maxime de Hume peuvent se déduire de la formule de Bayes, formule dont on peut également justifier la cohérence.

De bons outils dans des mains maladroites

Carl Sagan dans The Fine art of Baloney Detection accompagne son texte de cette note appelant à la précaution : Like all tools, the baloney detection kit can be misused, applied out of context, or even employed as a rote alternative to thinking. But applied judiciously, it can make all the difference in the world — not least in evaluating our own arguments before we present them to others9. De même, dans son article critiquant la zététique, Sylvain Poirier fait remarquer : Ce n’est pas parce que beaucoup de principes zététiques affichés sont bons, que tout ce que disent les zététiciens est à croire sur parole. Si la zététique apporte un panel d’outils finement aiguisés, ils peuvent parfois être délétères lorsqu’ils sont utilisés sans un peu d’esprit critique.

Manque d’un formalisme mathématique

Le rasoir d’Ockham nous invite à “Privilégier l’hypothèse la plus parcimonieuse”. Mais comment quantifier la parcimonie d’une hypothèse ? Quelle métrique utiliser ?
La maxime de Hume, elle, stipule que “Une affirmation extraordinaire requiert des preuves extraordinaires”. Mais comment quantifier cette extraordinarité ? Et comment comparer l’extraordinarité d’une affirmation et l’extraordinarité des preuves ?
Bonne nouvelle, même si ces préceptes font office de principes généraux sans prétendre avoir une quelconque valeur quantitative, ils peuvent en fait être déduit de la formule de Bayes. Qui plus est, cette dernière leur donne un sens mathématique.

Manichéisme des arguments

Le curseur de vraisemblance10 invite à graduer la vraisemblance d’une affirmation sur une échelle continue entre 0% et 100%. Cette précaution apportée à notre jugement sur une théorie est bénéfique mais elle disparaît souvent quant on juge les preuves qui soutiennent la théorie : Il n’est pas rare d’entendre que tel argument est soit valide soit invalide; que le manque de rigueur d’un protocole invalide les résultats d’une expérience; que l’on peut jeter un discours puisque l’on y relève l’argument fallacieux n21 ou le n3711. Il semble cependant que l’on perde de l’information en disqualifiant complètement une preuve imparfaite12. Dans son article critiquant la zététique, Sylvain Poirier écrit: Le fait qu’il y ait des impostures et des erreurs de toutes sortes à la base de certaines affirmations du paranormal ou d’autres choses par les uns ou les autres, ne signifie pas que tout y est faux ni que rien n’aurait pu être effectivement prouvé. Est-il bien raisonnable de considérer la valeur d’un argument comme binaire ? Il semble peu probable qu’un protocole soit parfait tout comme il est peu probable que tout soit à jeter. En replaçant la zététique dans un cadre probabiliste, on quitte le maigre13 {0;1} pour l’infiniment plus riche14 [0,1].

Difficulté de conclure

“Est-il préférable pour la guérison d’une entorse de dormir avec un coussin bleu ou avec un coussin rouge ?”. Face à l’inexistence d’expériences randomisées en double aveugle avec groupe de contrôle, le zététicien doit-il s’enfuir laissant là son jugement suspendu ?
Devant bien des affirmations il semble que les outils de la zététique ne permettent pas de conclure. En particulier, on évoque souvent la hiérarchie suivante : une étude isolée est moins pertinente qu’une méta-analyse et une méta-analyse est moins pertinente que le consensus scientifique15. Mais alors, que dire d’un sujet sur pour lequel il existe peu ou pas d’étude ? Que dire d’un sujet face à un faisceau d’indices réduit et/ou peu rigoureux ? L’approche bayésienne permet de prendre en compte des informations de toutes sortes afin de se faire une opinion.

Et donc ?

L’approche bayésienne offre une perspective qui répond en partie aux critiques sus-citées en permettant de :

  1. Quantifier la validité d’une information et la probabilité d’une affirmation.
  2. Corroborer certains des principes dogmatiques de la zététique évoqués ci-dessus
  3. Replacer le discours zététique dans un langage probabiliste : Utiliser une formule comme « Il est très improbable que X » plutôt qu’un plus catégorique « À l’heure actuelle, il n’y a aucune preuve de X » rend le discours plus humble et plus propice à un échange bienveillant16.

Les apports du bayésianisme

Pour ne pas alourdir l’article la présentation du bayésianisme est assez minimaliste. Le lecteur curieux est invité à se référer aux références données dans l’introduction.

De la formule de Bayes

Le bayésianisme se base sur la formule de Bayes dont il tire son nom. La manière la plus simple d’écrire cette formule est la suivante

(1)   \begin{equation*}\Prob{A|B} = \frac{\Prob{A}\Prob{B|A}}{\Prob{B}}\end{equation*}

Les termes ℙ(A|B) et ℙ(B|A) sont des probabilités conditionnelles et se lisent respectivement “Probabilité de A sachant B” et “Probabilité de B sachant A”. La formule de Bayes permet donc simplement de lier les deux probabilités conditionnelles.

Exemple : On considère un lancer de dé, et on cherche à savoir quelle est la probabilité que le dé soit tombé sur 6 sachant que le dé est tombé sur un chiffre pair. On parle donc de probabilité conditionnelle car on cherche la probabilité d’un évènement en connaissant des informations partielles sur cet évènement.
Dans la formule de Bayes 1, on remplace A et B respectivement par “Faire un 6” et “Faire un nombre pair”. On va donc pouvoir calculer ℙ(A|B), la probabilité de “Faire un 6” sachant qu’on a “Fait un nombre pair”, ce qui est bien ce qu’on recherche. On obtient :

\small \Prob{\text{Faire un 6}|\text{Faire un nombre pair}} = \frac{\Prob{\text{Faire un 6}}\Prob{\text{Faire un nombre pair}|\text{Faire un 6}}}{\Prob{\text{Faire un nombre pair}}}

Ce qui se lit : la probabilité que j’ai fait un 6 sachant que j’ai fait un nombre pair est égale à la probabilité de faire un 6 (égale à 1/6) multipliée par la probabilité de faire un nombre pair sachant que j’ai fait un 6 (égale à 1) divisée par la probabilité de faire un nombre pair (égale à 1/2). Ce qui donne :

    \begin{equation*} \Prob{\text{Faire un 6}|\text{Faire un nombre pair}} = \frac{1/6 \times 1}{1/2} = 1/3 \end{equation*}

que l’on peut facilement vérifier.

À la formule du savoir

Initialement cette formule est un simple outil de calcul de probabilité conditionnelle relativement simple, et c’est ainsi qu’elle est enseignée aux étudiants. Cependant, réinterprétée, notamment par Pierre-Simon de Laplace, elle est devenue un profond principe épistémologique, que certains considèrent comme la formule ultime du savoir17 fondant ainsi le bayésianisme.
Comme nous le verrons, la formule de Bayes permet de calculer la vraisemblance d’une affirmation en fonction de la vraisemblance a priori de cette affirmation et d’une nouvelle information. Autrement dit, elle permet de mettre à jour nos croyances en fonction des preuves que l’on peut rencontrer : témoignage, étude scientifique, reportage TV, article de presse, …
Le théorème dit de Cox-Jaynes permet même de s’assurer que c’est la bonne manière de faire. Ce théorème montre que la logique bayésienne découle de certains prérequis naturels18 et qu’elle est donc indispensable pour manipuler raisonnablement de l’information.

La théorie des probabilités n’est rien d’autre que le sens commun qui fait calcul — Pierre-Simon de Laplace

Retour à la zététique

Nous voilà rendus bien loin des préoccupations zététiques. Mais en apportant une légère modification à la formule de Bayes ci-dessus nous allons y revenir. Changeons tout simplement le A dans la formule par affirmation, et le B par preuve19. Et voilà, nous avons un outil mathématique puissant pour estimer la vraisemblance d’une affirmation à partir de preuves (que ce soit des témoignages, des études, des arguments, …).
Mise en pratique :

    \begin{equation*} \Prob{\text{Affirmation}|\text{Preuve}} = \frac{\Prob{\text{Affirmation}}\Prob{\text{Preuve}|\text{Affirmation}}}{\Prob{\text{Preuve}}} \end{equation*}

\Prob{\text{Affirmation}|\text{Preuve}} est ce que l’on cherche à évaluer: la vraisemblance d’une affirmation à partir de preuves. Plus précisément, on cherche à calculer l’évolution de la confiance à accorder en une affirmation lorsque une nouvelle preuve est disponible. Cette quantité est aussi appelée probabilité a posteriori puisqu’elle correspond à la vraisemblance de l’affirmation après avoir pris en compte la preuve.
Par opposition, \Prob{\text{Affirmation}} représente la probabilité a priori. C’est à dire la vraisemblance de l’affirmation avant de prendre en compte la preuve. C’est un des principes fondamentaux du bayésianisme : notre croyance en une affirmation évolue sans cesse en fonction des nouvelles preuves qui nous parviennent.
\Prob{\text{Preuve}} est la probabilité a priori d’observer la preuve. Insistons: ces deux dernières probabilités (\Prob{\text{Affirmation}} et \Prob{\text{Preuve}}) sont calculées dans l’état initial des connaissances, c’est-à-dire sans prendre en compte la nouvelle preuve.
Enfin, la formule de Bayes nous dit que pour trouver \Prob{\text{Affirmation}|\text{Preuve}}, il nous faut, de plus, la probabilité d’observer cette preuve si l’affirmation est vraie. Cette probabilité est notée: \Prob{\text{Preuve}|\text{Affirmation}}, et est également appelée « fonction de vraisemblance », ou simplement « vraisemblance ».
On peut alors calculer \Prob{\text{Affirmation}|\text{Preuve}}, la probabilité a posteriori de l’affirmation, c’est-à-dire la confiance à accorder en l’affirmation20 une fois pris en compte les nouveaux éléments de preuve relativement aux connaissances préalables. D’une certaine manière, la formule décrit comment utiliser raisonnablement le curseur de vraisemblance connu des zététiciens.
La dépendance aux connaissances initiales peut sembler gênante puisqu’elle est subjective et risque de faire aboutir deux personnes à des conclusions différentes. Cependant la formule de Bayes assure qu’avec un nombre de preuves suffisant les probabilités a posteriori convergent vers une même valeur quelque soit la probabilité a priori.
Avec ces notations, une affirmation est très probable si \Prob{\text{Affirmation}} est proche de 1 et inversement très improbable si \Prob{\text{Affirmation}} est proche de 0. De même, \Prob{\text{Preuve}} proche de 0 correspond à une preuve très improbable dans le cadre initial de nos connaissance donc à une preuve que l’on peut qualifier d’extraordinaire (par ex. « Il a neigé en Août »), alors que \Prob{\text{Preuve}} proche de 1 est une preuve banale c’est à dire une information à laquelle on s’attend (par ex. « Il a neigé en Janvier »).
Avant de voir les avantages du cadre bayésien dans la démarche zététique, voyons un exemple rapide d’utilisation de la formule de Bayes dans un cadre zététique.

Exemple : La maison de mes grand-parents est connue pour être hantée, notamment la vieille chambre du fond. Armé de tout mon courage et de mes solides outils zététique je vais la visiter. J’émets deux hypothèses :

  • Affirmation Affirmation A_1 : « Il y a des oiseaux dans les combles à l’origine des phénomènes ». J’y attribue une probabilité de \Prob{A_1} = 0.9.
  • Affirmation A_2 : « Il n’y a pas d’oiseau dans les combles et la maison est vraiment hantée ». J’y attribue une probabilité \Prob{A_2} = 0.1 ça paraît fou mais la croyance est tenace dans la famille et dans le village.

En arrivant dans la chambre, et non loin en dessous d’une ouverture dans le plafond qui donne accès aux combles, je vois une plume d’oiseau. Voilà ma nouvelle preuve P qui va me permettre de mettre à jour mes croyances. On peut estimer la probabilité de trouver une plume là sachant qu’il y a des oiseaux dans les combles \Prob{P|A_1} = 0.05 : c’est commun de trouver des plumes mais encore fallait il qu’elle passe par cette petite ouverture. De même on estime la probabilité de trouver une plume sachant qu’il n’y a pas d’oiseau \Prob{P|A_2} = 0.0001 : c’est très peu probable, il aurait fallu que quelqu’un l’amène ici. On peut enfin calculer la probabilité de trouver une plume \Prob{P} grâce à la formule suivante21: \Prob{P} = \Prob{P|A_1}\times\Prob{A_1} + \Prob{P|A_2}\times\Prob{A_2} = 0.04501.
On peut maintenant appliquer la formule de bayes pour A_1 et A_2.

    \begin{equation*} \begin{split} \Prob{A_1 | P}& = \frac{\Prob{A_1}\Prob{P|A_1}}{\Prob{P}}\\ \Prob{A_1 | P} & = \frac{0.9 \times 0.05}{0.04501}\\ \Prob{A_1 | P} & \approx 0.9998 \end{split} \end{equation*}

et

    \begin{equation*} \begin{split} \Prob{A_2 | P} & = \frac{\Prob{A_2}\Prob{P|A_2}}{\Prob{P}}\\ \Prob{A_2 | P} & = \frac{0.1 \times 0.0001}{0.04501}\\ \Prob{A_2 | P} & \approx 0.0002 \end{split} \end{equation*}

Après mise à jour des vraisemblances j’attribue donc une probabilité de 99,98\% pour l’affirmation A_1 et 0,02\% pour l’affirmation A_2.
Évidemment faire une telle analyse chiffrée n’est pas possible au quotidien et ce n’est même pas utile à vrai dire. Mais il est très bénéfique d’adopter une pensée bayésienne en prenant l’habitude de mettre à jour la vraisemblance de nos croyances et en musclant notre intuition bayésienne22.

On peut maintenant voir en quoi cette approche permet de répondre aux critiques formulées dans la section précédente :

  • Elle peut être utilisée pour justifier les principes a priori arbitraires de la zététique. Puisque le théorème de Cox-Jaynes montre que l’approche bayésienne est la seule cohérente, alors démontrer les principes zététiques par la formule de Bayes justifierait leur pertinence. C’est ce que nous ferons dans la dernière section pour deux de ces principes.
  • Puisque dans l’approche bayésienne tout est exprimé en fonction de probabilité on évite la binarité et la rigidité que peut prendre parfois le discours zététique.
  • Comme nous le verrons dans la dernière section, en plus de justifier le rasoir d’Ockham et la maxime de Hume, l’approche bayésienne apporte un cadre mathématique qui permet de quantifier ce qu’on entend par « l’hypothèse la plus parcimonieuse » ou une « affirmation extraordinaire ».
  • Alors que la zététique requiert parfois une étude approfondie d’un sujet pour obtenir une conclusion, l’approche bayésienne permet toujours d’attribuer une vraisemblance à l’affirmation quel que soit la quantité d’information dont on dispose.

Les outils zététiques dans une main bayésienne

Les deux premières parties ont permis de montrer ce que le bayésianisme peut apporter à la zététique et s’alignent avec des travaux pré-existants (notamment ceux de Christophe Michel présenté dans l’introduction). Cette dernière partie est une contribution plus personnelle (et plus technique aussi peut-être) et montre comment le cadre bayésien permet de justifier deux principes fondamentaux de la zététique : le rasoir d’Ockham et la maxime de Hume répondant ainsi partiellement23 à la première critique formulée.

Rasoir d’Ockham

Quand on est confronté à plusieurs affirmations expliquant un même phénomène, le rasoir d’Ockham nous invite à privilégier l’affirmation la plus parcimonieuse. C’est à dire, l’affirmation qui requiert les hypothèses les moins coûteuses intellectuellement. Cependant, la signification de parcimonie ne va pas toujours de soi en l’absence de quantifications.
Voyons ce que l’approche bayésienne peut en dire. Admettons que l’on ait trois affirmations A_1, A_2 et A_3 pour expliquer la même preuve P. les formules de Bayes s’écrivent alors :

    \begin{equation*} \begin{split} \Prob{A_1|P} & = \frac{\Prob{A_1}\Prob{P|A_1}}{\Prob{P}} \\ \Prob{A_2|P} & = \frac{\Prob{A_2}\Prob{P|A_2}}{\Prob{P}} \\ \Prob{A_3|P} & = \frac{\Prob{A_3}\Prob{P|A_3}}{\Prob{P}} \\ \end{split} \end{equation*}

Chercher l’affirmation à privilégier revient à chercher l’affirmation la plus probable au vu de la preuve, donc la plus grande de ces trois probabilités. En multipliant toutes ces quantités par \Prob{P}, on cherche donc l’affirmation maximisant \Prob{A_i} \Prob{P|A_i}.
Ce qui peut se lire : Probabilité de l’affirmation A_i multipliée par la probabilité d’observer la preuve P sachant que l’affirmation A_i est vraie. La formule de Bayes nous dit donc comment interpréter le terme « plus parcimonieux » du rasoir d’Ockham. Ce n’est donc pas simplement l’affirmation la plus probable qu’il faut privilégier, c’est à dire \Prob{A_i}, mais bien le produit de cette probabilité avec la probabilité d’observer P sachant que A_i (l’exemple à venir rendra la nuance plus claire). On peut en déduire une nouvelle formulation pour le rasoir d’Ockham:

Rasoir d’Ockham bayésien :L’hypothèse maximisant \Prob{A_i} \Prob{P|A_i} doit être privilégiée. C’est à dire l’hypothèse maximisant le produit de la probabilité de A_i et de la probabilité d’observer la preuve P sachant A_i.

Cela peut sembler être une subtilité mais l’exemple suivant montre la différence induite par ce changement.

Exemple : Monsieur M. met dans une boite un chat et un souris. Dix secondes après il rouvre la boîte et la souris a totalement disparu. On peut émettre plusieurs affirmations :

  1. A_1Le chat a mangé la souris
  2. A_2La souris est passé dans une dimension différente pour échapper au chat
  3. A_3Monsieur M. est magicien

Usons de notre rasoir d’Ockham bayésien pour voir quelle affirmation privilégier. On considère les probabilités a priori des affirmations suivantes : \Prob{A_1} = 0.8 : Les chats aiment manger des souris;
\Prob{A_2} = 0.0000001 : Je n’ai pas connaissance de souris ayant une telle capacité;
\Prob{A_3} = 0.1 : Je ne connais pas bien cette personne, mais il n’est pas impossible que ce soit un tour de magie.

  • Si on s’intéresse au curseur de vraisemblance utilisé classiquement en zététique, nous pourrions penser qu’il ne faut considérer que la probabilité a priori \Prob{A_i} de ces affirmations. Ainsi il semblerait que l’affirmation A_1 soit à privilégier.
  • Considérons désormais la seconde partie du calcul uniquement (celle qui prend en compte la probabilité d’observer la donnée si l’affirmation est vraie), et que nous appelons la fonction de vraisemblance ou simplement vraisemblance. La donnée en l’occurrence est la révélation du contenu de la boite 10 secondes plus tard sans souris. On a alors par exemple : \Prob{P | A_1} = 0.1 : Seulement 10 secondes pour manger une souris et ne laisser aucune trace… ça me parait suspect; \Prob{P | A_2} = 0.999 : Si la souris avait un tel pouvoir elle aurait en effet sûrement disparu; \Prob{P | A_3} = 0.95 : Si Monsieur M. est magicien alors il est très probable que la disparition de la souris soit son tour de magie. En ne regardant que cette « vraisemblance », c’est alors le voyage inter-dimensionnel qui est à privilégier.
  • Dans un cadre bayésien, c’est la probabilité a posteriori que nous devrions regarder. C’est le produit des deux quantités précédentes24. On trouve alors :

    \begin{equation*} \begin{split} \Prob{A_1}\Prob{P|A_1} &= 0.8 \times 0.1 = 0.08 \\ \Prob{A_2}\Prob{P|A_2} &= 0.0000001 \times 0.999 = 0.0000000999 \\ \Prob{A_3}\Prob{P|A_3} &= 0.1 \times 0.95 = 0.095 \end{split} \end{equation*}

Au final, l’hypothèse à privilégier est que Monsieur M. est magicien…
Dans l’utilisation classique du rasoir d’Ockham cette précision n’est pas faite et le terme « affirmation la plus parcimonieuse » peut prêter à confusion.
On peut donc résumer le calcul ainsi :

    \begin{equation*} \begin{split} & \text{Probabilité a posteriori (ou \textit{posterior})} = \\ & \text{curseur de vraisemblance non bayésien (ou\textit{ prior})} \times \text{vraisemblance} \end{split} \end{equation*}

Les termes posterior et prior sont communément utilisés dans le cadre bayésien comme indiqué dans la formule ci-dessus.

Maxime de Hume

Également appelée standard de Sagan, ou de Truzzi, ou de De Laplace25, cette maxime postule que « Une affirmation extraordinaire requiert une preuve extraordinaire ».
Ici encore, nous allons voir que le cadre bayésien permet de retrouver et de préciser cette affirmation. Reprenons à nouveau la formule de Bayes :

(2)   \begin{equation*}\Prob{\text{Affirmation}|\text{Preuve}} = \frac{\Prob{\text{Affirmation}}\Prob{\text{Preuve}|\text{Affirmation}}}{\Prob{\text{Preuve}}}\end{equation*}

Comme dit précédemment une affirmation est dite extraordinaire si elle est a priori très peu probable. Une telle affirmation vérifie donc \Prob{\text{Affirmation}} = \epsilon, où \epsilon est une quantité très petite. Pour que cette affirmation, une fois pris en compte le nouvel élément de preuve, soit vraisemblable, il faut donc une preuve qui mène à \Prob{\text{Affirmation}|\text{Preuve}} \approx1. On peut montrer que cette condition26 implique la relation suivante:

(3)   \begin{equation*}\Prob{\text{Preuve}} \ll \Prob{\text{Preuve}|\text{Affirmation}}\end{equation*}

Ainsi pour qu’une affirmation a priori extraordinaire devienne vraisemblable il faut donc que la probabilité d’observer la preuve soit beaucoup plus petite que la probabilité d’observer la preuve sachant l’affirmation (nous verrons un exemple plus loin). La formule de Hume se déduit simplement en observant que comme toute probabilité est inférieur ou égale à 1 on a \Prob{\text{Preuve}|\text{Affirmation}} \leq 1 et donc

(4)   \begin{equation*}\Prob{\text{Preuve}} \ll 1\end{equation*}

Ainsi la probabilité d’observer la preuve doit être très petite. En d’autres terme, la preuve doit être extraordinaire27 ! Ainsi, la formule de Bayes permet bien de démontrer la maxime de Hume.
Cependant la formule (3) en dit un petit peu plus :

la condition, \Prob{\text{Preuve}} \ll 1 n’est pas suffisante ! Il faut également que \Prob{\text{Preuve}} \ll \Prob{\text{Preuve}|\text{Affirmation}} et donc que la probabilité d’observer la preuve sachant l’affirmation ne soit pas trop petite ! C’est à dire qu’il faut que la preuve soit ordinaire si l’affirmation est vraie : \Prob{\text{Preuve}|\text{Affirmation}} \equiv 1.
On peut en déduire une nouvelle formulation pour la maxime de Hume.

Maxime de Hume bayésienne : Une affirmation extraordinaire requiert une preuve extraordinaire. Mais il faut aussi que la preuve soit ordinaire si l’affirmation est vraie.

Exemple :

Considérons l’affirmation A = « les licornes existent » que l’on peut qualifier d’extraordinaire. J’y octroie a priori une probabilité de un sur un milliard : \Prob{A} = 10^{-9} Pour que cette affirmation paraisse crédible, il faut donc observer une preuve P vérifiant \Prob{P} \ll \Prob{\text{P}|\text{A}}.
Considérons par exemple la preuve P_1 : « Quelqu’un a vu de loin une silhouette de cheval avec une corne sur le front ». Ce n’est pas une preuve si extraordinaire : il a pu se tromper, c’était peut-être une installation artistique, des petits malins ont pu attacher un postiche ou il a menti. J’estime la probabilité d’observer cela à un sur mille. On a donc \Prob{P_1} = 0.001. En revanche, il est clair que la probabilité que quelqu’un ait vu de loin une silhouette de cheval avec une corne sur le front sachant que les licornes existent est très élevée : P(P_1 | A) \approx 1.
On peut maintenant appliquer la formule de Bayes pour mettre à jour ma croyance en A sachant P_1 :

    \begin{align*} \Prob{A|P_1} & = \frac{\Prob{A}\Prob{P_1|A}}{\Prob{P_1}} = \frac{10^{-9} \times 1}{0.001} = 10^{-6} \end{align*}

Après cette preuve, j’octroie à l’existence des licornes une crédence de un sur un million. Cette preuve satisfaisait donc un seul des deux critères de la maxime de Hume bayésienne : elle est ordinaire si l’affirmation est vraie mais elle n’est pas extraordinaire en soi.
Au contraire prenons une autre preuve P_2 qui a une chance sur un milliard d’être observée : « J’ai fait 30 piles de suite ». La preuve est bien extraordinaire \Prob{P_2} \approx 10^{-9}. Mais là encore la preuve ne satisfait qu’un seul des deux critères de la maxime de Hume baysésienne : elle est extraordinaire mais elle n’est pas ordinaire si l’affirmation est vraie. En effet, ici les deux évènements sont décorrélés : l’existence de licorne ne rend pas plus ordinaire une suite de 30 piles P(P_2 | A) \approx 10^{-9}. Ça ne suffit donc pas à me convaincre. En l’occurrence la formule de Bayes donne:

    \begin{align*} \Prob{A|P_2} & = \frac{\Prob{A}\Prob{P_2|A}}{\Prob{P_2}} = \frac{10^{-9} \times 10^{-9}}{10^{-9}} = 10^{-9} \end{align*}

Ce deuxième cas est caricatural mais il soulève une erreur de logique : se contenter d’une preuve extraordinaire sans vérifier que cette preuve est beaucoup plus probable dans l’affirmation qu’elle cherche à valider.
Enfin une preuve satisfaisante pourrait donc être P_3 un article scientifique corroboré par plusieurs chercheurs et fournissant suffisamment d’informations sur l’existence de licornes et étayé par des vidéos et des photos. Une telle preuve serait tout à fait extraordinaire en soi (estimée pour l’exemple à une chance sur 800 millions) et totalement ordinaire si l’affirmation est vraie (estimée ici à 0.99\%). La formule de Bayes donne alors :

    \begin{align*} \Prob{A|P_3} & = \frac{\Prob{A}\Prob{P_3|A}}{\Prob{P_3}} = \frac{10^{-9} \times 0.99}{1.25*10^{-9}} = 0.792 \end{align*}

Ma crédence en l’existence des licornes est donc passé à environ 80\%.

Conclusion

Voilà donc quelques idées sur la complémentarité entre bayésianisme et zététique. Nous avons montré d’abord quelques écueils possible de la démarche zététique et comment le cadre bayésien permets en partie d’y répondre. Dans une dernière partie nous avons montré comment la formule de Bayes permet de retrouver et préciser deux principes de la zététique : le rasoir d’Ockham et la maxime de Hume.
Bien d’autres pièces restent à ajouter au puzzle afin d’obtenir un paradigme plus solide. Quid des autres principes de la zététique ? Des biais cognitifs et des sophismes ? Quid de la charge de la preuve ? Est-ce que la perspective bayésienne permet d’en dire quelque chose, voire d’enrichir ces concepts ? Néanmoins, à l’avenir, si votre recette zététique semble mécontenter votre auditoire, essayer d’y rajouter une pincée de bayésianisme pour la rendre plus légère.

Conférence Esprit critique et sciences ( Lycée Fourcade – D.Caroti) : quelques extraits

Dans le cadre d’une conférence donnée en novembre 2019 au lycée Marie Madeleine Fourcade de Gardanne, notre collègue Denis Caroti avait été filmé… Mais l’enregistrement n’ayant pas les qualités attendues, nous lui avons demandé de publier certains extraits de celle-ci, en mode diaporama commenté, extraits que nous publions à présent. Cette conférence, organisée par Véronique Bianchi pour la « cafèt des sciences », était à destination des élèves et des enseignants et personnels présents. Merci à ces derniers pour leur accueil chaleureux en coulisse ainsi que pour toute l’attention des élèves pendant cette intervention.

Esprit critique ?

Cette première « pastille » présente ce que l’on peut entendre par esprit critique en lien avec l’enquête et l’analyse de l’information : qu’est-ce que l’esprit critique et pourquoi s’en inquiéter ?

Quelques références pour aller plus loin :

Évaluer les preuves

Dans cette vidéo, après avoir défini la notion de preuve, on présente l’échelle des preuves ainsi que les différents sens du mot science, l’importance de préciser les types de registres qui s’entremêlent dans un débat ainsi que les limites et forces de la science en tant que démarche d’enquête et ensemble de connaissances.

Quelques références pour aller plus loin :

Prendre conscience de la limite de nos sens

Dans la vidéo suivante, on aborde la question de la faillibilité de nos sens à travers quelques exemples d’illusions d’optique classiques : l’objectif n’est pas de faire douter systématiquement de nos sens mais plutôt de faire comprendre qu’ils ne sont pas infaillibles : si l’on souhaite gagner en fiabilité, il sera alors utile (et rationnel) d’avoir recours à des preuves plus solides que notre seule expérience personnelle.

Pour aller plus loin :

  • Doit-on encore présenter le délectable cours en ligne de notre collègue et Cortexien de la première heure Richard Monvoisin qui aborde de nombreux exemples sur la limite de nos sens ?

Comment évaluer un témoignage ?

Dans cette partie, il est question d’apprendre à placer son curseur de vraisemblance en fonction du contenu du témoignage que l’on reçoit : toutes choses égales par ailleurs, plus une affirmation sort de l’ordinaire et des connaissances que l’on a, plus on doit exiger des preuves solides soutenant celle-ci. C’est, entre autre, ce que le philosophe David Hume relevait déjà il y a trois siècles dans son Enquête sur l’entendement humain mais aussi Laplace quelques années plus tard en écrivant : « De ce qui précède, nous devons généralement conclure que plus un fait est extraordinaire, plus il a besoin d’être appuyé de fortes preuves ; car, ceux qui l’attestent pouvant ou tromper ou avoir été trompés, ces deux causes sont d’autant plus probables que la réalité du fait l’est moins en elle-même. » (Théorie analytique des probabilités, 2e édition, 1812, p.17)

L’effet cigogne (ou comment ne pas confondre corrélation et causalité)

Dans cette vidéo, on aborde la fameuse confusion corrélation-causalité, que notre collègue Henri Broch a nommé « Effet cigogne » il y a déjà plusieurs années : un lien statistique entre deux variables (corrélation) n’implique pas forcément un lien de causalité entre celles-ci… Attention, la conclusion sur l’établissement du lien causal n’est pas l’objet de cette vidéo : pour en savoir davantage, voir les références ci-dessous.

Pour aller plus loin :

Effet paillasson et impostures intellectuelles

Dans cette dernière vidéo, on présente ce qu’a nommé Henri Broch « l’effet paillasson » ainsi que les dérives qui y sont liées, notamment en termes d’impostures intellectuelles dans le champ du soin (avec le recours au verbiage pseudoscientifique).

Pour aller plus loin :

La COVID-19? Un bon prétexte pour causer démarche scientifique

Les Presses Universitaires de Grenoble (PUG) ont profité de la crise du coronavirus pour proposer de la pensée critique au temps de cerveau disponible. Des membres et anciens membres du CORTECS ont ainsi pris la parole dans la série « Le virus de la recherche ». De belles pépites à lire et relire pour changer de Netflix.

« Non, non merci bien, moi vous savez le COVID ce n’est pas franchement ma tasse de thé… » On ne peut pas dire que Raul ait été d’emblée emballé par l’invitation des PUG. Il s’est finalement ravisé pour souligner que « contrairement aux activités de voyance, la science ne peut dire de l’avenir que ce que le passé nous permet d’inférer ». Une invitation à distinguer faits scientifiques et interprétation de ces faits, disponible en libre accès ici.

Nos deux amis, Nicolas et Richard, en routards de la pensée critique, invitent à la prudence quand il s’agit de se faire une opinion sur de telles questions de santé publique qui présentent un combo d’économie, d’infectiologie, de statistiques bayésiennes, de science politique et de philosophie morale. Grande est la tentation de donner son avis sur tout et n’importe quoi dans ce contexte.

À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille1 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience2.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience3. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »4

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier5 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée6. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.