En pratique, la naturopathie, ça donne quoi ?

Cet article (2/12) s’inscrit dans une série de douze articles sur la naturopathie rédigée avec la volonté de porter un regard détaillé et critique sur la discipline, et dont vous pourrez trouver le sommaire ici. Il ne s’agit pas de partir en quête d’une vérité absolue, mais d’alimenter des réflexions destinées à éviter de causer ou laisser perdurer des souffrances inutiles, de permettre à chacun.e de faire les meilleurs choix en termes de santé. Dans ce deuxième article, il s’agira de définir les modalités pratiques de la naturopathie.

Au regard du manque d’encadrement de la discipline, les pratiques observées en naturopathie sont très variables. On peut cependant dégager quelques points qui semblent communs à la quasi-totalité des naturopathes, et que je vais détailler ci-dessous.

Les naturopathes reçoivent leurs client.es en consultation individuelle, le plus souvent pour une durée minimale d’une heure. Une consultation est facturée en moyenne entre 50 et 80 euros, mais les tarifs sont très variables, notamment en fonction du lieu d’exercice. A la manière des professionnel.les de santé, les naturopathes mènent une anamnèse : c’est à dire qu’iels posent de nombreuses questions sur les antécédents médicaux de la personne, son histoire de vie, d’éventuels événements marquants, ses pathologies et troubles actuels, ses données de santé de manière plus générale (bilan biologique récent, poids, éventuels traitements en cours…), son activité professionnelle, ses habitudes en terme d’hygiène de vie (sommeil, tabac, activité physique, gestion du stress…), son environnement familial, ses habitudes alimentaires, son état émotionnel etc.

Iels vont aussi tenter d’évaluer la qualité du « terrain » en posant des questions censées donner des informations sur chacun des systèmes principaux de l’organisme (respiratoire, cardio-vasculaire, immunitaire, cutané, urinaire, digestif, hormonal, locomoteur et nerveux) et en observant certains détails de la physionomie de la personne reçue (pilosité, ongles, yeux/iridologie, traits du visage/morphopsychologie…). De ce dernier aspect découle la préférence des naturopathes pour les consultations en présentiel, car iels peuvent ainsi analyser de près leurs client.es.

A l’issue de ce long temps d’échange, où la personne reçue a l’occasion de s’exprimer librement et d’être écoutée (ou bien au fur et à mesure de la consultation), les naturopathes vont formuler des recommandations supposément destinées à préserver ou améliorer l’état de santé de cette personne. Le plus souvent il s’agira de recommandations diététiques (éviter absolument certains aliments, en privilégier d’autres, revoir ses habitudes alimentaires, composer ses repas autrement, changer de lieux d’approvisionnement etc) associées à des recommandations d’hygiène de vie (activité physique, sommeil, tabac…) et des recommandations de compléments alimentaires plus ou moins coûteux (gélules de plantes, minéraux, vitamines, huiles essentielles, probiotiques, complexes détox…). Il est fréquent que des recommandations relevant du développement personnel soient également prodiguées (outils de CNV, pensée positive, PNL…), ainsi que des exercices de gestion du stress (cohérence cardiaque, relaxation de Jacobson, méditation…) et des conseils d’ordre énergétique (exercice des bonhommes allumettes, lithothérapie, techniques réflexes, EFT…).

Les naturopathes étant considéré.es comme les « généralistes » des médecines dites alternatives, il est courant qu’iels renvoient leurs client.es vers des collègues perçu.es comme complémentaires : ostéopathes, sophrologues, kinésiologues, magnétiseurs, chamanes, praticien.nes de médecine traditionnelle chinoise (acupuncture), homéopathes, réflexologues, hypnothérapeutes, géobiologues etc. A moins d’être elleux-même formé.es à ces pratiques, auquel cas les naturopathes peuvent s’auto-recommander pour plusieurs séances supplémentaires…

Habituellement, les recommandations formulées par les naturopathes visent à suivre une logique bien établie, qui présente trois étapes distinctes et qui justifie un suivi régulier :

– En premier lieu, la cure de désintoxication, pour prétendument nettoyer et drainer l’organisme, le libérer des surcharges et toxines accumulées.

– Puis, la cure de revitalisation, supposément destinée à combler les carences et mettre en place des habitudes alimentaires et d’hygiène de vie optimales (c’est à dire qui soient moins sources de toxines et surcharges).

– Et enfin, la cure de stabilisation, censée permettre de maintenir les bénéfices acquis dans les précédentes phases, pour un parfait équilibre physique, émotionnel, et énergétique sur le long terme.

Notons que si certain.es naturopathes sont également professionnel.les de santé (médecins, infirmier.es, pharmacien.nes…), l’immense majorité ne le sont pas et exercent après une formation en naturopathie de durée et contenu extrêmement variables. Et encore, cela n’est pas obligatoire puisque, faute d’encadrement de la pratique, il est possible en France d’installer sa plaque de naturopathe et d’ouvrir son cabinet sans avoir suivi la moindre formation ni obtenu la moindre certification.

Et en matière de formation, on trouve absolument de tout : à distance ou en présentiel, sur quelques week-ends ou sur une année entière, avec ou sans période de stage, avec ou sans contrôle continu, certifiée par la fédération française de naturopathie ou pas, condensée en quelques dizaines de pages de pdf ou en des centaines d’heures de cours… Mais pour avoir eu l’occasion de comparer les enseignements prodigués dans une formation à distance à 69 euros et dans une formation en présentiel à presque 12.000 euros, je peux me permettre d’affirmer que l’essentiel du programme est identique.1

Et pour ce qui concerne la clientèle des naturopathes, un récent sondage nous apprend que 44 % des français.es auraient déjà eu recours à la naturopathie pour prévenir ou guérir des maladies. En tout, 4 % des français.es se soigneraient « principalement grâce à la naturopathie » et un quart jugent cette pratique « autant ou plus efficace que la médecine conventionnelle ».2

Pour lire les articles précédents et suivants de cette série sur la naturopathie : cliquer ici.

Regard critique sur la naturopathie

La naturopathie est une médecine alternative et complémentaire (MAC) particulièrement médiatisée ces derniers mois, notamment après le scandale relatif à l’hébergement sur Doctolib de nombreux.ses naturopathes1, mais aussi et surtout autour des désormais célèbres Irène Grosjean2, Thierry Casasnovas3 et Miguel Barthéléry4. On en parle beaucoup, mais au final, on en parle rarement de manière très précise.

Cette série d’articles a donc été rédigée avec la volonté de porter un regard détaillé et critique sur la discipline. Critiquer la naturopathie, en effet, mais je précise qu’il n’est pour autant pas question ici de remettre en cause les intentions louables des naturopathes, ni leur volonté sincère de prendre soin d’autrui. Il ne s’agit pas non plus de partir en quête d’une vérité absolue, mais d’alimenter des réflexions destinées à éviter de causer ou laisser perdurer des souffrances inutiles, de permettre à chacun.e de faire les meilleurs choix en termes de santé.

Le contenu de cette série d’articles concerne la naturopathie, mais comme vous pourrez le constater, beaucoup des aspects abordés concernent également la plupart des autres MAC, que ce soit dans les fondements philosophiques de la discipline, son rapport à la médecine ou bien encore ses effets thérapeutiques et ses dangers.

Les articles qui composent cette série sont listés dans le sommaire ci-dessous. Le premier article sera mis en ligne en même temps que cette introduction, la suite suivra à raison d’un article publié chaque semaine.

Bonnes lecture et réflexions !

Au sommaire :

Ce contenu est conçu pour être accessible aux personnes qui connaissent peu ou pas la naturopathie, ainsi qu’aux personnes n’ayant que peu ou pas de connaissances scientifiques ou médicales.

Les ressources partagées en note de bas de page n’indiquent pas que je suis en accord avec l’ensemble des positions des personnes à l’origine des articles, vidéos ou autres publications référencées. J’ai choisi de mentionner ces ressources car elles sont, au moment de la rédaction de ces articles, celles que j’estime les plus complètes et accessibles parmi celles dont j’ai connaissance.

Au passage, un grand MERCI à mes relecteurices !

La naturopathie, qu’est-ce que c’est ?

Cet article (1/12) s’inscrit dans une série de douze articles sur la naturopathie rédigée avec la volonté de porter un regard détaillé et critique sur la discipline, et dont vous pourrez trouver le sommaire ici.
Il ne s’agit pas de partir en quête d’une vérité absolue, mais d’alimenter des réflexions destinées à éviter de causer ou laisser perdurer des souffrances inutiles, de permettre à chacun.e de faire les meilleurs choix en termes de santé.

Dans ce premier article, il s’agira de définir dans les grandes lignes ce qu’est la naturopathie : sa définition, ses outils et ses prétentions.

Il existe plusieurs définitions de la naturopathie, cette discipline n’étant pas vraiment encadrée. Mais celle-ci, extraite des cours d’une école de la fédération française de naturopathie, semble plutôt complète :

« Fondée sur le principe de l’énergie vitale de l’organisme, la naturopathie rassemble les pratiques issues de la tradition occidentale et repose sur les 10 agents naturels de santé. Elle vise à préserver et optimiser la santé globale de l’individu, sa qualité de vie, ainsi qu’à permettre à l’organisme de s’auto-régénérer par des moyens naturels. »

Les 10 agents naturels de santé mentionnés dans cette définition sont les suivants :

  • La bromatologie = diététique, nutrition, conseils diététiques.
  • La chirologie = techniques manuelles (massage, ostéopathie, chiropraxie…).
  • La kinésilogie = activité physique, activité sportive, mouvement.
  • L’actinologie = bienfaits du soleil, de la lumière, des couleurs…
  • La psychologie= prendre soin du mental, du psychisme (psychothérapie, psychanalyse, sophrologie, hypnose, psychogénéalogie, fleurs de Bach, EMDR…).
  • La pneumologie = exercices respiratoires inspirés du yoga ou des arts martiaux notamment.
  • L’hydrologie = soins par l’eau (hydrothérapie du côlon, bains dérivatifs, sauna…).
  • La magnétologie = techniques énergétiques (reiki, biomagnétisme, chakras, aimants, lithothérapie…).
  • La phytologie = phytothérapie, compléments alimentaires à base de plantes (tisanes, teintures-mères, gélules de poudre de plantes, gemmothérapie, huiles essentielles/aromathérapie…).
  • La réflexologie = techniques réflexes (réflexologie plantaire, auriculothérapie, sympathicothérapie…).

On notera l’astuce qui consiste à remplacer le suffixe « -thérapie » par « -logie » (hydrologie au lieu d’hydrothérapie, phytologie au lieu de phytothérapie…) pour donner l’impression que l’on n’a pas de prétention thérapeutique.1 C’est voulu, et nous en reparlerons dans un prochain article.

Bien que revendiquant l’ancienneté de ses outils, la naturopathie est une discipline récente. Elle a en effet été conceptualisée au 19ème siècle seulement, inspirée des théories hygiénistes2 qui avaient cours à l’époque en Europe et aux États-Unis. Les fondateurs de la naturopathie (John Scheel, Benedict Lust et ceux qui ont complété leurs travaux) revendiquent une affiliation avec des médecines plus anciennes, notamment la médecine hippocratique, la médecine traditionnelle chinoise et l’ayurveda3, bien qu’il s’agisse en réalité de récupérations opportunistes de divers concepts ou outils susceptibles de coller avec le cadre récemment créé de la naturopathie.

Hippocrate

La naturopathie emprunte en effet ponctuellement aux médecines traditionnelles de tous les continents, qui sont plus ou moins remises au goût du jour. Par exemple avec les humeurs et tempéraments hippocratiques, l’énergie vitale (empruntée au prana hindouiste ou au chi de la médecine traditionnelle chinoise), le jeûne (d’inspiration religieuse), les soins à l’argile, la théorie des signatures4, etc. Ainsi, il n’est pas rare que les naturopathes revendiquent l’ancienneté de leurs outils comme preuve de leur efficacité : les pratiques anciennes (ou prétendues anciennes) de santé sont perçues comme meilleures car à la fois plus « naturelles » et plus « traditionnelles ». Cela constitue un appel à la tradition ou à l’ancienneté5. Il s’agit d’un argument fallacieux, car ce qui est perçu comme traditionnel ou ancien n’est bien évidemment pas nécessairement bon ou meilleur. En terme de santé et de médecine par exemple, on a fort heureusement abandonné de nombreuses pratiques traditionnelles qui ont pourtant eu un fort succès à une époque : les interventions chirurgicales sans anesthésie, les saignées systématiques, mais aussi la thériaque de Galien ou bien encore les remèdes à base de mercure ou d’urine de vache… Ainsi, le caractère « ancien » ou « traditionnel » d’une pratique ne dit absolument rien sur le fait qu’elle soit préférable ou pas. Pourtant, les naturopathes continuent à défendre une prétendue supériorité des thérapeutiques anciennes ou traditionnelles.

Pour lire les articles suivants de cette série sur la naturopathie : cliquer ici.

Effet placebo chez les animaux : est-ce si évident ?

Pour certain·es, c’est une évidence : les animaux non humains n’ont pas les capacités cognitives suffisantes pour être sensibles à l’effet placebo. Pour d’autres, les animaux expérimentent l’effet placebo au même titre que les humain·es. Mais la réalité n’est-elle pas plus complexe ?…

Un argument courant des pseudo-médecines

En travaillant sur la naturopathie animale, je suis tombé·e sur un argumentaire couramment employé pour défendre l’efficacité supposée de l’homéopathie, de l’acupuncture et d’autres techniques de soins non éprouvées : les soins énergétiques seraient efficaces, car ils fonctionneraient sur les animaux non humains qui, eux, ne seraient pas sensibles à l’effet placebo.

Or, je me suis rappelé·e avoir lu et entendu à maintes reprises dans des contenus produits par des personnes de la sphère sceptique / zététique, que si, les animaux non humains seraient sensibles à l’effet placebo. Le plus souvent sans plus de détail, ce qui laisse penser que l’effet placebo observé chez les animaux serait comparable à celui des observés chez les humain·es.

Dans un élan de curiosité (et dans le souci de ne pas tirer de conclusions hâtives sur ce sujet que je connaissais mal), j’ai pris le temps de mener quelques recherches sur l’effet placebo chez les animaux non humains. Et le moins que l’on puisse dire, c’est que ce n’est pas un sujet aussi simple qu’il n’y paraît au premier coup d’œil…

Conditionnement et suggestion

La définition de Wikipedia est assez claire :

« L’effet placebo correspond au résultat psycho-physiologique positif (bénéfique) constaté après l’administration d’une substance ou la réalisation d’un acte thérapeutique, indépendamment de l’efficacité intrinsèque attendue du traitement. »

Effet placebo, Wikipedia

Autrement dit, cela signifie que l’on peut observer des effets bénéfiques chez une personne à qui l’on a pourtant proposé une substance (ou un acte thérapeutique) dont on sait qu’elle est absolument inefficace pour traiter la problématique concernée. Cet effet placebo peut aussi être observé en l’absence de placebo (substance ou acte sans efficacité). Cela s’explique en raison de ce que l’on nomme les « effets contextuels ».

Parmi les mécanismes psycho-physiologiques à l’œuvre dans l’effet placebo observé chez les humain·es, on peut citer notamment :

  • La suggestion1 : par exemple, le fait qu’un médecin suggère à ses patient·es (sans même leur proposer de traitement) que leur état de santé va rapidement s’améliorer, induit des améliorations plus importantes que chez les patient·es auxquels le médecin n’a pas tenu ces propos rassurants. Un autre aspect du pouvoir de la suggestion peut s’observer, par exemple, lorsqu’un médecin suggère à ses patient·es qu’un traitement placebo aura des effets bénéfiques importants sur leur problématique : cela augmente de manière significative les effets bénéfiques ressentis par ces patient·es.
  • Le conditionnement2 : nous serions d’autant plus sensibles à l’effet placebo que nous avons été, par le passé, traités avec des médicaments efficaces, surtout si le placebo est administré sous une forme comparable à celle des médicaments pris par le passé. Ces effets résultent notamment de ce que l’on peut observer dans les mécanismes du conditionnement pavlovien.

Et chez les animaux non humains alors ? Pour commencer, ils ne semblent pas réceptifs au pouvoir de la suggestion. En effet, il sera probablement vain de chercher à potentialiser les effets d’un traitement administré à un chien, un chat ou un cheval en suggérant à l’animal que ce traitement est diablement efficace, en vantant sa supériorité sur d’autres traitements ou bien encore en valorisant le fait qu’il soit naturel…

Dans de nombres études cependant, on peut observer un effet placebo par conditionnement chez certains animaux : cela a notamment pu être observé concernant la réponse à la douleur, la réponse comportementale, ou bien encore l’immuno-modulation3. Les animaux semblent donc sensibles à l’une des composantes de l’effet placebo : le conditionnement (les chiens de Pavlov, ça vous dit quelque chose?). Ainsi, on peut observer dans certaines circonstances un effet placebo chez des animaux à qui on administre un traitement placebo en même temps qu’on les expose à un stimulus auquel on les a exposés lorsqu’on leur a administré par le passé un traitement éprouvé. Mais à ce sujet, les études sont parfois contradictoires et doivent conduire à la prudence. C’est ce que concluent notamment les auteurices de plusieurs études menées sur l’effet placebo par conditionnement sur la gestion de la douleur chez des rats : leurs résultats se contredisent et les amènent à conclure à la difficulté de penser des protocoles expérimentaux adaptés à l’évaluation de l’effet placebo chez les animaux4. Il serait donc un peu aventureux, en l’état de la recherche, de conclure à l’existence généralisée d’un effet placebo par conditionnement chez les animaux. Difficile en effet de conclure à de tels effets chez toutes les espèces (ce sont surtout les rats qui sont étudiés) et pour toutes les pathologies ou troubles.

Influence humaine

Un autre aspect important à prendre en considération, c’est l’influence du contact humain-animal sur la réponse observée chez un animal domestique à une intervention thérapeutique. Plusieurs études suggèrent en effet que la présence réconfortante d’un·e humain·e, les marques d’affection et de tendresse agiraient positivement sur certains paramètres physiologiques. C’est notamment le cas dans cette étude5 menée sur des chevaux, où les auteurices indiquent qu’ « une séance d’acupuncture ne présente pas plus de bénéfices pour le traitement de l’asthme équin que l’action de caresser les chevaux », ajoutant que « la manipulation et les caresses prodiguées aux chevaux qui sont sévèrement affectés par l’asthme équin apportent un soulagement au niveau de l’obstruction des voies respiratoires, que les aiguilles d’acupuncture soient utilisées ou pas. » (au sujet de l’acupuncture justement, Denis Caroti avait produit un article ici, qui évoque rapidement l’évaluation de l’acupuncture sur des souris)

Mais… ce que l’on observe surtout, c’est un effet placebo indirect, autrement nommé « effet placebo du soignant de l’animal » (« caregiver placebo effect » dans la littérature). Dans des études menées sur des chiens et des chats notamment, une proportion non négligeable de propriétaires et de soignant·es conclut en effet à l’efficacité d’un traitement placebo, en relevant une amélioration nette des symptômes, là où des mesures objectives concluent à une absence d’amélioration de l’état de santé des animaux concernés… Ainsi, les humain·es en charge des animaux domestiques auraient tendance à percevoir des effets inexistants lorsqu’on administre un traitement placebo à leurs animaux. Dans cette étude6 menée sur des chiens atteints d’arthrose par exemple, un tel effet placebo indirect a été observé aussi bien chez les propriétaires que chez les vétérinaires : en effet, environ 40 % des vétérinaires et 50 % des propriétaires ont observé une nette amélioration de la boiterie des chiens traités par placebo, alors que le traitement placebo n’avaient objectivement qu’un effet minime…

Cet effet placebo par procuration peut notamment s’expliquer par le fait que les humain·es sont particulièrement sensibles à divers facteurs qui leur font surestimer l’efficacité réelle d’une thérapie. « Le prix élevé d’une consultation, un diplôme ronflant, un thérapeute à la mode et une longue queue devant le cabinet jouent aussi sur l’évaluation de notre mieux-être consécutif au soin » (dixit Richard Monvoisin dans cet article qui décortique l’effet placebo et questionne la dimension alternative des médecines… alternatives !).

Le principal effet placebo observé dans la prise en charge thérapeutique des animaux ne concerne donc pas les animaux… mais les humain·es !

Que conclure ?

L’ensemble de ces mécanismes peut expliquer les améliorations perçues après des soins énergétiques ou un traitement homéopathique par exemple. Améliorations qui peuvent tenir à l’interaction avec des humain·es bienveillant·es, mais aussi à la perception biaisée que ces mêmes humain·es ont des traitements mis en œuvre… Cette perception risquant d’être d’autant plus biaisée lorsque les personnes impliquées dans les soins sont « engagées » dans des croyances fortes desquelles il serait coûteux de se dégager : on observe que ça fonctionne parce que l’on croit que ça fonctionne, parce que l’on veut que ça fonctionne.

Et même si cela n’est pas spécifique aux animaux, il me paraît important de mentionner deux points importants qui peuvent conduire à conclure (à tort) à l’efficacité de soins non éprouvés (ou à l’existence d’un effet placebo) :

  • Le caractère spontanément résolutif de bon nombre de pathologies : ces maladies qui guérissent seules après un certain temps, avec ou sans intervention de notre part. On aurait alors tendance à penser, à tort, que notre intervention est la cause de la guérison, alors que la guérison serait de toute façon intervenue seule dans les mêmes délais (voir l’effet atchoum, ou “post hoc ergo propter hoc”).
  • L’alternance de phases de rémission et de poussées aiguës dans d’autres maladies. On pourrait là encore penser à tort qu’un soin est la cause d’une rémission, alors qu’il s’agit de l’évolution naturelle de la maladie.

En bref, l’effet placebo chez les animaux, c’est clairement pas une évidence ! La nuance est de mise et les considérations abordées ici doivent conduire à la plus grande prudence lorsqu’il est question d’évaluer l’efficacité d’un traitement administré à des animaux, que ce soit dans le cadre d’une recherche expérimentale ou dans le cadre du suivi vétérinaire des animaux domestiques.

Résumé visuelle des 4 effets discutés ici : suggestion, conditionnement, comportement humain et interprétation humaine
Résumé visuel des 4 effets discutés ici : suggestion, conditionnement, comportement humain et interprétation humaine

Pour aller plus loin :

Article – David Ramey, « Is there a placebo effect for animals ? », 25 octobre 2008 : https://sciencebasedmedicine.org/is-there-a-placebo-effect-for-animals/

Article – Brennen McKenzie, « Presentation of placebos on animals », 8 mars 2018 : https://skeptvet.com/Blog/2018/03/presentation-of-placebos-in-animals/

Article – Emily Anthes, « A crucial blind spot in veterinary medecine », 7 novembre 2019 : https://www.theatlantic.com/science/archive/2019/11/danger-pet-placebo/601489/

Vidéo – Brennen McKenzie, « Placebos in pets », 20 novembre 2020 : https://www.youtube.com/watch?v=1QnIKJgpOVg

L’esprit jubile : recension de la BD « L’esprit critique »

Qu’est-ce que l’esprit critique ? On pense tous l’avoir mais sait-on vraiment le définir ? C’est la question à laquelle ont voulu répondre Isabelle Bauthian (biologiste de formation, scénariste et rédactrice culturelle et scientifique) et Gally (dessinatrice) dans cette bande-dessinée publiée aux éditions Delcourt (130 pages). Et… c’est tout bonnement une petite merveille !

Case issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 4.

D’un point de vue narratif et esthétique

Lors d’une soirée, Paul rencontre une jeune femme qui se présente comme druide. Après une discussion animée autour de photos de fées, Paul rentre chez lui, se connecte sur ses réseaux sociaux et déverse sa haine de l’irrationnel. C’est alors qu’il apparaît, enfin… elle : L’esprit critique !

On prend énormément de plaisir à faire un bout de chemin avec ces personnages extrêmement attachants. Paul, croyant en La science sans aucune méthode, perdu dans la complexité du monde qui s’ouvre devant lui grâce à Elle, doppelgänger métamorphe critique aux cheveux roses qui donne au lecteur une soif de connaissance comme jamais. Paul, c’est tout simplement nous qui découvrons cet univers de l’esprit critique. Il exprime nos interrogations et nos doutes sur cette conception à laquelle nous n’avons pas forcément beaucoup réfléchit. Elle, elle est l’incarnation de l’esprit critique et de sa perfectibilité.

Grâce à ses pouvoirs elle fait sortir Paul de son petit confort, de sa petite routine pour l’emmener vers des contrées inconnues (voyage dans le temps et dans l’espace). L’odyssée de Paul commence avec une plongée dans l’histoire des sciences, des bâtons d’Ishango à Kepler et Galilée en passant par les philosophe grecs (Platon, Thalès, Aristote, Ptolémée Anaximandre de Millet, etc.). On regrette juste l’absence d’une excursion auprès des premiers sceptiques à l’instar de Pyrrhon d’Élis. Le voyage de notre personnage se poursuit ensuite sur la méthode scientifique moderne (évaluation des hypothèses, principe de réfutabilité, notion de preuve, pseudo-sciences, etc.) puis sur la déconstruction partielle de nos systèmes cognitifs principalement avec l’approche des biais (tous représentés de manière très parlante). Le périple continue avec les méthodes d’évaluation de l’information (approches des statistiques, théière de Russell, évaluation d’une étude scientifique, sophismes, etc.) et se conclut sur une note de tolérance et sur les limites de l’esprit critique (distinction entre faits et foi, valeurs, importance des émotions, différences de points de vue idéologiques, politiques et sociaux). 

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 21.

D’un point de vue éducatif et pédagogique

L’alchimie du couple, l’humour malicieux, la bienveillance, la douceur du trait de Gally, la joie qui se dégage de cette BD… nous rend tous simplement heureux. C’est bête à dire, mais particulièrement pertinent dans un ouvrage qui veut nous faire sortir de notre zone de confort. Une tendresse véritable alimente des représentations réfléchies et travaillées en particulier au niveau du genre. Elle, l’esprit critique, est à la fois professeure, chercheuse, super-héroïne, militaire, dragonne, étudiante, etc. Autant de modèles hautement positifs et encourageants pour des secteurs où les femmes sont encore peu représentées allant de pair avec une mise en avant de femmes scientifiques (notamment l’astronome américaine Maria Mitchell) trop souvent invisibilisées par une historiographie grandement patriarcale.

C’est une mine d’or pour qui veut commencer à modeler son esprit critique avec des outils précis quoiqu’un peu survolés. Histoire des sciences et des idées, fonctionnement de la recherche moderne, biais cognitifs, sophismes et paralogismes, etc. Presque tout y est. Chaque planche, chaque case est d’une richesse incroyable. Certaines fonctionnent parfaitement en solitaire et pourraient être affichées dans les écoles, les collèges et les lycées (coup de cœur pour la planche de la « Méthode scientifique moderne »). On regrettera peut-être le rythme extrêmement intense de la BD qui transcrit l’enthousiasme de ses autrices mais sans doute trop soutenu pour un néophyte qui commencerait à s’y intéresser et qui devra sans aucun doute reprendre ses lectures plusieurs fois. Peut-être que plusieurs tomes auraient pu être à la fois plus détaillés et prendre plus de temps sur certains concepts. Mais ce n’est pas tellement gênant finalement puisque cette lecture est tellement plaisante qu’on prendra beaucoup de bonheur à s’y replonger.

En ce qui concerne « La » science, on aurait aimé une approche plus précise notamment des différents modes de construction des connaissances et non pas uniquement de la méthode hypothético-déductive ; et donc plutôt une approche « des » sciences. Par exemple, on regrettera, page 44, la formulation : « La science moderne est objective, expérimentale et autocorrective ». En effet, concernant l’objectivité, la sociologie des sciences nous a démontré le contraire ; tandis qu’au niveau de l’expérimentation, elle n’est pas l’apanage de tous les domaines. Quid de l’histoire, de la sociologie, etc.

Il faut donc voir cet ouvrage comme une vaste introduction, qui permettra au lecteur novice de savoir où creuser pour affiner ses outils de réflexion et de compréhension du monde. Et ça, c’est déjà pas mal !

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 46-47.

D’un point de vue humaniste

La bienveillance et la tendresse ne sortent pas de nulle part, mais bien d’une très grande confiance en l’être humain et en ses capacités. Dans cette époque morose où nous sommes submergés d’information, où les polémiques s’enchaînent, où la société se divise, où l’univers médiatique appuie l’idée que l’irrationalité semble l’emporter… c’est une sublime bouffée d’air frais. Nous pouvons changer, nous en tant qu’être humain, et finalement changer la société qui nous entoure en nous basant sur des outils simples et dont l’efficacité est vérifiable sans forcément se mettre au-dessus de la mêlée. Pratiquer l’esprit critique ce n’est pas devenir une machine apathique mais au contraire comprendre et maîtriser ses émotions « nécessaires au raisonnement ». Pratiquer l’esprit critique ce n’est pas défendre le scientisme, mais connaître les limites de nos connaissances et tracer la frontière entre les faits et nos opinions (même si les autrices préfère le terme « foi ») . On regrette un peu que les philosophies des lumières et leurs apports essentiels à l’émancipation des sciences n’aient pas été abordées, mais on pardonne facilement au vu de la richesse des connaissances déjà présentes.

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 56.

Pour conclure

En bref, on rigole, on est ému, on apprend, on voyage… C’est une véritable aventure initiatique à mettre entre toutes les mains… Bon, à partir d’un certain âge peut-être parce qu’assez ardue. De plus, certains concepts sont illustrés de manière… originale. L’explication de la différence entre moyenne et médiane avec la b*** de Rocco Siffredi reste mon préféré. Beaucoup de choses pourront vous sembler floues, complexes, dures à conceptualiser, mais ce n’est que le début de votre expédition en terre inconnue. Avec un peu de recherches extérieures pour recouper les sources – exercice ô combien sain et indispensable – vous arriverez à vous y retrouver. De plus, la bande dessinée propose une bibliographie et une section « pour aller plus loin ».

Pour les autres, ceux déjà rompus à l’exercice, vous y redécouvrirez les marottes du scepticisme et vous amuserez à trouver les différents easter egg zététiques et références geeks cachées un peu partout. Mais pour approfondir vos connaissances sur le sujet, ce n’est sans doute pas l’objet adapté. Dans tous les cas, si vous êtes convaincu, courez l’acheter et faites vivre ses autrices ; si vous n’êtes pas convaincu, courez l’acheter parce que vous manquez sans doute d’esprit critique. Comment ça un faux dilemme ?

Cases issues de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 93.

Peut-on modéliser le monde social ?

Suite à ma conférence donnée le samedi 26 mars 2022 à Bruxelles au skeptics in the pub organisé par le comité para, je reviens dans cet article sur quelques points, dans le but de préciser certaines choses en complément de mon intervention. On va (re)parler de modèles en sciences et en sciences sociales tout particulièrement, en prenant comme exemple le modèle de ségrégation urbaine dû à Thomas Schelling. Ensuite, je reviendrai sur des remarques et des questions qui ont été soumises lors de mon intervention et auxquelles je n’ai pas apporté, à mon goût, de réponse satisfaisante. Il est conseillé de visionner la conférence dans un premier temps afin d’avoir à l’esprit l’entièreté du contexte de la discussion, et en particulier l’ensemble des sources sur lesquelles je m’appuie et que je ne recite pas en détail ici.

Modéliser le social

Le but de ma conférence était de présenter certains contre-exemples à opposer à des arguments souvent entendus pour soutenir le fait que les sciences sociales, et la sociologie en particulier, doivent jouir d’une épistémologie à part. Elles seraient, dans leur essence même, différentes des sciences dites « naturelles » à tel point que les critères épistémologiques habituellement appliqués à ces dernières, par exemple le fameux falsicationnisme poppérien, ne pourraient avoir prise ou de pertinence à l’égard de leur scientificité.

Je ne reviens pas sur ces questions que j’ai déjà exposées un peu plus en détail dans mon intervention. D’autres articles s’y sont d’ailleurs attelés ici-même. Ce qui m’intéresse ici, c’est de revenir sur un des modèles que j’y ai présenté, à savoir le modèle de Thomas Schelling ayant pour but de modéliser certains aspects des processus de ségrégation urbaine.

Le modèle de Schelling

Ce modèle, hautement stylisé, considère un processus dynamique prenant place sur un quadrillage. Sur ce quadrillage, on considère des agents de deux types représentés par deux couleurs (par exemple, rouge et bleu) disposés initialement sans ordre précis, et laissant un certain nombre de cases vacantes. On encode ensuite une dynamique où, à chaque pas de temps, les agents rouges et bleus peuvent changer de place en suivant une règle extrêmement simple. Chaque agent a huit plus proches voisins que l’on appelle son voisinage, ou quartier. On considère que les agents d’une couleur donnée ont un certain degré de tolérance envers les agents de l’autre couleur : chaque agent accepte que son voisinage soit constitué d’un certain pourcentage d’agents d’autres couleurs. Si ce pourcentage est supérieur au seuil de tolérance, alors l’agent « déménage », c’est-à-dire prend, sur le quadrillage, la place vacante la plus proche qui le satisfait de nouveau. Or, en ayant déménagé, il a légérement changé le quartier d’où il est parti tout autant que le quartier où il est arrivé, ce qui a pour conséquence de modifier l’état dans lequel se trouvent les occupants de ce quartier : le seuil de tolérance de certains agents présents dans ces quartiers a peut-être été dépassé. S’en suit une réaction en chaine.

Simulation avec un seuil de tolérance de 50%.
(Crédit : https://github.com/b3rnoulli/schelling-segregation-model)

En simulant cette dynamique pour un grand nombre de pas de temps, on observe la chose suivante : même avec un seuil de tolérance relativement élevé, par exemple 70% (ce qui signifie que chaque agent accepte d’être entouré jusqu’à 70% d’agents de l’autre couleur), en partant d’une situation où tous les agents sont disposés au hasard, on obtient inéluctablement une forte ségrégation. Ce qui veut dire que, selon ce modèle, même des individus assez tolérants peuvent, sans même s’en rendre compte, prendre des décisions individuelles qui, une fois agrégées les unes avec les autres, finissent par produire une forte ségrégation au niveau macro-social. D’autre part, on observe aussi que si le seuil de tolérance est très bas, donc si on a des individus très peu tolérants, alors on obtient une situation assez instable où la ségrégation est, paradoxalement, très faible : les individus qui arrivent quelque part sont si peu tolérants qu’ils déménagent rapidement, avant qu’ait pu se former un voisinage leur ressemblant assez pour qu’ils restent.

Si vous êtes intéressés, vous pouvez faire jouer vous-même la simulation via ce site : https://ncase.me/polygons/ et tester plusieurs configurations et paramétrages de départ.

Un peu d’épistémologie des modèles

Ce modèle, comme tous les modèles, est stylisé à l’extrême et repose sur des hypothèses loin de recouvrir l’ensemble des réalités dont on a connaissance au sujet des phénomènes de ségrégation. Par exemple, les seuls facteurs intervenant dans la dynamique du processus sont les décisions des individus qui habitent la ville, réduits à des couleurs dans une case, et ne reposant que sur un choix binaire (rester/déménager) commandé par un seuil de tolérance. Beaucoup d’aspects, comme les politiques publiques en termes d’aménagement, parfois elles-mêmes ségrégationnistes, le marché de l’immobilier ou encore les décisions des propriétaires (parfois eux-mêmes racistes) ne sont pas implémentées dans ce modèle. En gardant en tête ces limites – et tout modèle, de la physique quantique à la génétique des populations, a ses limites – le modèle de Schelling nous dit-il tout de même quelque chose d’intéressant ?

Un modèle est une représentation simplifiée de la réalité et ce que l’on perd en détail, on le gagne en manipulabilité. En d’autres termes, il y a une sorte d’équilibre entre, d’une part, un niveau de détails que l’on veut atteindre, et d’autre part la facilité avec laquelle on peut le manipuler et donc lui faire dire des choses. Pensez à une carte géographique : si la carte est trop complexe, par exemple si c’est la carte d’une région et qu’elle représente chaque rue de toutes les villes de la région, cette complexité va empiéter sur ce que l’on va pouvoir faire de la carte, c’est-à-dire sur l’aide cognitive qu’elle va nous apporter pour nous repérer. Si elle est trop simple, alors elle sera plus facilement manipulable, mais, bien sûr, on pourra faire moins de choses avec. Par exemple, on saura que telle ville est au dessus de telle autre et qu’il faut prendre cette route pour les relier, par contre une fois arrivée dans la ville il faudra utiliser une autre source d’information pour trouver, par exemple, la meilleure pizzéria. Dans tous les cas, même si elle est très simple, l’important est qu’elle parvienne à capturer un certain aspect du monde et de ses mécanismes. L’équilibre à trouver entre complexité et manipulabilité dépend entièrement de ce que l’on veut faire avec ce modèle, c’est-à-dire quel aspect du monde on souhaite qu’il nous rende intelligible – et jusqu’à quelle précision. On sait que les hypothèses sur lesquelles il repose sont parcelaires et manquent de nombreux détails qui pour d’autres raisons sont extrêmement importants à prendre en compte, et une erreur serait de tomber, en physique comme en sociologie, dans un réalisme naïf qui nous fait directement prendre nos modèles pour ce à quoi ressemble la réalité que l’on tente d’approcher.

Pour revenir au modèle de Schelling, ce qui intéressant est que, justement, même dans le cas où des hypothèses pouvant expliquer plus directement la ségrégation (comme par exemple le racisme de certains propriétaires) ne sont pas prises en compte et qu’au niveau micro-social les agents seraient d’accord pour qu’il n’y ait pas de ségrégation, une ségrégation apparaît inéluctablement. Ce qu’il nous montre, ce n’est évidemment pas la réalité dans toute sa complexité – car, en fait, aucun modèle ne fait une telle chose. Utiliser ce modèle et en parler, ce n’est pas non plus nier que d’autres facteurs jouent également dans le phénomène de ségrégation – à moins d’être d’une extrême naïveté épistémologique ou bien de vouloir faire dire à ce modèle des choses qu’il ne dit pas, dans le but, par exemple, de minimiser des politiques racistes. Non, modéliser la ségrégation avec le modèle de Schelling, c’est simplement analyser le problème comme une composition de plusieurs phénomènes conjugués et extraire l’un de ces phénomènes supposés pour le modéliser à part. En regardant ce que ce simple phénomène produirait comme effet – ici un effet dit « pervers » où le résultat macro-social va à l’encontre des opinions ou des attentes micro-sociales – il nous apporte une information importante. Au niveau méthodologique, un modèle n’est ni plus ni moins qu’un guide cognitif, des planches en bois posées sur le sable mouvant de la réalité pour nous aider à la regarder de plus près.1

Notons que ce modèle possède par ailleurs un certain succès empirique, puisqu’aux États-Unis où la ségrégation raciale a été très étudiée, il apparaît que le niveau de tolérance au niveau individuel augmente au cours du temps alors qu’une ségrégation urbaine élévée se maintient encore aujourd’hui.

Pour plus d’informations à ce sujet, je ne peux que vous conseiller ce cours en vidéo (en anglais) du sociologue Thomas Grund sur la ségrégation en général et sur le modèle de Schelling en particulier. https://www.youtube.com/watch?v=me9DBTsmUgo

Ce type de modèles et d’approches du monde social se reconnaît sous le vocable de « sociologie analytique », un ensemble de programmes de recherche assez peu connus en France – où la sociologie repose plus traditionnellement sur une approche holiste. Notons que le processus d’idéalisation en sociologie n’est absolument pas nouveau puisque la notion de type idéal, qui recouvre bien cette idée de décrire une réalité complexe en en stylisant à l’extrême certains aspects, remonte à Max Weber (1920). 2

Ce n’est pas de la sociologie

Je voudrais maintenant aborder un type de commentaires que l’on m’a adressé pendant la conférence et auquel je voudrais donner ici une réponse un peu plus claire. Ce type de commentaires, le voici :

« C’est sympa, mais ce n’est pas de la sociologie ».

J’ai présenté dans ma conférence un exemple de résultat typique de l’approche mécanistique propre à la sociologie analytique : on parvient à reproduire une régularité empirique portant sur la distribution des votes lors d’élections proportionnelles dans de nombreux pays différents et à différentes époques – ce qui est déjà en soi un résultat intéressant – en modélisant simplement l’influence sociale de proche en proche à l’aide d’un modèle en réseaux. À chaque nœud du réseau, représentant un individu, l’influence qu’il peut avoir sur les personnes avec qui il est en contact est modélisée par une certaine probabilité de les convaincre de voter pour tel ou tel candidat. En mettant la bonne distribution de probabilité (de forme classique pour ce type de phénomènes), on reproduit effectivement la distribution finale des votes observée macroscopiquement.

On m’a fait la remarque que ce n’était pas de la sociologie, mais de la théorie des réseaux – c’est-à-dire un simple modèle mathématique. Or, certains éléments de ce modèle possèdent une signification empirique, c’est-à-dire font référence à des grandeurs mesurables. Certes, le phénomène est expliqué au sein d’un cadre où l’on a accepté de manière a priori certaines hypothèses – et en particulier la forme de la probabilité modélisant l’influence sociale de proche en proche sur le réseau. Une explication plus « profonde » consisterait à dériver cette hypothèse à partir d’autres hypothèses appartenant à la sociologie ou à la psychologie cognitive, par exemple. Mais ça n’en reste pas moins une explication sociologique puisqu’en supposant cela, on redérive de manière non triviale une observation empirique portant sur le monde social. On pourrait faire le parallèle avec les modèles en mécanique newtonienne : on modélise un phénomène à l’aide d’un ensemble de forces qui s’exercent sur un système, mais la forme même de ces forces n’est adoptée que parcequ’elles parviennent ainsi à redériver un certain nombre d’observations empiriques. Pour autant, ils restent des modèles explicatifs – c’est simplement que l’explication est adossée à un certain cadre que l’on doit se donner a priori, contenu dans ce que Imre Lakatos appelait le noyau dur des théories. Le modèle cité plus haut n’est donc pas un simple modèle de la théorie des réseaux, mais le modèle d’un phénomène social, puisqu’il contient des éléments qui ont une signification empirique et qui portent sur le monde social (ici, le nombre de votes qu’un candidat obtient, le nombre de candidats dans sa liste, etc.) De la même façon, par exemple, que la théorie de la relativité générale n’est pas simplement de la géométrie lorenztienne (le cadre mathématique dans lequel cette théorie est écrite) puisqu’elle contient des hypothèses de correspondance entre des éléments de ses modèles et des éléments observables empiriquement.

Il se trouve que l’on peut dériver certains résultats empiriques portant sur un aspect du monde social sans faire référence – ou alors d’une manière minimale – aux intentions des individus prenant part au processus. Si on regarde la taille des villes en fonction de leur rang, par exemple au sein d’un pays, on tombe quasiment à chaque fois sur la même distribution (dite « en loi de puissance ») qui est typique des phénomènes d’agrégation asymétriques (où des choses s’agrègent et ont plus de probabilité de s’agréger là où quelque chose est déjà agrégé). On retrouve la même distribution pour d’autres phénomènes qui ne sont pas sociaux, comme par exemple les amas d’étoiles. Il est assez étonnant qu’un phénomène comme l’expansion d’une ville, qui en soit fait intervenir un nombre incalculables d’intentions et d’intérêts conflictuels, mais aussi des facteurs non humains, etc. finissent par produire une telle régularité. On m’a alors rétorqué que si un modèle pouvait reproduire un phénomène social sans qu’il n’y ait rien d’humain dedans, c’est-à-dire qui marche même « si c’est pas des humains », alors ce n’était pas de la sociologie.

Il y a deux réponses à apporter ici. Premièrement, le comportement humain est, comme tout le reste, modélisé au sein d’une théorie de l’action servant de support à une explication basée sur l’exhibition de mécanismes microsociaux qui, une fois agrégés, reproduise le phénomène macro-social à expliquer. Il faut, très souvent, modéliser l’action humaine pour que le mécanisme explicatif puisse s’incarner. Certes, cette modélisation est souvent stylisée pour pouvoir être facilement manipulable au sein de modèles, mais il n’en reste pas moins qu’elle existe et est souvent nécessaire (mais parfois, non!) On modélise l’action humaine jusqu’à la finesse nécessaire pour reproduire ce que l’on cherche à reproduire – de la même façon que modéliser une planète comme un point matériel qui ne subit que la force du soleil est une approche très stylisée et qui repose sur des hypothèses que l’on sait, en quelque sorte, fausses, mais cela permet néanmoins de reproduire de manière non triviale un certain nombre d’observations.

Deuxièmement, cet argument, me semble-t-il, dissimule une circularité dans le raisonnement. Devant le constat que l’on peut modéliser certains phénomènes sociaux à l’aide d’une théorie de l’action on ne peut plus minimaliste, dire que ce n’est pas de la sociologie c’est déjà faire le présupposé d’à quoi doivent ressembler les explications en sociologie, donc cela ne permet pas d’écarter logiquement ce type d’explications (à base de modèles) puisque c’est la prémisse de laquelle ce raisonnement démarre. Si on part du principe que les explications en sociologie ne peuvent pas reposer sur des mécanismes fondés sur des modélisations stylisées de l’action inviduelle, alors face aux inombrables contre-exemples offerts par la sociologie analytique, on ne peut sortir de la circularité qu’en remettant en question ce principe. En effet, peut-être que les phénomènes sociaux, malgré la grande complexité avec laquelle ils peuvent nous apparaître, sont, dans certains de leurs aspects, modélisables bien plus simplement que ce que l’on croyait. C’est bien l’une des caractéristiques de la science de nous être parfois si subversive en ce qu’elle bouscule nos a priori et certainement nos croyances à propos de notre caractère si spécial en tant qu’humain et du fait que le social ne saurait être – même en partie – dompté par aucun modèle.

Conclusion : tout est modèle

Pour conclure, je pense qu’en fait même si on n’utilise pas de modèle aussi stylisé que ce qu’on a présenté, qu’on ne cherche pas à généraliser, qu’on en reste à aller voir en détail ce qui se passe sur le terrain, et que notre but est de décrire aussi précisément que possible ce qu’il s’y joue, il n’en reste pas moins qu’on est toujours en train… de faire un modèle. En effet, malgré le fait que nous sommes des êtres sociaux et que de ce fait le ou la sociologue peut interagir dans un langage naturel avec les sujets de son étude, il n’en reste pas moins que cette interaction est toute sauf « directe ». En effet, outre que la présence de l’ethnologue modifie l’objet même de sa recherche et qu’il existe un grand nombre de biais possibles bien connus de la profession, décrire une situation c’est déjà la styliser inmanquablement. Tout simplement parce que les mots que nous utilisons réfèrent à des catégories proprement humaines et à des concepts qui ne sont rien d’autres que des généralisations – par définition – idéaliséees. Un concept est déjà modélisateur. Une enquête de terrain, nécessaire à la connaissance sociologique, c’est déjà le modèle de quelque chose. On a déjà tranché dans la réalité sociale, on l’a déjà immanquablement simplifiée. On ne peut à aucun moment la connaître qu’à travers le cadre conceptuel que l’on se donne.

On ne peut donc récuser une approche basée sur des modèles (au sens de la sociologie analytique) sur le seul principe qu’ils simplifient la réalité, puisqu’il semble proprement impossible de faire autrement. Bien sûr, on peut montrer qu’ils la simplifient trop. Cela ne peut néanmoins pas reposer sur nos a priori d’à quoi elle devrait ressembler, puisque c’est justement nos modèles qui peuvent nous le dire en dernière instance ! Non, le seul juge reste la confrontation avec les données empiriques et les autres modèles concurrents. Cela et uniquement cela peut nous indiquer si la simplification a été trop un peu trop raide ou bien, le cas échéant, qu’elles en sont ses limites.

Croyances, connaissances et boule de neige

Quand nous abordons dans nos cours la question de la distinction entre croyances et savoirs (ou connaissances, je ne ferai pas la distinction ici), cette distinction repose sur un postulatqui pose bien des problèmes.Croyances et savoirs sont-ils, en effet, si facile de les distinguer ? L’objet d’une telle discussion anime les épistémologues depuis des lustres et en quelques heures ou lignes, il serait bien entendu illusoire d’apporter une réponse nuancée. Il est par contre possible de faire réfléchir à cette question, et de bien des manières. Nous proposons ici un atelier très simple à mettre en place, décliné sous la forme d’un débat boule de neige et permettant de faire émerger la complexité de cette problématique, donnant ensuite quelques pistes pour y répondre.

Le débat « boule de neige »

Principe du débat

Le débat « boule de neige » est, comme son nom l’indique, un débat permettant « d’accumuler » les contributions de plusieurs élèves/étudiants/personnes sur un sujet donné1. Il se déroule en différentes étapes et l’objectif est de faire participer toutes les personnes, pour échanger des arguments et construire une réponse collective sur un sujet donné. Chaque étape est chronométrée, permettant de rythmer les discussions. Seuls dans un premier temps, les participants se regroupent petit à petit en différentes « boules » pour échanger leurs arguments et discuter.

Déroulement du débat

Pour commencer, il faut tout d’abord choisir une affirmation, une phrase sur laquelle on souhaite faire réfléchir.

  • On commence le débat boule de neige par une phase de réflexion individuelle avec la consigne suivante : « Êtes-vous d’accord ou pas avec cette affirmation ? » puis « Trouver des raisons/arguments justifiant votre position. » Cette première étape peut durer entre une et trois minutes afin de laisser le temps à chacun de prendre conscience du problème posé par l’affirmation.
  • Dans une deuxième étape, on regroupe les participants deux par deux, toujours avec les même consignes auxquelles on ajoute qu’il faut maintenant présenter ses arguments et cerner les points d’accord et de désaccord. Cette phase peut durer entre deux et cinq minutes maximum : en effet, à deux, il arrive souvent que les arguments échangés ne soient pas très nombreux. Mieux vaut alors enchaîner sur l’étape suivante.
  • La troisième étape permet de regrouper par quatre les participants (on réunit les groupes précédents deux par deux). Les consignes sont identiques. C’est sans doute l’étape la plus prolifique et pertinente du débat, aussi prévoir entre 10 et 15 minutes est tout à fait raisonnable.
  • On réunit ensuite les « boules » de quatre pour former des groupes de huit, toujours avec les mêmes consignes, précédées de cette recommandation : « désignez une personne de chaque groupe pour résumer en quelques phrases les différents arguments avancés précédemment ». À huit, la discussion est souvent animée, mais on remarque aussi que certains peuvent prendre plus (trop) souvent la parole : l’occasion de rappeler quelques règles utiles comme le bâton de parole (avec restrictions sur le nombre de fois autorisées) ou la désignation d’un responsable donnant la parole au fur et à mesure des demandes (mains levées).
  • Selon la disposition de la salle et l’envie ou pas de l’animateur-trice, on peut former des groupes de seize. Mêmes consignes.
  • La dernière étape consiste à réunir tous les participants : debout, en cercle, tout le monde débat ensemble. Si un consensus se dégage, on peut demander de l’indiquer. Dans le cas contraire, on demande de rapporter les différents points de divergences.

  • Le rôle de l’animateur-trice dans toutes ces étapes est de gérer le temps et, dans la dernière étape, de s’occuper de la prise de parole du groupe (ou de désigner quelqu’un pour le faire). Pendant toute la durée des débats, il-elle circulera autour de chaque groupe, aidant ou relançant si nécessaire les participants à nuancer, envisager d’autres pistes, sans répondre directement aux questions portant sur le fond du sujet. Il est important de garder un certain retrait vis-à-vis des échanges de chaque groupe afin d’éviter au maximum le regard du « sachant » à un moment où chacun est invité à exprimer son point de vue de manière totalement égale aux autres.

Croyances ? Connaissances ?

Le choix de l’affirmation

Pour faire réfléchir et discuter élèves, étudiants ou enseignants en formation, j’ai toujours choisi la même affirmation : « Les croyances s’opposent aux connaissances« . Elle permet de faire émerger un ensemble de questions et de problèmes que les participants, ensemble, vont tenter de résoudre. Par le jeu des échanges, les personnes les plus convaincues dès le début se rendent compte que d’autres avis peuvent être légitimes, en fonction de la force des arguments avancés. Certains m’ont parfois suggéré d’inverser le sens de l’affirmation, ce que j’ai fait, sans observer de grands changements dans les débats entendus.

Points de vigilance

Le rôle de l’animateur du débat est crucial : il faut être capable de laisser débattre les participants sans intervenir comme signalé ci-dessus, mais il est aussi nécessaire de savoir relancer les échanges quand ceux-ci sont au point mort. On pourra par exemple poser des questions au groupe comme « Êtes-vous d’accord sur le sens du mot croyance ? » ou « D’après vous, quels types de croyances s’opposent aux connaissances ? ». On pourra également demander de bien penser à justifier chaque point de vue donné, ou encore de faire la liste des points d’accord ou de désaccord entre les participants.

On peut également conseiller, avant chaque nouvelle « boule », que chaque groupe distinct résume la teneur de ses échanges précédents, permettant ainsi de ne pas tout répéter et d’avancer dans le débat.

Quand arrive le regroupement à plus de 8, se pose la question de la parole. Après quelques minutes passées à débattre, je demande à chaque groupe s’il est satisfait de la manière dont se passent les échanges. Il se peut que laisser la gestion de la parole sans règle explicite fonctionne bien, mais on peut aussi donner quelques conseils comme utiliser un bâton de parole (ne parle que celle ou celui qui a le bâton ou quelque autre objet), ou désigner une personne responsable d’indiquer à qui vient le tour de parler.

Enfin, la dernière « boule » – le groupe entier donc – se réunit pour la dernière partie du débat. Il est alors utile de rappeler que l’objectif de ce dernier regroupement est de parvenir à exprimer de manière collective les différents avis qui ont émergés, avec leurs justifications, leurs arguments ou toutes raisons amenant à considérer qu’une opinion mérite d’être entendue.

Ce type de débat peut aussi être utilisé pour prendre une décision collective : la dernière étape étant utilisée pour faire émerger les différentes propositions et choisir parmi elles le cas échéant.

Quant à la manière d’utiliser ce débat pour traiter de la question de fond sur la différence entre croyances et connaissances, ce sera l’objet d’un prochain article.

L’effet Matilda ou l’invisibilisation des femmes de science

En pensée critique, on connaisait l’effet Mathieu 1 faisant référence à la moindre recognition (notamment en science) de ceux qui parte avec un capital de départ (matériel, social ou culturel) moins élévé. On doit à Margaret Rossiter, historienne des sciences états-unienne, une variante, l’effet Matilda, un clin d’oeil à la suffragiste, libre-penseuse, abolitionniste, Matilda J. Cage, une des premières à dénoncer l’absence des femmes dans les récits historiques et scientifiques.

Parmi les sans-droits et sans-noms des oubliettes de l’histoire des sciences, une écrasante majorité a en commun d’être de genre féminin. Les femmes scientifiques sont moins reconnues de leur vivant, notamment en raison de leur statut plus précaire et subordonné. 2 Leur contribution est aussi invisibilisée dans les récits scientifiques, par paresse – on s’attarde uniquement sur les figures, principalement masculines, déjà connues -, inertie ou biais sexiste.

Margaret W. Rossiter revient sur certaines de ces figures oubliées dans son article sur l’effet Matilda 3. Une des premières connues est Trota, une médecin de l’Italie du douzième siècle, qui documenta et traita, de manière inédite, des pathologies féminines. Son nom devint connu par l’action de son époux et de son fils, tous deux médecins également. Un moine, chargé de rédiger un traité sur la médecine au Moyen-Age, décida toutefois qu’une telle contribution ne pouvait être que le fait d’un homme et donna à son nom la forme latine masculine. Une erreur qui la fit passer, en tant qu’homme, à la prospérité. Il faudra attendre le vingtième siècle pour que cette erreur soit réctifiée par l’historien de la médecine allemand Karl Sudhoff, qui, au passage, dégrada sa qualification au rang d’assistante sage-femme, un statut qui retira toute mention à ses découvertes dans les ouvrages scientifiques postérieurs.

Trota – aussi appelée Trotula – représentée dans une gravure du quatorzième siècle.

Plus proche de nous, Frieda S. Robscheit-Robbins, doctoresse en médecine allemande experte du traitement de l’anémie, fut privée du Prix Nobel en 1934 au profit de son co-auteur. L’histoire retient par contre, sa « présence »et ses coiffes toujours élégantes 4. Si les femmes non- mariées sont d’office non reconnues, les travaux et découvertes des femmes mariées à d’autres scientifiques reviennent, quasi systématiquement, à leur conjoint, même dans les cas, nombreux, où leur contribution excède celle de leur partenaire masculin.

En qualifiant cette stratégie d’invisibilisation systématique, l’effet Matilda invite à accroître notre vigilance et à considérer, au moment de se pencher sur l’histoire des découvertes scientifiques, qu’il est fort probable que derrière chaque grand homme se cache non seulement une multitude de collaborateurs oubliés mais aussi un grand nombre de femmes.

Si vous faites partie de celles et ceux qui ont contribué à réparer cette injustice en effectuant des recherches sur des femmes scientifiques oubliées? Contactez nous !

La COVID-19? Un bon prétexte pour causer démarche scientifique

Les Presses Universitaires de Grenoble (PUG) ont profité de la crise du coronavirus pour proposer de la pensée critique au temps de cerveau disponible. Des membres et anciens membres du CORTECS ont ainsi pris la parole dans la série « Le virus de la recherche ». De belles pépites à lire et relire pour changer de Netflix.

« Non, non merci bien, moi vous savez le COVID ce n’est pas franchement ma tasse de thé… » On ne peut pas dire que Raul ait été d’emblée emballé par l’invitation des PUG. Il s’est finalement ravisé pour souligner que « contrairement aux activités de voyance, la science ne peut dire de l’avenir que ce que le passé nous permet d’inférer ». Une invitation à distinguer faits scientifiques et interprétation de ces faits, disponible en libre accès ici.

Nos deux amis, Nicolas et Richard, en routards de la pensée critique, invitent à la prudence quand il s’agit de se faire une opinion sur de telles questions de santé publique qui présentent un combo d’économie, d’infectiologie, de statistiques bayésiennes, de science politique et de philosophie morale. Grande est la tentation de donner son avis sur tout et n’importe quoi dans ce contexte.

À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille1 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience2.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience3. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »4

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier5 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée6. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.