En pratique, la naturopathie, ça donne quoi ?

Cet article (2/12) s’inscrit dans une série de douze articles sur la naturopathie rédigée avec la volonté de porter un regard détaillé et critique sur la discipline, et dont vous pourrez trouver le sommaire ici. Il ne s’agit pas de partir en quête d’une vérité absolue, mais d’alimenter des réflexions destinées à éviter de causer ou laisser perdurer des souffrances inutiles, de permettre à chacun.e de faire les meilleurs choix en termes de santé. Dans ce deuxième article, il s’agira de définir les modalités pratiques de la naturopathie.

Au regard du manque d’encadrement de la discipline, les pratiques observées en naturopathie sont très variables. On peut cependant dégager quelques points qui semblent communs à la quasi-totalité des naturopathes, et que je vais détailler ci-dessous.

Les naturopathes reçoivent leurs client.es en consultation individuelle, le plus souvent pour une durée minimale d’une heure. Une consultation est facturée en moyenne entre 50 et 80 euros, mais les tarifs sont très variables, notamment en fonction du lieu d’exercice. A la manière des professionnel.les de santé, les naturopathes mènent une anamnèse : c’est à dire qu’iels posent de nombreuses questions sur les antécédents médicaux de la personne, son histoire de vie, d’éventuels événements marquants, ses pathologies et troubles actuels, ses données de santé de manière plus générale (bilan biologique récent, poids, éventuels traitements en cours…), son activité professionnelle, ses habitudes en terme d’hygiène de vie (sommeil, tabac, activité physique, gestion du stress…), son environnement familial, ses habitudes alimentaires, son état émotionnel etc.

Iels vont aussi tenter d’évaluer la qualité du « terrain » en posant des questions censées donner des informations sur chacun des systèmes principaux de l’organisme (respiratoire, cardio-vasculaire, immunitaire, cutané, urinaire, digestif, hormonal, locomoteur et nerveux) et en observant certains détails de la physionomie de la personne reçue (pilosité, ongles, yeux/iridologie, traits du visage/morphopsychologie…). De ce dernier aspect découle la préférence des naturopathes pour les consultations en présentiel, car iels peuvent ainsi analyser de près leurs client.es.

A l’issue de ce long temps d’échange, où la personne reçue a l’occasion de s’exprimer librement et d’être écoutée (ou bien au fur et à mesure de la consultation), les naturopathes vont formuler des recommandations supposément destinées à préserver ou améliorer l’état de santé de cette personne. Le plus souvent il s’agira de recommandations diététiques (éviter absolument certains aliments, en privilégier d’autres, revoir ses habitudes alimentaires, composer ses repas autrement, changer de lieux d’approvisionnement etc) associées à des recommandations d’hygiène de vie (activité physique, sommeil, tabac…) et des recommandations de compléments alimentaires plus ou moins coûteux (gélules de plantes, minéraux, vitamines, huiles essentielles, probiotiques, complexes détox…). Il est fréquent que des recommandations relevant du développement personnel soient également prodiguées (outils de CNV, pensée positive, PNL…), ainsi que des exercices de gestion du stress (cohérence cardiaque, relaxation de Jacobson, méditation…) et des conseils d’ordre énergétique (exercice des bonhommes allumettes, lithothérapie, techniques réflexes, EFT…).

Les naturopathes étant considéré.es comme les « généralistes » des médecines dites alternatives, il est courant qu’iels renvoient leurs client.es vers des collègues perçu.es comme complémentaires : ostéopathes, sophrologues, kinésiologues, magnétiseurs, chamanes, praticien.nes de médecine traditionnelle chinoise (acupuncture), homéopathes, réflexologues, hypnothérapeutes, géobiologues etc. A moins d’être elleux-même formé.es à ces pratiques, auquel cas les naturopathes peuvent s’auto-recommander pour plusieurs séances supplémentaires…

Habituellement, les recommandations formulées par les naturopathes visent à suivre une logique bien établie, qui présente trois étapes distinctes et qui justifie un suivi régulier :

– En premier lieu, la cure de désintoxication, pour prétendument nettoyer et drainer l’organisme, le libérer des surcharges et toxines accumulées.

– Puis, la cure de revitalisation, supposément destinée à combler les carences et mettre en place des habitudes alimentaires et d’hygiène de vie optimales (c’est à dire qui soient moins sources de toxines et surcharges).

– Et enfin, la cure de stabilisation, censée permettre de maintenir les bénéfices acquis dans les précédentes phases, pour un parfait équilibre physique, émotionnel, et énergétique sur le long terme.

Notons que si certain.es naturopathes sont également professionnel.les de santé (médecins, infirmier.es, pharmacien.nes…), l’immense majorité ne le sont pas et exercent après une formation en naturopathie de durée et contenu extrêmement variables. Et encore, cela n’est pas obligatoire puisque, faute d’encadrement de la pratique, il est possible en France d’installer sa plaque de naturopathe et d’ouvrir son cabinet sans avoir suivi la moindre formation ni obtenu la moindre certification.

Et en matière de formation, on trouve absolument de tout : à distance ou en présentiel, sur quelques week-ends ou sur une année entière, avec ou sans période de stage, avec ou sans contrôle continu, certifiée par la fédération française de naturopathie ou pas, condensée en quelques dizaines de pages de pdf ou en des centaines d’heures de cours… Mais pour avoir eu l’occasion de comparer les enseignements prodigués dans une formation à distance à 69 euros et dans une formation en présentiel à presque 12.000 euros, je peux me permettre d’affirmer que l’essentiel du programme est identique.1

Et pour ce qui concerne la clientèle des naturopathes, un récent sondage nous apprend que 44 % des français.es auraient déjà eu recours à la naturopathie pour prévenir ou guérir des maladies. En tout, 4 % des français.es se soigneraient « principalement grâce à la naturopathie » et un quart jugent cette pratique « autant ou plus efficace que la médecine conventionnelle ».2

Pour lire les articles précédents et suivants de cette série sur la naturopathie : cliquer ici.

La naturopathie, qu’est-ce que c’est ?

Cet article (1/12) s’inscrit dans une série de douze articles sur la naturopathie rédigée avec la volonté de porter un regard détaillé et critique sur la discipline, et dont vous pourrez trouver le sommaire ici.
Il ne s’agit pas de partir en quête d’une vérité absolue, mais d’alimenter des réflexions destinées à éviter de causer ou laisser perdurer des souffrances inutiles, de permettre à chacun.e de faire les meilleurs choix en termes de santé.

Dans ce premier article, il s’agira de définir dans les grandes lignes ce qu’est la naturopathie : sa définition, ses outils et ses prétentions.

Il existe plusieurs définitions de la naturopathie, cette discipline n’étant pas vraiment encadrée. Mais celle-ci, extraite des cours d’une école de la fédération française de naturopathie, semble plutôt complète :

« Fondée sur le principe de l’énergie vitale de l’organisme, la naturopathie rassemble les pratiques issues de la tradition occidentale et repose sur les 10 agents naturels de santé. Elle vise à préserver et optimiser la santé globale de l’individu, sa qualité de vie, ainsi qu’à permettre à l’organisme de s’auto-régénérer par des moyens naturels. »

Les 10 agents naturels de santé mentionnés dans cette définition sont les suivants :

  • La bromatologie = diététique, nutrition, conseils diététiques.
  • La chirologie = techniques manuelles (massage, ostéopathie, chiropraxie…).
  • La kinésilogie = activité physique, activité sportive, mouvement.
  • L’actinologie = bienfaits du soleil, de la lumière, des couleurs…
  • La psychologie= prendre soin du mental, du psychisme (psychothérapie, psychanalyse, sophrologie, hypnose, psychogénéalogie, fleurs de Bach, EMDR…).
  • La pneumologie = exercices respiratoires inspirés du yoga ou des arts martiaux notamment.
  • L’hydrologie = soins par l’eau (hydrothérapie du côlon, bains dérivatifs, sauna…).
  • La magnétologie = techniques énergétiques (reiki, biomagnétisme, chakras, aimants, lithothérapie…).
  • La phytologie = phytothérapie, compléments alimentaires à base de plantes (tisanes, teintures-mères, gélules de poudre de plantes, gemmothérapie, huiles essentielles/aromathérapie…).
  • La réflexologie = techniques réflexes (réflexologie plantaire, auriculothérapie, sympathicothérapie…).

On notera l’astuce qui consiste à remplacer le suffixe « -thérapie » par « -logie » (hydrologie au lieu d’hydrothérapie, phytologie au lieu de phytothérapie…) pour donner l’impression que l’on n’a pas de prétention thérapeutique.3 C’est voulu, et nous en reparlerons dans un prochain article.

Bien que revendiquant l’ancienneté de ses outils, la naturopathie est une discipline récente. Elle a en effet été conceptualisée au 19ème siècle seulement, inspirée des théories hygiénistes4 qui avaient cours à l’époque en Europe et aux États-Unis. Les fondateurs de la naturopathie (John Scheel, Benedict Lust et ceux qui ont complété leurs travaux) revendiquent une affiliation avec des médecines plus anciennes, notamment la médecine hippocratique, la médecine traditionnelle chinoise et l’ayurveda5, bien qu’il s’agisse en réalité de récupérations opportunistes de divers concepts ou outils susceptibles de coller avec le cadre récemment créé de la naturopathie.

Hippocrate

La naturopathie emprunte en effet ponctuellement aux médecines traditionnelles de tous les continents, qui sont plus ou moins remises au goût du jour. Par exemple avec les humeurs et tempéraments hippocratiques, l’énergie vitale (empruntée au prana hindouiste ou au chi de la médecine traditionnelle chinoise), le jeûne (d’inspiration religieuse), les soins à l’argile, la théorie des signatures6, etc. Ainsi, il n’est pas rare que les naturopathes revendiquent l’ancienneté de leurs outils comme preuve de leur efficacité : les pratiques anciennes (ou prétendues anciennes) de santé sont perçues comme meilleures car à la fois plus « naturelles » et plus « traditionnelles ». Cela constitue un appel à la tradition ou à l’ancienneté7. Il s’agit d’un argument fallacieux, car ce qui est perçu comme traditionnel ou ancien n’est bien évidemment pas nécessairement bon ou meilleur. En terme de santé et de médecine par exemple, on a fort heureusement abandonné de nombreuses pratiques traditionnelles qui ont pourtant eu un fort succès à une époque : les interventions chirurgicales sans anesthésie, les saignées systématiques, mais aussi la thériaque de Galien ou bien encore les remèdes à base de mercure ou d’urine de vache… Ainsi, le caractère « ancien » ou « traditionnel » d’une pratique ne dit absolument rien sur le fait qu’elle soit préférable ou pas. Pourtant, les naturopathes continuent à défendre une prétendue supériorité des thérapeutiques anciennes ou traditionnelles.

Pour lire les articles suivants de cette série sur la naturopathie : cliquer ici.

Regard critique sur la naturopathie

La naturopathie est une médecine alternative et complémentaire (MAC) particulièrement médiatisée ces derniers mois, notamment après le scandale relatif à l’hébergement sur Doctolib de nombreux.ses naturopathes8, mais aussi et surtout autour des désormais célèbres Irène Grosjean9, Thierry Casasnovas10 et Miguel Barthéléry11. On en parle beaucoup, mais au final, on en parle rarement de manière très précise.

Cette série d’articles a donc été rédigée avec la volonté de porter un regard détaillé et critique sur la discipline. Critiquer la naturopathie, en effet, mais je précise qu’il n’est pour autant pas question ici de remettre en cause les intentions louables des naturopathes, ni leur volonté sincère de prendre soin d’autrui. Il ne s’agit pas non plus de partir en quête d’une vérité absolue, mais d’alimenter des réflexions destinées à éviter de causer ou laisser perdurer des souffrances inutiles, de permettre à chacun.e de faire les meilleurs choix en termes de santé.

Le contenu de cette série d’articles concerne la naturopathie, mais comme vous pourrez le constater, beaucoup des aspects abordés concernent également la plupart des autres MAC, que ce soit dans les fondements philosophiques de la discipline, son rapport à la médecine ou bien encore ses effets thérapeutiques et ses dangers.

Les articles qui composent cette série sont listés dans le sommaire ci-dessous. Le premier article sera mis en ligne en même temps que cette introduction, la suite suivra à raison d’un article publié chaque semaine.

Bonnes lecture et réflexions !

Au sommaire :

Ce contenu est conçu pour être accessible aux personnes qui connaissent peu ou pas la naturopathie, ainsi qu’aux personnes n’ayant que peu ou pas de connaissances scientifiques ou médicales.

Les ressources partagées en note de bas de page n’indiquent pas que je suis en accord avec l’ensemble des positions des personnes à l’origine des articles, vidéos ou autres publications référencées. J’ai choisi de mentionner ces ressources car elles sont, au moment de la rédaction de ces articles, celles que j’estime les plus complètes et accessibles parmi celles dont j’ai connaissance.

Au passage, un grand MERCI à mes relecteurices !

À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille1 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience2.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience3. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »4

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier5 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée6. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.

Conseils d'ouvrages en philosophie des sciences (Croyance et Raison : Le problème de la démarcation)

Suite à la conférence « Croyance et Raison : Le problème de la démarcation » (vidéo disponible ici), donnée le 12 janvier 2017 par Albin Guillaud et Ismaël Benslimane pour des enseignantes et enseignants de philosophie, voici quelques conseils d’ouvrages permettant à la fois de s’outiller pour aborder une épistémologie de terrain (différents usages du mot « science », affirmation de type scientifique, matérialisme en méthode, etc.), et de mieux comprendre les mécanismes à l’œuvre derrières certaines croyances (complotismes, intrusions spiritualistes, théories controversées, etc.). Ce sont de précieux préalables à tout enseignement complet de la pensée critique avec un public lycéen ou étudiant.

 

Remarques

Comme de nombreux types de classification, les catégories de la présente bibliographie se recouvrent parfois. De nombreux ouvrages auraient donc pu être classés à plusieurs endroits différents. En outre, puisque la formation n’avait pas pour objet une introduction à la philosophie des sciences, nous n’avons pas fait figurer dans cette bibliographie les grands classiques sur le sujet (Popper, Duhem, Kuhn, etc.). Les commentaires entre parenthèses qui suivent certaines références sont les nôtres.

Bibliographie principale

Sur l’autodéfense intellectuelle et la zététique

  • Baillargeon Normand, Petit cours d’autodéfense intellectuelle, Montréal, Lux, 2006.
  • Broch Henri, L’art du doute ou Comment s’affranchir du prêt-à-penser, Valbonne, Éd. Book-e-book, 2008.
  • Broch Henri, Comment déjouer les pièges de l’information ou Les règles d’or de la zététique, Valbonne, Éd. Book-e-book, 2008.
  • Collectif CorteX (Saint-Martin d’Hères Isère), Esprit critique es-tu là ? : 30 activités zététiques pour aiguiser son esprit critique, Sophia-Antipolis, Éd. Book-e-book, 2013. Tout le matériel pédagogique contenu dans cet ouvrage se trouve ici
  • Pinsault Nicolas et Richard Monvoisin, Tout ce que vous n’avez jamais voulu savoir sur les thérapies manuelles, Saint-Martin-d’Hères, PUG, 2014.
  • Monvoisin Richard, Pour une didactique de l’esprit critique – Zététique & utilisation des interstices pseudoscientifiques dans les médias, Didactique des disciplines scientifiques, Saint-Martin-d’Hères, Université Grenoble 1 – Joseph Fourier, 2007.
    Document qui contient plusieurs types de matériaux pédagogiques. Cette thèse est accessible en ligne ici.

Sur les processus d’influence et les techniques de manipulation

  • Beauvois Jean-Léon, Les influences sournoises : précis des manipulations ordinaires, Paris, François Bourin, coll. « Société », 2011.
  • Cialdini Robert B, Influence & manipulation, Paris, First, 2004.
  • Joule Robert-Vincent et Jean-Léon Beauvois, Petit traité de manipulation à l’usage des honnêtes gens, Grenoble, Presses universitaires de Grenoble, 2014.
  • Milgram Stanley, Soumission à l’autorité un point de vue expérimental, Paris, Calmann-Lévy, 1984. (Ouvrage passionnant qui permet d’aller bien au-delà de ce que l’on peut apprendre de cette fameuse expérience par d’autres moyens. On apprendra par exemple que 20 conditions expérimentales différentes ont été réalisées et que les pré-tests effectués sans aucun rétrocontrôle conduisaient presque 100 % des sujets à aller jusqu’à 450 volts.)

Sur le paranormal et quelques théories controversées

  • Broch Henri, Gourous, sorciers et savants, Paris, Odile Jacob, 2007.
  • Charpak Georges et Henri Broch, Devenez sorciers, devenez savants, Paris, O. Jacob, 2003.
  • Broch Henri, Au cœur de l’extra-ordinaire, Sophia Antipolis (Alpes maritimes), Book-e-book, 2005. (Henri Broch s’est employé à l’approche scientifique des phénomènes réputés paranormaux et a utilisé ces mêmes phénomènes pour construire une initiation à la démarche scientifique tant dans son aspect constructif que sceptique.)

Plus de matériel sur ces thématiques dans la collection book-e-book : www.book-e-book.com

Sur la sociologie des croyances

  • Bronner Gérald, La démocratie des crédules, Paris, PUF, 2013.
    Origine du concept de « mille-feuille argumentatif ».
  • Bronner Gérald, La pensée extrême : comment des hommes ordinaires deviennent des fanatiques, Paris, Denoël, coll. « Denoël impacts », 2009. (Quelles sont les différences entre un collectionneur de timbre passionné, un culturiste et un fanatique religieux ? Il en existe de nombreuses, c’est évident. Cependant, il existe aussi des points communs dans le processus qui les a conduit à faire ce qu’ils font. C’est ce que démontre Gérald Bronner.)
  • Bronner Gérald, L’empire des croyances, 1re éd, Paris, Presses universitaires de France, coll. « Sociologies », 2003.

Comprendre le « matérialisme en méthode »

  • Bunge Mario Augusto, Le matérialisme scientifique, Paris, Éd. Syllepse, 2008.
  • Charbonnat Pascal, Histoire des philosophies matérialistes, Paris, Éditions Kimé, 2013.
  • Dubessy Jean, Guillaume Lecointre et Jacques Bouveresse (éd.), Intrusions spiritualistes et impostures intellectuelles en sciences, Paris, Syllepse, 2001. (C’est dans cet ouvrage que Guillaume Lecointre explique en quoi l’absence de distinction entre les différents sens du mot « science » (communauté, connaissances, applications, démarche) peut conduire à jeter le bébé (la démarche) avec l’eau du bain (les problèmes liés à la communauté, à l’instabilité de certaines connaissances et aux applications des connaissances).)
  • Silberstein Marc, Matériaux philosophiques et scientifiques pour un matérialisme contemporain − Sciences, ontologie, épistémologie, Paris, Éd. Matériologiques, 2013. (Les deux premiers chapitres en particulier.)

Épistémologie

  • Chalmers Alan Francis et Michel Biezunski, Qu’est-ce que la science ? Récents développements en philosophie des sciences : Popper, Kuhn, Lakatos, Feyerabend, Paris, Librairie générale française, 1990.
  • Dubessy Jean, Guillaume Lecointre et Jacques Bouveresse (éd.), Intrusions spiritualistes et impostures intellectuelles en sciences, Paris, Syllepse, 2001.
  • Haack Susan, Defending science–within reason, Amherst, N.Y, Prometheus Books, 2007.
    Les citations utilisées pendant la présentation sont disponibles en français ici.
  • Laudan L, « The Demise of the Demarcation Problem », dans R.S. Cohen et L. Laudan (éd.), Physics, Philosophy and Psychoanalysis: Essays in Honour of Adolf Grünbaum, Dordrecht, Springer Netherlands, 1983, p. 111‑128.
  • Lecointre Guillaume, Les sciences face aux créationnismes : ré-expliciter le contrat méthodologique des chercheurs, Versailles, Quae, coll. « Sciences en question », 2012.
  • Piaget Jean, « La situation des sciences de l’homme dans le système des sciences », dans Épistémologie des sciences de l’homme, Saint-Amand, Gallimard, coll. « Idées », 1970, p. 15-130.
  • Piaget Jean, Sagesse et illusions de la philosophie, 1. éd, Paris, Pr. Univ. de France, coll. « Quadrige », no 139, 1992. (Piaget analyse dans ce livre le rapport entre la philosophie, la science et la question des faits.)
  • Pigliucci Massimo et Maarten Boudry (éd.), Philosophy of Pseudoscience : Reconsidering The Demarcation Problem, 1ere édition, Chicago, University of Chicago Press, 2013.
  • Raynaud Dominique, Qu’est-ce que la technologie ?, Éditions Matériologiques, Paris, 2015. (Dominique Raynaud réalise une analyse philosophique et empirique du rapport entre science et technologie en évitant les écueils technophiles et technophobes.)
  • Raynaud Dominique, La Sociologie et sa vocation scientifique, Hermann, 2006. (Ouvrage plutôt technique dans lequel Raynaud effectue une critique épistémologique et empirique de la thèse d’une épistémologie régionale de la sociologie. C’est aussi un des meilleurs argumentaires à notre connaissance en faveur d’un monisme épistémologique. Avec une approche différente et sur le même sujet on pourra lire le chapitre de l’ouvrage de Jean Piaget « La situation des sciences de l’homme dans le système des sciences » dans Épistémologie des sciences de l’homme (voir ci-dessus).)
  • Raynaud Dominique, Sociologie des controverses scientifiques, Presses universitaires de France, 2003. (Raynaud présente dans cet ouvrage ses études socio-historiques de trois controverses scientifiques : la controverse entre Pasteur et Pouchet sur la génération spontanée en biologie, la controverse entre organicisme et vitalisme en médecine, et la controverse entre extramissionnisme et intramissionnisme en optique. Il utilise ces trois études pour réaliser une analyse de la méta-controverse en sociologie des sciences qui porte, ironie du sort, sur la façon d’aborder les controverses scientifiques. Il s’agit de la controverse entre rationalisme et relativisme. L’auteur examine également en détail si oui ou non Duhem, Quine et Wittgenstein peuvent être utilisés pour justifier le programme relativiste. On trouvera également dans ce livre l’explication de la cohabitation possible entre certitude et perfectibilité en science, ainsi que la description du cadre au sein duquel se trouve réconciliés vérificationnisme et falsificationnisme. Un ouvrage incontournable qui se lit aisément.)
  • Sagan Carl, The demon-haunted world: science as a candle in the dark, 1. ed, New York, NY, Ballantine Books, coll. « The New York Times bestseller », 1997.
    La citation utilisée dans notre conférence se trouve en ligne ici (en français).
  • Sokal Alan D et Jean Bricmont, Pseudosciences et postmodernisme : adversaires ou compagnons de route ?, Paris, O. Jacob, 2005. (Surtout la préface de Jean Bricmont et l’appendice B de Sokal et Bricmont. C’est dans la préface que l’on trouvera l’utile distinction entre aspect affirmatif et aspect sceptique de la science. Dans l’appendice B, les auteurs font état de leur positionnement dans le débat entre réalisme vs. idéalisme et sollipsisme, et entre réalisme scientifique vs. instrumentalisme. Le propos est d’une grande clarté.)
  • Sokal Alan D et Jean Bricmont, Impostures intellectuelles, Paris, O. Jacob, 1997. (Ouvrage qui a marqué les esprits. Concernant le propos de Bricmont, on peut écouter les présentations suivantes :

Bibliographie complémentaire

  • Bouveresse Jacques, Prodiges et vertiges de l’analogie : de l’abus des belles-lettres dans la pensée, Paris, Raisons d’agir : Diffusion Le Seuil, 1999.
    Cet ouvrage de Bouveresse a fait suite à Impostures intellectuelles de Sokal et Bricmont.
  • Bunge Mario, Evaluating Philosophies, Dordrecht, Springer Netherlands, 2012. (Bunge défend dans cet ouvrage une thèse originale : il est possible d’évaluer une philosophie à l’aune de sa capacité à permettre des progrès dans la connaissance du monde et en matière morale.)
  • Bunge Mario, Épistémologie, traduit par H. Donadieu, Maloine, Paris, 1983.
  • Harris Sam, The Moral Landscape, How Science Can Determine Human Values, Free Press, New York, 2010.

Pour approfondir certaines notions

Matériel audio sur des pseudosciences

Voici au gré de nos écoutes des émissions traitant de pseudosciences qui peuvent fournir des bases de réflexion et d’élaboration de contenu pédagogique. Si vous vous en servez, racontez-nous.

[Toc]

CorteX_crane_phrenologiePhrénologie

Émission de la Marche des sciences, sur France Culture : « De la bosse des maths à la théorie du criminel né : l’histoire de la phrénologie » diffusée le 25 décembre 2014.

L’histoire de la phrénologie est des plus étonnantes et des plus rocambolesques pour qui sait, aujourd’hui, comment fonctionne le cerveau. Mais au 18e siècle, des hommes comme François-Joseph Gall, fondateur de la théorie de la phrénologie, Pierre-Marie Alexandre Dumoutier ou encore Johann Gaspard Spurzheim, ont réussi à la promouvoir et à la populariser dans une société qui a cru en cette pseudoscience et qui la rendue célèbre dans les salons de l’époque.
Que nous a apporté la phrénologie en matière de connaissance du cerveau ? Quelles techniques scientifiques a t-on mis en place pour asseoir cette discipline ? Quel héritage en reste t-il ? Pour répondre à ces questions, nous avons choisi de nous immerger dans les réserves du Musée de l’Homme où moulages et crânes de cette époque sont précieusement conservés, nous y avons convié deux invités, Marc Renneville, chercheur au CNRS au centre Alexandre Koyré, directeur de publication de la plateforme Criminocorpus et auteur entre autre du livre Le langage des crânes paru aux Empêcheurs de penser en rond, et Philippe Mennecier directeur de collections au Museum national d’histoire naturelle de Paris.  

 

Ecouter

Télécharger (37Mo)