À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille1 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience2.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience3. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »4

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier5 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée6. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.

Conseils d'ouvrages en philosophie des sciences (Croyance et Raison : Le problème de la démarcation)

Suite à la conférence « Croyance et Raison : Le problème de la démarcation » (vidéo disponible ici), donnée le 12 janvier 2017 par Albin Guillaud et Ismaël Benslimane pour des enseignantes et enseignants de philosophie, voici quelques conseils d’ouvrages permettant à la fois de s’outiller pour aborder une épistémologie de terrain (différents usages du mot « science », affirmation de type scientifique, matérialisme en méthode, etc.), et de mieux comprendre les mécanismes à l’œuvre derrières certaines croyances (complotismes, intrusions spiritualistes, théories controversées, etc.). Ce sont de précieux préalables à tout enseignement complet de la pensée critique avec un public lycéen ou étudiant.

 

Remarques

Comme de nombreux types de classification, les catégories de la présente bibliographie se recouvrent parfois. De nombreux ouvrages auraient donc pu être classés à plusieurs endroits différents. En outre, puisque la formation n’avait pas pour objet une introduction à la philosophie des sciences, nous n’avons pas fait figurer dans cette bibliographie les grands classiques sur le sujet (Popper, Duhem, Kuhn, etc.). Les commentaires entre parenthèses qui suivent certaines références sont les nôtres.

Bibliographie principale

Sur l’autodéfense intellectuelle et la zététique

  • Baillargeon Normand, Petit cours d’autodéfense intellectuelle, Montréal, Lux, 2006.
  • Broch Henri, L’art du doute ou Comment s’affranchir du prêt-à-penser, Valbonne, Éd. Book-e-book, 2008.
  • Broch Henri, Comment déjouer les pièges de l’information ou Les règles d’or de la zététique, Valbonne, Éd. Book-e-book, 2008.
  • Collectif CorteX (Saint-Martin d’Hères Isère), Esprit critique es-tu là ? : 30 activités zététiques pour aiguiser son esprit critique, Sophia-Antipolis, Éd. Book-e-book, 2013. Tout le matériel pédagogique contenu dans cet ouvrage se trouve ici
  • Pinsault Nicolas et Richard Monvoisin, Tout ce que vous n’avez jamais voulu savoir sur les thérapies manuelles, Saint-Martin-d’Hères, PUG, 2014.
  • Monvoisin Richard, Pour une didactique de l’esprit critique – Zététique & utilisation des interstices pseudoscientifiques dans les médias, Didactique des disciplines scientifiques, Saint-Martin-d’Hères, Université Grenoble 1 – Joseph Fourier, 2007.
    Document qui contient plusieurs types de matériaux pédagogiques. Cette thèse est accessible en ligne ici.

Sur les processus d’influence et les techniques de manipulation

  • Beauvois Jean-Léon, Les influences sournoises : précis des manipulations ordinaires, Paris, François Bourin, coll. « Société », 2011.
  • Cialdini Robert B, Influence & manipulation, Paris, First, 2004.
  • Joule Robert-Vincent et Jean-Léon Beauvois, Petit traité de manipulation à l’usage des honnêtes gens, Grenoble, Presses universitaires de Grenoble, 2014.
  • Milgram Stanley, Soumission à l’autorité un point de vue expérimental, Paris, Calmann-Lévy, 1984. (Ouvrage passionnant qui permet d’aller bien au-delà de ce que l’on peut apprendre de cette fameuse expérience par d’autres moyens. On apprendra par exemple que 20 conditions expérimentales différentes ont été réalisées et que les pré-tests effectués sans aucun rétrocontrôle conduisaient presque 100 % des sujets à aller jusqu’à 450 volts.)

Sur le paranormal et quelques théories controversées

  • Broch Henri, Gourous, sorciers et savants, Paris, Odile Jacob, 2007.
  • Charpak Georges et Henri Broch, Devenez sorciers, devenez savants, Paris, O. Jacob, 2003.
  • Broch Henri, Au cœur de l’extra-ordinaire, Sophia Antipolis (Alpes maritimes), Book-e-book, 2005. (Henri Broch s’est employé à l’approche scientifique des phénomènes réputés paranormaux et a utilisé ces mêmes phénomènes pour construire une initiation à la démarche scientifique tant dans son aspect constructif que sceptique.)

Plus de matériel sur ces thématiques dans la collection book-e-book : www.book-e-book.com

Sur la sociologie des croyances

  • Bronner Gérald, La démocratie des crédules, Paris, PUF, 2013.
    Origine du concept de « mille-feuille argumentatif ».
  • Bronner Gérald, La pensée extrême : comment des hommes ordinaires deviennent des fanatiques, Paris, Denoël, coll. « Denoël impacts », 2009. (Quelles sont les différences entre un collectionneur de timbre passionné, un culturiste et un fanatique religieux ? Il en existe de nombreuses, c’est évident. Cependant, il existe aussi des points communs dans le processus qui les a conduit à faire ce qu’ils font. C’est ce que démontre Gérald Bronner.)
  • Bronner Gérald, L’empire des croyances, 1re éd, Paris, Presses universitaires de France, coll. « Sociologies », 2003.

Comprendre le « matérialisme en méthode »

  • Bunge Mario Augusto, Le matérialisme scientifique, Paris, Éd. Syllepse, 2008.
  • Charbonnat Pascal, Histoire des philosophies matérialistes, Paris, Éditions Kimé, 2013.
  • Dubessy Jean, Guillaume Lecointre et Jacques Bouveresse (éd.), Intrusions spiritualistes et impostures intellectuelles en sciences, Paris, Syllepse, 2001. (C’est dans cet ouvrage que Guillaume Lecointre explique en quoi l’absence de distinction entre les différents sens du mot « science » (communauté, connaissances, applications, démarche) peut conduire à jeter le bébé (la démarche) avec l’eau du bain (les problèmes liés à la communauté, à l’instabilité de certaines connaissances et aux applications des connaissances).)
  • Silberstein Marc, Matériaux philosophiques et scientifiques pour un matérialisme contemporain − Sciences, ontologie, épistémologie, Paris, Éd. Matériologiques, 2013. (Les deux premiers chapitres en particulier.)

Épistémologie

  • Chalmers Alan Francis et Michel Biezunski, Qu’est-ce que la science ? Récents développements en philosophie des sciences : Popper, Kuhn, Lakatos, Feyerabend, Paris, Librairie générale française, 1990.
  • Dubessy Jean, Guillaume Lecointre et Jacques Bouveresse (éd.), Intrusions spiritualistes et impostures intellectuelles en sciences, Paris, Syllepse, 2001.
  • Haack Susan, Defending science–within reason, Amherst, N.Y, Prometheus Books, 2007.
    Les citations utilisées pendant la présentation sont disponibles en français ici.
  • Laudan L, « The Demise of the Demarcation Problem », dans R.S. Cohen et L. Laudan (éd.), Physics, Philosophy and Psychoanalysis: Essays in Honour of Adolf Grünbaum, Dordrecht, Springer Netherlands, 1983, p. 111‑128.
  • Lecointre Guillaume, Les sciences face aux créationnismes : ré-expliciter le contrat méthodologique des chercheurs, Versailles, Quae, coll. « Sciences en question », 2012.
  • Piaget Jean, « La situation des sciences de l’homme dans le système des sciences », dans Épistémologie des sciences de l’homme, Saint-Amand, Gallimard, coll. « Idées », 1970, p. 15-130.
  • Piaget Jean, Sagesse et illusions de la philosophie, 1. éd, Paris, Pr. Univ. de France, coll. « Quadrige », no 139, 1992. (Piaget analyse dans ce livre le rapport entre la philosophie, la science et la question des faits.)
  • Pigliucci Massimo et Maarten Boudry (éd.), Philosophy of Pseudoscience : Reconsidering The Demarcation Problem, 1ere édition, Chicago, University of Chicago Press, 2013.
  • Raynaud Dominique, Qu’est-ce que la technologie ?, Éditions Matériologiques, Paris, 2015. (Dominique Raynaud réalise une analyse philosophique et empirique du rapport entre science et technologie en évitant les écueils technophiles et technophobes.)
  • Raynaud Dominique, La Sociologie et sa vocation scientifique, Hermann, 2006. (Ouvrage plutôt technique dans lequel Raynaud effectue une critique épistémologique et empirique de la thèse d’une épistémologie régionale de la sociologie. C’est aussi un des meilleurs argumentaires à notre connaissance en faveur d’un monisme épistémologique. Avec une approche différente et sur le même sujet on pourra lire le chapitre de l’ouvrage de Jean Piaget « La situation des sciences de l’homme dans le système des sciences » dans Épistémologie des sciences de l’homme (voir ci-dessus).)
  • Raynaud Dominique, Sociologie des controverses scientifiques, Presses universitaires de France, 2003. (Raynaud présente dans cet ouvrage ses études socio-historiques de trois controverses scientifiques : la controverse entre Pasteur et Pouchet sur la génération spontanée en biologie, la controverse entre organicisme et vitalisme en médecine, et la controverse entre extramissionnisme et intramissionnisme en optique. Il utilise ces trois études pour réaliser une analyse de la méta-controverse en sociologie des sciences qui porte, ironie du sort, sur la façon d’aborder les controverses scientifiques. Il s’agit de la controverse entre rationalisme et relativisme. L’auteur examine également en détail si oui ou non Duhem, Quine et Wittgenstein peuvent être utilisés pour justifier le programme relativiste. On trouvera également dans ce livre l’explication de la cohabitation possible entre certitude et perfectibilité en science, ainsi que la description du cadre au sein duquel se trouve réconciliés vérificationnisme et falsificationnisme. Un ouvrage incontournable qui se lit aisément.)
  • Sagan Carl, The demon-haunted world: science as a candle in the dark, 1. ed, New York, NY, Ballantine Books, coll. « The New York Times bestseller », 1997.
    La citation utilisée dans notre conférence se trouve en ligne ici (en français).
  • Sokal Alan D et Jean Bricmont, Pseudosciences et postmodernisme : adversaires ou compagnons de route ?, Paris, O. Jacob, 2005. (Surtout la préface de Jean Bricmont et l’appendice B de Sokal et Bricmont. C’est dans la préface que l’on trouvera l’utile distinction entre aspect affirmatif et aspect sceptique de la science. Dans l’appendice B, les auteurs font état de leur positionnement dans le débat entre réalisme vs. idéalisme et sollipsisme, et entre réalisme scientifique vs. instrumentalisme. Le propos est d’une grande clarté.)
  • Sokal Alan D et Jean Bricmont, Impostures intellectuelles, Paris, O. Jacob, 1997. (Ouvrage qui a marqué les esprits. Concernant le propos de Bricmont, on peut écouter les présentations suivantes :

Bibliographie complémentaire

  • Bouveresse Jacques, Prodiges et vertiges de l’analogie : de l’abus des belles-lettres dans la pensée, Paris, Raisons d’agir : Diffusion Le Seuil, 1999.
    Cet ouvrage de Bouveresse a fait suite à Impostures intellectuelles de Sokal et Bricmont.
  • Bunge Mario, Evaluating Philosophies, Dordrecht, Springer Netherlands, 2012. (Bunge défend dans cet ouvrage une thèse originale : il est possible d’évaluer une philosophie à l’aune de sa capacité à permettre des progrès dans la connaissance du monde et en matière morale.)
  • Bunge Mario, Épistémologie, traduit par H. Donadieu, Maloine, Paris, 1983.
  • Harris Sam, The Moral Landscape, How Science Can Determine Human Values, Free Press, New York, 2010.

Pour approfondir certaines notions

Matériel audio sur des pseudosciences

Voici au gré de nos écoutes des émissions traitant de pseudosciences qui peuvent fournir des bases de réflexion et d’élaboration de contenu pédagogique. Si vous vous en servez, racontez-nous.

[Toc]

CorteX_crane_phrenologiePhrénologie

Émission de la Marche des sciences, sur France Culture : « De la bosse des maths à la théorie du criminel né : l’histoire de la phrénologie » diffusée le 25 décembre 2014.

L’histoire de la phrénologie est des plus étonnantes et des plus rocambolesques pour qui sait, aujourd’hui, comment fonctionne le cerveau. Mais au 18e siècle, des hommes comme François-Joseph Gall, fondateur de la théorie de la phrénologie, Pierre-Marie Alexandre Dumoutier ou encore Johann Gaspard Spurzheim, ont réussi à la promouvoir et à la populariser dans une société qui a cru en cette pseudoscience et qui la rendue célèbre dans les salons de l’époque.
Que nous a apporté la phrénologie en matière de connaissance du cerveau ? Quelles techniques scientifiques a t-on mis en place pour asseoir cette discipline ? Quel héritage en reste t-il ? Pour répondre à ces questions, nous avons choisi de nous immerger dans les réserves du Musée de l’Homme où moulages et crânes de cette époque sont précieusement conservés, nous y avons convié deux invités, Marc Renneville, chercheur au CNRS au centre Alexandre Koyré, directeur de publication de la plateforme Criminocorpus et auteur entre autre du livre Le langage des crânes paru aux Empêcheurs de penser en rond, et Philippe Mennecier directeur de collections au Museum national d’histoire naturelle de Paris.  

 

Ecouter

Télécharger (37Mo)