À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille1 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience2.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience3. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »4

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier5 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée6. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.

Enseignement Scientifique et Esprit Critique : comment s'y prendre ?

En mai 2018 paraissait une « Note d’analyses et de propositions sur les programmes du lycée et sur les épreuves du baccalauréat« , publiée par le Conseil Supérieur des Programmes. On y trouvait, entre autre, la description d’un nouvel enseignement : l’enseignement scientifique. Celui-ci sera présent dès la rentrée 2019 dans les emplois du temps de tous les élèves de Première des lycées généraux et technologiques (puis de Terminale à la rentrée en 2020), dans le tronc commun, c’est-à-dire qu’il sera obligatoire.

Dans ce document, on trouvait les orientations que devait prendre un tel enseignement. Et en y regardant de plus près, quelques phrases et mots clés nous ont rappelé une thématique que nous connaissons bien au Cortecs, extraits choisis : « […] cet enseignement permettra à tous les élèves des classes de première et terminale de se familiariser avec les raisonnements et les démarches caractéristiques de la science telle qu’elle s’est développée depuis l’époque moderne et d’identifier les principales étapes de la construction, du développement et de l’évolution des théories scientifiques. » […], il s’agira d’aiguiser le jugement des élèves pour qu’ils puissent, en toute autonomie de pensée, distinguer ce qui relève du savoir et ce qui appartient au registre du préjugé. La dimension rationnelle des savoirs et des méthodes scientifiques constituera, en effet, le fil continu de cet enseignement […] ».
Aussi, nos collègues Delphine Laugier et Denis Caroti, bien aidés par Sabrina Ben Brahim (tous les trois formateurs·trices sur la thématique Esprit critique et Sciences et enseignant·e·s de physique-chimie) se sont pris au jeu et ont élaboré un document présentant une organisation possible de cet enseignement, le découpant en thématiques et séquences pédagogiques. Ce document a été remis en juin 2018 au groupe d’élaboration d’un projet de programme en charge de l’enseignement scientifique, et il est téléchargeable ci-dessous. Bien entendu ce document n’est ni exhaustif, ni définitif, et reste modifiable en fonction des retours et autres améliorations que nos collègues y porteront. Il est surtout diffusable et partageable.
A télécharger : Enseignement scientifique et esprit critique

Les TPEc : travaux personnels encadrés critiques et démarche d'investigation en classe de première

Nous sommes nombreux·ses, pour les plus jeunes d’entre nous, à avoir enduré l’épreuve des TPE (Travaux Personnels Encadrés) en classe de première générale. Beaucoup y traînent des pieds, certain·e·s s’investissent énormément mais dans tous les cas on ne retrouve souvent que des lieux communs, des sujets un peu « classiques » qui amènent souvent les élèves à recopier ou reformuler des TPE des années précédentes trouvés sur le Web. Sachant que cet enseignement est le lieu d’une grande liberté pour les élèves, cela faisait un certain temps que je pensais y insuffler de la pensée critique dans le but de développer la démarche scientifique de manière concrète et atteignable. Voici quelques propositions pour quiconque aura envie de s’amuser un peu en TPE.

Le contexte

Les TPE constituent une épreuve du baccalauréat lors de laquelle les élèves doivent réaliser une démarche de groupe afin de répondre ou tenter de répondre à une problématique de leur cru. L’évaluation se fait suivant trois composantes : le suivi par les enseignant·e·s qui encadrent le TPE pendant la moitié de l’année, la production du groupe et l’oral (sorte de soutenance de la production). Les TPE sont présents pour les séries L, ES et S en première et constituent une épreuve anticipée du bac.

Les élèves doivent trouver un thème d’étude et poser une problématique à laquelle ils devront tenter de répondre par une recherche documentaire, par des expérimentations, par des rencontres de professionnel·les, visites et autres questionnaires.

La production peut prendre la forme d’un dossier, d’un site Web, d’une vidéo, d’un magazine, d’une exposition… bref, tout est permis ! Leur sujet doit normalement tomber dans un des six thèmes nationaux proposés par le Ministère (au passage, on pourra se délecter critiquement de ce nouveau thème sorti cette année, commun aux trois séries et totalement dans l’ère Macron1). Ces thèmes étant très larges, on peut donc avoir une certaine liberté d’action. Enfin, les TPE sont encadrés par plusieurs enseignant·e·s de matières différentes et les élèves doivent traiter un sujet faisant intervenir au moins deux matières.

Pourquoi les TPE ?

Pour ma part, étant enseignant de SVT (Sciences de la vie et de la Terre), j’ai suivi des élèves de 1ère S. Je pense que l’on peut proposer des thèmes de pensée critique dans les autres filières (ES et L) même si la démarche et la problématisation sont légèrement différentes. Tout cela part d’un constat souvent partagé entre filières : les élèves trouvent des thèmes d’étude un peu « bateau » et aboutissent à des problématiques n’amenant qu’à un « simple » exposé et non à une démarche de recherche originale. L’intérêt pour les élèves est donc de pouvoir trouver une problématique n’amenant pas une réponse « directe » mais ouvrant vers une réelle recherche personnelle. C’est là où j’y vois un intérêt pour la pensée critique et particulièrement pour la démarche zététique qui est un bon marche-pied pour développer l’enseignement de la démarche expérimentale et la recherche de preuves. En effet, trouver des sujets d’études peu étudiés, stimulants, pris dans  les controverses scientifiques ou les sujets-frontières entre science et croyance… permet aux élèves de mettre en place une réelle démarche d’investigation où ils·elles pourront tester et vérifier des affirmations de type scientifique.

Un cheval de Troie

En théorie, les enseignant·e·s ne sont pas sensés orienter les élèves sur tel ou tel sujet. Mais c’est là que le bât blesse (cf. plus haut) et je me suis mis en tête de leur proposer de travailler sur des thèmes liés au paranormal, aux phénomènes étranges, aux thérapies dites alternatives et croyances sociales. Pour des 1ère S, cela est orienté vers la démarche scientifique mais j’imagine déjà pas mal de thèmes pour les ES et les L (la condition animale, le genre, les conflits d’intérêts, la main invisible du marché, la répartition des pouvoirs dans un établissement scolaire, etc…). J’ai donc décidé de les orienter plus ou moins implicitement sur des sujets de cet ordre.

La démarche

Au final, je n’ai pas produit énormément de matériel pédagogique étant donné que les TPE sont essentiellement du travail personnel des élèves. Les premières séances sont généralement dédiées à l’explication des TPE, la notion de problématique et les bases de la recherche documentaire. J’en ai donc profité pour faire une séance autour de la démarche scientifique et de la problématique pour influer des notions de zététique.

Nous étions en charge, avec mes trois collègues, de deux classes de 1ère S. L’équipe était constituée d’un enseignant de physique-chimie, d’un enseignant de mathématiques, et de deux enseignant·e·s de SVT. Nous avons procédé à une première séance lors de laquelle nous avons présenté les TPE et avons laissé les élèves parcourir les thèmes nationaux et commencer à trouver un thème d’étude. Dès la deuxième séance, nous avons scindé le groupe (environ 60 élèves) en trois sous-groupes qui allaient tourner sur trois ateliers pendant trois heures. Pendant qu’un groupe était en recherche libre, l’autre était avec la documentaliste pour une formation à la recherche documentaire et le dernier groupe était avec moi pour une présentation zététique / démarche scientifique / problématique.

La présentation

La présentation se développe selon trois grands axes :

  • Une partie plutôt basée sur de l’épistémologie, et j’y développe la notion d’affirmation de type scientifique pour enchaîner sur le distinguo acte de foi vs. remport d’adhésion permettant d’amener au statut du témoignage et enfin à l’explication alternative (et donc le rasoir d’occam)
  • Une partie permettant de présenter les thèmes liés à la zététique en parcourant des choses comme l’archéo-fiction, la cryptozoologie, les pouvoirs du corps et les médecines dites alternatives. Je finis par la perception des probabilités pour arriver à l’idée que le « bizarre est probable »
  • Une dernière partie qui devrait prendre 30 minutes et qui s’intéresse à la démarche scientifique avec la notion de reproductibilité, le témoin, la taille et la représentativité de l’échantillon, l’aveugle et le double aveugle en finissant sur l’effet paillasson pour bien leur faire comprendre qu’ils·elles doivent travailler sur un sujet précis possédant une seule assertion dans le langage commun.

L’objectif de tout cela est de leur faire insuffler l’idée de trouver un sujet intriguant sur lequel ils·elles exercent leur curiosité et se fassent plaisir notamment à trouver des protocoles originaux.

J’insiste sur le fait qu’un « bon » TPE doit comporter des expérimentations mais pour ne pas leur faire trop peur, je leur dis aussi qu’un TPE avec une recherche documentaire solide qui croise des informations ou basé sur des analyses de données (épidémiologie par exemple) est tout aussi satisfaisant.

Je leur ai ensuite mis sur le réseau du lycée un document avec une multitude de thèmes issus des sujets traités par les étudiant·e·s de l’enseignement zététique de Richard Monvoisin sur plusieurs années ainsi que certains sujets proposés par Guillemette Reviron ou même cette magnifique page wikipédia sur les médecines non conventionnelles que m’a proposé Nelly Darbois.

Le matériel utilisé

Pour un peu plus de détail, voici le déroulé de la présentation avec les quelques vidéos que j’ai pu utiliser. La présentation est téléchargeable sous licence CC-by-SA :

Au format diaporama LibreOffice

Au format PDF

Je l’ai laissée telle quelle, mais il faut enlever des parties (voir plus bas, les erreurs commises).

Je questionne les élèves sur ce que leur renvoie le terme « science » pour proposer les quatre définitions du mot « science » et insister sur le fait que je ne parlerai que de la démarche scientifique.

Je présente quelques types d’informations/affirmations en donnant des exemples pour chaque pour ensuite arriver sur la particularité des affirmations de type scientifique. Je demande ensuite ce qui distingue une affirmation scientifique des autres types d’affirmation. J’ai pu remarquer que les élèves avaient de grandes facilités pour dire que l’affirmation scientifique est « testable ». Je donne ensuite quelques exemples d’affirmations de type scientifique (une pub de médium, des recettes de cuisine, du soin par magnétisme).

Cela nous amène à la notion du statut du témoignage et à la maxime de Hume. Cela permet de leur faire comprendre qu’un témoignage récolté n’est pas une preuve dans leur TPE mais aussi qu’ils·elles peuvent se baser sur un témoignage extraordinaire pour commencer à rechercher des preuves solides à ce témoignage.

Crédits : Cyrille Barrette
Crédits : Cyrille Barrette

On arrive tout doucement au rasoir d’Occam : face à un témoignage et une explication coûteuse à un phénomène, il est de logique d’épuiser d’abord les hypothèses alternatives moins coûteuses. Je présente une situation bizarre (un caribou pendu sur les fils d’un poteau électrique2) pour leur faire sortir des hypothèses puis leur donne la réponse3.

Je leur montre cette vidéo qui est sensée démontrer par l’humour cette notion du rasoir d’Occam mais au vu du peu de réactions de la part des élèves, je pense qu’il faut peut-être en trouver une autre. Richard Monvoisin me suggère d’utiliser la vidéo de Jeanne d’Arc présente sur cet article relatif au rasoir d’Occam. Un très bon épisode de Kaamellot existe également mais nous avons du le supprimer, voir l’article en question.

Je leur présente ensuite le cas des combustions humaines dites « spontanées »4 pour leur donner une idée de recherche d’explications scientifiques et cognitivement peu coûteuses.

Vient ensuite la présentation de divers thèmes de zététique (cryptozoologie, thérapies alternatives, archéo-fiction, pouvoirs du corps…).

Je fais un petit laïus sur le perceptions des probabilités à partir de la séquence suivante que j’ai montée à partir de différentes vidéos sur le Web. Cela me permet d’insister sur le tri des données (cette vidéo est un peu longue et on peut passer un peu plus rapidement à certains moments).

Télécharger

Cela permet de faire le lien avec les faits « extraordinaires ». Je commence avec cette vidéo mythique de la tourterelle explosant en plein vol suite à un lancer de Randy Johnson, le 24 mars 2001.

Télécharger

Les « miracles » de Lourdes permettent d’aborder la question de l’extraordinarité : des guérisons extraordinaires se produisent-elles à Lourdes, et si oui, se réalisent-elles à un taux supérieur à tout autre endroit, aux hôpitaux publics par exemple ? 5 Cela permet de montrer que le « bizarre est probable » et de leur faire prendre du recul sur les chiffres qu’ils·elles peuvent trouver, de les mettre en perspective d’une situation.

À partir de là, je développe les outils de la démarche expérimentale en commençant par la simple reproductibilité en me basant sur cette vidéo de catalepsie de spectacle par Franck Syx (je n’ai pas le temps de la reproduire mais je leur dis qu’on pourra essayer après la séance si ça leur dit) :

Télécharger

Je ne développe pas les autres (témoin, aveugle et double aveugle, taille et représentativité de l’échantillon) car l’idée reste la même : leur présenter des protocoles inventées et méthodologiquement problématiques pour qu’ils·elles puissent lever le problème et comprendre comment on peut « objectiver » des données récoltées.

Je finis enfin par présenter l’effet paillasson car c’est un vrai problème dans la rédaction des problématiques en TPE : les élèves doivent restreindre leur recherche et ont tendance à placer des mots trop vagues ou ayant des définitions diverses et variées (les termes « énergie », « mémoire », « cerveau » ou « préserver l’environnement » en sont des exemples classiques). J’ai utilisé les cartes de thérapeutes d’un festival récent sur Grenoble, FestiZen, qui regorge d’effets paillasson et d’effets puits.

Les erreurs commises

J’ai vu un peu gros pour le format 1h et sur les deux premiers groupes je n’ai pas eu le temps de traiter correctement la dernière partie, pourtant essentielle. J’ai donc réduit pour le dernier groupe et c’était vraiment mieux. Je n’ai donc pas traité la définition de « science », l’épistémologie « critique » (matérialisme méthodologique, scepticisme, rationalité) ni acte de foi vs. remport d’adhésion. L’ensemble reste un peu chargé mais cela rentre en une heure

La suite…

Pour la suite des TPE, c’est surtout de l’improvisation. Nous, les enseignant·e·s, devons être présent·e·s pour répondre aux questions des élèves et leur éviter de partir sur des fausses pistes ou sur des sujets trop complexes en terme de notions pour leur niveau. Il faut faire en sorte que le sujet soit assez fécond (possibilité de tester, de reproduire, de vérifier, de trouver de l’information…) mais assez restreint pour pouvoir travailler sur un paramètre bien identifié.

En cette fin de TPE, il est temps de dresser un bilan. C’est un peu triste au final car sur les 20 groupes constitués, seulement 5 ont travaillé sur un sujet critique :

  • Le triangle des Bermudes (sujet « classique »)
  • Les personnes se disant électrosensibles sont-elles capables de détecter la présence de Wifi en expérimentation contrôlée ? Malheureusement, le groupe s’est retrouvé face à la difficulté sociale : il n’a pas pu trouver une seule personne se disant électrosensible voulant bien se prêter au jeu de l’expérimentation.
  • Le scénario catastrophe du film « Le Jour d’après  » dans lequel le Gulf Stream subit un dérèglement est-il scientifiquement plausible ?
  • La spiruline : petite déception, les élèves n’ont pas vraiment pris l’angle critique, étant déjà convaincues par les bienfaits de cette algue à la mode. C’est dommage, c’était un sujet fécond avec multiples problématiques possibles
  • Les magnétiseurs : groupe très stimulant ! Réalisation d’un protocole expérimental réalisé en collaboration avec un magnétiseur venu au lycée pour réaliser l’expérience. Juste pour ce groupe, je suis content d’avoir mis de l’énergie (c’est le cas de le dire) dans ce travail de TPE.

De l'autodéfense intellectuelle dans l'Actualité Chimique

Denis Caroti a pris sous son aisselle duveteuse Albin Guillaud et Richard Monvoisin pour aller écrire dans la revue l’Actualité Chimique. Qu’est-ce que l’Actualité Chimique ? La seule revue généraliste française de chimie dite « de haut niveau », éditée par la Société Chimique de France. De quoi parlent-ils ? D’un plaidoyer pour l’autodéfense intellectuelle au cœur de l’enseignement des sciences. C’est dans le numéro de septembre 2017. En voici le résumé.

Résumé

Plaidoyer pour l’autodéfense intellectuelle au cœur de l’enseignement des sciences

Enseigner la pensée critique est nécessaire aussi bien pour distinguer les contenus scientifiques des contenus pseudoscientifiques, critiquer les médias, qu’évaluer les thérapies efficaces, déceler les mensonges à but commercial ou politique, ou  prévenir l’intrusion des idéologies en science, comme dans le cas du créationnisme. Cet apprentissage procure les moyens de se défendre intellectuellement face aux idées reçues, préjugés et arguments fallacieux, avec des outils simples, tirés de différents champs disciplinaires et partageant un socle commun fondé sur la démarche scientifique. Développer l’esprit critique prend alors tout son sens, non seulement dans le milieu éducatif, mais également dans la vie de tout citoyen qui, soumis à des flots incessants d’informations, devrait être en mesure de faire ses choix en connaissance de cause. Un exemple pédagogique concernant l’utilisation abusive de mots fortement connotés,  nommé « effet impact », est présenté pour illustrer cette démarche.

Asbtract

Plea for intellectual self-defense at the heart of the science teaching

Face to an endlessly information stream, teaching critical thinking is of primary importance in order to allow people to distinguish scientific from pseudoscientific contents, to evaluate health informations, to detectcommercial or political lies, or to prevent ideological intrusions into science as for creationism. It is a truly learning of an intellectual self-defense, built by the mean of simple tools drawn from different fields, but sharing a common foundation based on the scientific approach of the world. Developing critical thinking is not only relevant in an educational context, but also for the citizenship practice. Indeed, everybody should be able to make informed private and political choices without falling in the classical intellectual traps. In this paper, an example of critical thinking pedagogy is given by using the topic of the highly connoted words we named “impact-effect words”.

Conseils d'ouvrages en philosophie des sciences (Croyance et Raison : Le problème de la démarcation)

Suite à la conférence « Croyance et Raison : Le problème de la démarcation » (vidéo disponible ici), donnée le 12 janvier 2017 par Albin Guillaud et Ismaël Benslimane pour des enseignantes et enseignants de philosophie, voici quelques conseils d’ouvrages permettant à la fois de s’outiller pour aborder une épistémologie de terrain (différents usages du mot « science », affirmation de type scientifique, matérialisme en méthode, etc.), et de mieux comprendre les mécanismes à l’œuvre derrières certaines croyances (complotismes, intrusions spiritualistes, théories controversées, etc.). Ce sont de précieux préalables à tout enseignement complet de la pensée critique avec un public lycéen ou étudiant.

 

Remarques

Comme de nombreux types de classification, les catégories de la présente bibliographie se recouvrent parfois. De nombreux ouvrages auraient donc pu être classés à plusieurs endroits différents. En outre, puisque la formation n’avait pas pour objet une introduction à la philosophie des sciences, nous n’avons pas fait figurer dans cette bibliographie les grands classiques sur le sujet (Popper, Duhem, Kuhn, etc.). Les commentaires entre parenthèses qui suivent certaines références sont les nôtres.

Bibliographie principale

Sur l’autodéfense intellectuelle et la zététique

  • Baillargeon Normand, Petit cours d’autodéfense intellectuelle, Montréal, Lux, 2006.
  • Broch Henri, L’art du doute ou Comment s’affranchir du prêt-à-penser, Valbonne, Éd. Book-e-book, 2008.
  • Broch Henri, Comment déjouer les pièges de l’information ou Les règles d’or de la zététique, Valbonne, Éd. Book-e-book, 2008.
  • Collectif CorteX (Saint-Martin d’Hères Isère), Esprit critique es-tu là ? : 30 activités zététiques pour aiguiser son esprit critique, Sophia-Antipolis, Éd. Book-e-book, 2013. Tout le matériel pédagogique contenu dans cet ouvrage se trouve ici
  • Pinsault Nicolas et Richard Monvoisin, Tout ce que vous n’avez jamais voulu savoir sur les thérapies manuelles, Saint-Martin-d’Hères, PUG, 2014.
  • Monvoisin Richard, Pour une didactique de l’esprit critique – Zététique & utilisation des interstices pseudoscientifiques dans les médias, Didactique des disciplines scientifiques, Saint-Martin-d’Hères, Université Grenoble 1 – Joseph Fourier, 2007.
    Document qui contient plusieurs types de matériaux pédagogiques. Cette thèse est accessible en ligne ici.

Sur les processus d’influence et les techniques de manipulation

  • Beauvois Jean-Léon, Les influences sournoises : précis des manipulations ordinaires, Paris, François Bourin, coll. « Société », 2011.
  • Cialdini Robert B, Influence & manipulation, Paris, First, 2004.
  • Joule Robert-Vincent et Jean-Léon Beauvois, Petit traité de manipulation à l’usage des honnêtes gens, Grenoble, Presses universitaires de Grenoble, 2014.
  • Milgram Stanley, Soumission à l’autorité un point de vue expérimental, Paris, Calmann-Lévy, 1984. (Ouvrage passionnant qui permet d’aller bien au-delà de ce que l’on peut apprendre de cette fameuse expérience par d’autres moyens. On apprendra par exemple que 20 conditions expérimentales différentes ont été réalisées et que les pré-tests effectués sans aucun rétrocontrôle conduisaient presque 100 % des sujets à aller jusqu’à 450 volts.)

Sur le paranormal et quelques théories controversées

  • Broch Henri, Gourous, sorciers et savants, Paris, Odile Jacob, 2007.
  • Charpak Georges et Henri Broch, Devenez sorciers, devenez savants, Paris, O. Jacob, 2003.
  • Broch Henri, Au cœur de l’extra-ordinaire, Sophia Antipolis (Alpes maritimes), Book-e-book, 2005. (Henri Broch s’est employé à l’approche scientifique des phénomènes réputés paranormaux et a utilisé ces mêmes phénomènes pour construire une initiation à la démarche scientifique tant dans son aspect constructif que sceptique.)

Plus de matériel sur ces thématiques dans la collection book-e-book : www.book-e-book.com

Sur la sociologie des croyances

  • Bronner Gérald, La démocratie des crédules, Paris, PUF, 2013.
    Origine du concept de « mille-feuille argumentatif ».
  • Bronner Gérald, La pensée extrême : comment des hommes ordinaires deviennent des fanatiques, Paris, Denoël, coll. « Denoël impacts », 2009. (Quelles sont les différences entre un collectionneur de timbre passionné, un culturiste et un fanatique religieux ? Il en existe de nombreuses, c’est évident. Cependant, il existe aussi des points communs dans le processus qui les a conduit à faire ce qu’ils font. C’est ce que démontre Gérald Bronner.)
  • Bronner Gérald, L’empire des croyances, 1re éd, Paris, Presses universitaires de France, coll. « Sociologies », 2003.

Comprendre le « matérialisme en méthode »

  • Bunge Mario Augusto, Le matérialisme scientifique, Paris, Éd. Syllepse, 2008.
  • Charbonnat Pascal, Histoire des philosophies matérialistes, Paris, Éditions Kimé, 2013.
  • Dubessy Jean, Guillaume Lecointre et Jacques Bouveresse (éd.), Intrusions spiritualistes et impostures intellectuelles en sciences, Paris, Syllepse, 2001. (C’est dans cet ouvrage que Guillaume Lecointre explique en quoi l’absence de distinction entre les différents sens du mot « science » (communauté, connaissances, applications, démarche) peut conduire à jeter le bébé (la démarche) avec l’eau du bain (les problèmes liés à la communauté, à l’instabilité de certaines connaissances et aux applications des connaissances).)
  • Silberstein Marc, Matériaux philosophiques et scientifiques pour un matérialisme contemporain − Sciences, ontologie, épistémologie, Paris, Éd. Matériologiques, 2013. (Les deux premiers chapitres en particulier.)

Épistémologie

  • Chalmers Alan Francis et Michel Biezunski, Qu’est-ce que la science ? Récents développements en philosophie des sciences : Popper, Kuhn, Lakatos, Feyerabend, Paris, Librairie générale française, 1990.
  • Dubessy Jean, Guillaume Lecointre et Jacques Bouveresse (éd.), Intrusions spiritualistes et impostures intellectuelles en sciences, Paris, Syllepse, 2001.
  • Haack Susan, Defending science–within reason, Amherst, N.Y, Prometheus Books, 2007.
    Les citations utilisées pendant la présentation sont disponibles en français ici.
  • Laudan L, « The Demise of the Demarcation Problem », dans R.S. Cohen et L. Laudan (éd.), Physics, Philosophy and Psychoanalysis: Essays in Honour of Adolf Grünbaum, Dordrecht, Springer Netherlands, 1983, p. 111‑128.
  • Lecointre Guillaume, Les sciences face aux créationnismes : ré-expliciter le contrat méthodologique des chercheurs, Versailles, Quae, coll. « Sciences en question », 2012.
  • Piaget Jean, « La situation des sciences de l’homme dans le système des sciences », dans Épistémologie des sciences de l’homme, Saint-Amand, Gallimard, coll. « Idées », 1970, p. 15-130.
  • Piaget Jean, Sagesse et illusions de la philosophie, 1. éd, Paris, Pr. Univ. de France, coll. « Quadrige », no 139, 1992. (Piaget analyse dans ce livre le rapport entre la philosophie, la science et la question des faits.)
  • Pigliucci Massimo et Maarten Boudry (éd.), Philosophy of Pseudoscience : Reconsidering The Demarcation Problem, 1ere édition, Chicago, University of Chicago Press, 2013.
  • Raynaud Dominique, Qu’est-ce que la technologie ?, Éditions Matériologiques, Paris, 2015. (Dominique Raynaud réalise une analyse philosophique et empirique du rapport entre science et technologie en évitant les écueils technophiles et technophobes.)
  • Raynaud Dominique, La Sociologie et sa vocation scientifique, Hermann, 2006. (Ouvrage plutôt technique dans lequel Raynaud effectue une critique épistémologique et empirique de la thèse d’une épistémologie régionale de la sociologie. C’est aussi un des meilleurs argumentaires à notre connaissance en faveur d’un monisme épistémologique. Avec une approche différente et sur le même sujet on pourra lire le chapitre de l’ouvrage de Jean Piaget « La situation des sciences de l’homme dans le système des sciences » dans Épistémologie des sciences de l’homme (voir ci-dessus).)
  • Raynaud Dominique, Sociologie des controverses scientifiques, Presses universitaires de France, 2003. (Raynaud présente dans cet ouvrage ses études socio-historiques de trois controverses scientifiques : la controverse entre Pasteur et Pouchet sur la génération spontanée en biologie, la controverse entre organicisme et vitalisme en médecine, et la controverse entre extramissionnisme et intramissionnisme en optique. Il utilise ces trois études pour réaliser une analyse de la méta-controverse en sociologie des sciences qui porte, ironie du sort, sur la façon d’aborder les controverses scientifiques. Il s’agit de la controverse entre rationalisme et relativisme. L’auteur examine également en détail si oui ou non Duhem, Quine et Wittgenstein peuvent être utilisés pour justifier le programme relativiste. On trouvera également dans ce livre l’explication de la cohabitation possible entre certitude et perfectibilité en science, ainsi que la description du cadre au sein duquel se trouve réconciliés vérificationnisme et falsificationnisme. Un ouvrage incontournable qui se lit aisément.)
  • Sagan Carl, The demon-haunted world: science as a candle in the dark, 1. ed, New York, NY, Ballantine Books, coll. « The New York Times bestseller », 1997.
    La citation utilisée dans notre conférence se trouve en ligne ici (en français).
  • Sokal Alan D et Jean Bricmont, Pseudosciences et postmodernisme : adversaires ou compagnons de route ?, Paris, O. Jacob, 2005. (Surtout la préface de Jean Bricmont et l’appendice B de Sokal et Bricmont. C’est dans la préface que l’on trouvera l’utile distinction entre aspect affirmatif et aspect sceptique de la science. Dans l’appendice B, les auteurs font état de leur positionnement dans le débat entre réalisme vs. idéalisme et sollipsisme, et entre réalisme scientifique vs. instrumentalisme. Le propos est d’une grande clarté.)
  • Sokal Alan D et Jean Bricmont, Impostures intellectuelles, Paris, O. Jacob, 1997. (Ouvrage qui a marqué les esprits. Concernant le propos de Bricmont, on peut écouter les présentations suivantes :

Bibliographie complémentaire

  • Bouveresse Jacques, Prodiges et vertiges de l’analogie : de l’abus des belles-lettres dans la pensée, Paris, Raisons d’agir : Diffusion Le Seuil, 1999.
    Cet ouvrage de Bouveresse a fait suite à Impostures intellectuelles de Sokal et Bricmont.
  • Bunge Mario, Evaluating Philosophies, Dordrecht, Springer Netherlands, 2012. (Bunge défend dans cet ouvrage une thèse originale : il est possible d’évaluer une philosophie à l’aune de sa capacité à permettre des progrès dans la connaissance du monde et en matière morale.)
  • Bunge Mario, Épistémologie, traduit par H. Donadieu, Maloine, Paris, 1983.
  • Harris Sam, The Moral Landscape, How Science Can Determine Human Values, Free Press, New York, 2010.

Pour approfondir certaines notions

Matériel audio – La science, "religion" du XIXème siècle ?

Guillaume Carnino enseigne l’histoire des sciences et des techniques à l’université de Compiègne. Dans la Fabrique de l’histoire sur France Culture, il a développé l’essence de son ouvrage « L’invention de la science, la nouvelle religion de l’âge industriel ». Petit voyage de Bouvard et Pécuchet jusqu’à des problématiques qui secouent encore aujourd’hui les débats épistémologiques.

CorteX_invention_science_carninoGuillaume Carnino a dirigé plusieurs ouvrages collectifs (La Tyrannie technologique. Critique de la société numérique, 2006 et Les Luddites en France. Résistances à l’industrialisation et à l’informatisation, 2010), parus aux éditions L’échappée. Cette fois, il propose  dans L’invention de la science, la nouvelle religion de l’âge industriel une enquête historique et généalogique permettant de comprendre pourquoi et comment, en France, à l’heure de la IIIe République, cette idée en est venue à être unanimement partagée.

Il dévoile les rouages de la carrière de savants comme Louis Pasteur, mais aussi l’histoire de simples artisans et pêcheurs dont les découvertes furent convoitées par les industriels. Il montre de quelle manière l’image d’un Galilée anticlérical a pu être fabriquée et renouvelle le regard que l’on porte sur la mise en place de l’école gratuite et obligatoire par Jules Ferry. Parallèlement à la décision démocratique, la pratique scientifique devient peu à peu un mode de gouvernement des êtres et des choses, qui marque l’avènement de la civilisation des experts. La science, désormais auréolée d’un prestige quasi religieux et présentée comme pure ? c’est-à-dire indifférente aux intérêts individuels ?, se révèle finalement un moyen d’administrer la société autant que de transformer la nature par l’industrie. (Présentation des éditions du Seuil)

Voici l’extrait de l’émission de la fabrique de l’histoire du 23 avril 2015.

Télécharger.

CorteX_Bouvard_PecuchetPour celles et ceux qui manquent de temps pour lire le livre de Flaubert, je recommande particulièrement l’adaptation de l’oeuvre par Jean-Daniel Verhaege, interprêtée par entre autres Jean-Pierre Marielle et Jean Carmet. L’histoire, tragicomique, est celle de deux esprits médiocres, qui se piquent de sciences sans méthode aucune, aux sciences et échouent dans toutes les tentatives qu’ils entreprennent, pétris d’idées reçues et bouffis de sophismes qu’ils sont.

RM

 

 

Main basse sur la science publique : le «coût de génie» de l’édition scientifique privée

Le problème de la publication scientifique et de son violent « capitalisme » fait l’objet de nos enseignements et de nos préoccupations. Nous l’abordons dans les stages pour doctorants ainsi que dans les modules « analyse d’articles » pour professionnels de santé. Richard Monvoisin a d’ailleurs clairement pris position sur le sujet (voir Recherche publique, revues privées, Le monde diplomatique, décembre 2012). Un groupe de chercheurs (CNRS, INRA) emmenés  par le biologiste Bruno Moulia ont produit un texte fouillé sur la question, qui étoffera tout enseignement sur le sujet. Nous le reproduisons ici.


CorteX_cerveau_poissons_K_ba

Main basse sur la science publique :

le «coût de génie» de l’édition scientifique privée

 Imaginez un monde où les chercheurs des établissements publics de recherche et des universités seraient rétribués individuellement en fonction de leur contribution au chiffre d’affaire d’un oligopole de grands groupes privés, et où les moyens humains et financiers affectés à leurs recherches en dépendraient. Projet d’un think-tank ultra-libéral, voire science-fiction pensez-vous ?… ou alors cas particulier de quelques fraudes liées à l’industrie du médicament ? Non, non, regardez bien autour de vous, c’est déjà le cas, dans l’ensemble du monde scientifique (sciences de la nature, médicales, agronomiques…), et ce à l’insu de la grande majorité des gens, et de trop de chercheurs ! Mais une prise de conscience est en train de s’opérer et une bataille s’engage sur tous les continents. Analysons les faits :

Une transformation du processus de production dans l’édition qui a conduit à sa concentration et à la privatisation de la publication par quelques grands groupes

La publication, l’acte par lequel des chercheurs rendent publics et accessibles à leur collègues leurs résultats, est un élément clé du processus de développement de la Science. Le travail des chercheurs y est soumis à une première vérification par des pairs. Cette vérification, si elle n’est pas parfaite (Monvoisin, 20121), permet du moins de modérer le nombre de publications et donc de limiter la dilution de l’information significative –au risque d’un certain conservatisme parfois (Khun, 1952). Si ce travail est jugé significatif par deux pairs spécialistes du domaine (couverts par l’anonymat), ce travail est alors publié c’est-à-dire rendu disponible à l’ensemble de la communauté. La publication est ainsi un élément central de la reconnaissance du travail accompli (et/ou de sa critique) et de la renommée des chercheurs et des équipes, et participe ainsi à la formation de leur « crédit ou capital symbolique » (Bourdieu, 1997). La connaissance est aussi un bien public : un bien qui ne perd pas sa valeur par l’usage d’autrui, mais au contraire qui ne la réalise pleinement que par l’usage que les autres scientifiques en font (Maris, 2006). La publication de cette connaissance, en particulier sa publication écrite, est ainsi le moyen de rendre cette connaissance accessible aux autres chercheurs, aux institutions de recherche, aux journalistes et finalement aux citoyens, permettant son évaluation critique au-delà de la vérification initiale et finalement sa mise en valeur collective. Ainsi la publication est le vecteur principal des idées et des innovations d’un secteur à l’autre. Enfin, la publication est un bien non substituable : si un chercheur a besoin pour son travail de tel article, il ne pourra pas le substituer par un autre article qui serait accessible à un moindre coût (COMETS, 2011).

L’organisation de la publication scientifique, au niveau des chercheurs et de l’édition a donc été un élément important du développement des sciences et un aspect central du mode d’organisation de la production scientifique. Elle s’est faite par la création de journaux scientifiques à comités de lecture. Historiquement, l’édition de ces journaux scientifiques a été essentiellement le fait de structures à but non lucratif : des sociétés savantes et des académies des sciences (le modèle issus des Lumières), des presses universitaires et enfin les presses des grands établissements publics de recherche – CNRS, INRA INSERM …en France (le modèle issu du Conseil National de le Résistance et plus largement de l’après guerre). L’enjeu principal de ces structures était la diffusion de la science, avec un souci de qualité et de reconnaissance.

Or les trente dernières années ont vu une transformation sans précédent des modes de production de l’édition en général, et de l’édition scientifique en particulier (Chartron, 2007). Cette transformation est liée au développement des Nouvelles Technologies de l’Information et de la Communication (NTIC) et à l’informatisation/automatisation des processus éditoriaux et d’imprimerie ; elle culmine désormais dans les bibliothèques virtuelles et autres plateformes « on-line ». Cette évolution, concentrant tous les coûts dans « la première feuille virtuelle » et dans le développement et le maintien de grandes plateformes informatisées, a rendu les tirages limités et donc l’édition des journaux scientifiques rentable via des investissements initiaux conséquents et une concentration du secteur2 . Les petits éditeurs n’ont pas pu suivre. En France par exemple, l’Institut National de la Recherche Agronomique éditait 5 titres dont il a cédé, depuis les années 2000, l’édition, la diffusion et la politique commerciale à des éditeurs privés (Elsevier ,puis Springer)3. Et l’Académie des Sciences française a fait de même pour ses Comptes Rendus (mais pas l’américaine plus avisée ! …).

Ainsi, suite à ce processus de fusion-acquisition massif, l’édition des articles scientifiques est passée majoritairement aux mains d’un oligopole de grands groupes d’édition privés. Cinq grands groupes de presse écrasent désormais le marché : Reeds-Elsevier, Springer, Wolters-Kluwer-Health, Willey-Blackwell, Thomson-Reuter (Chartron, 2010). On peut y ajouter un 6eme, le groupe Nature (du groupe MacMillan, GHPG, un géant du livre). Ces 6 groupes privés concentrent désormais plus de 50 % du total des publications (Mc Guilan and Russel, 2008) sur un marché mondial de l’édition Scientifique Médicale et Technique (SMT) estimé à 21 Milliards de dollars en 20104. Reed Elsevier à lui tout seul concentre 25% du total. C’est un niveau de concentration considérable, généralement considéré comme critique par les autorités européennes de la concurrence car il permet la mise en place de pratiques anticoncurrentielles (Comité IST Ministère de l’Enseignement Supérieur et de la recherche, rapport 2008)

Ces groupes participent souvent de groupes capitalistes plus larges. Par exemple Thomson Reuter est d’abord un leader mondial de l’information financière. Ce sont aussi des géants de la presse. Ainsi dès sa création en 1993, l’éditeur Reed-Elsevier se situait au troisième rang mondial dans le secteur de la communication, derrière Time Warner et Dun and Bradstreet, et devenait le 3eme groupe anglo-néerlandais après le pétrolier Royal Dutch Shell et le géant de l’alimentaire Unilever (L’économiste, 1992). En 2010, Reed-Elsevier publiait 2000 journaux pour un chiffre d’affaire de 3 Milliards de dollars (The Economist, 2011).

Privatisation de la publication par les 5 Majors: packaging et copyright

Ainsi une part majeure des publications a été privatisée par des sociétés à but lucratifs. Cette captation du produit de la science (la publication) par les marchés se réalise par la cession par les auteurs de leur « copyright »5 au groupe d’édition publiant le journal où ils veulent publier leur article (cette cession est un pré-requis à la publication). Elle se fait au nom des coûts associés à la publication. Or ces coûts se sont fortement réduits du fait que l’essentiel du travail de mise en forme et d’édition est fait à titre gratuit par les scientifiques eux mêmes. Comme le disait Laurette Tuckerman (une chercheuse de l’ESPCI qui a participé aux travaux de la Commission d’Ethique du CNRS sur ce sujet, COMETS, 2011), un équivalent dans la vie de tous les jours pourrait être le suivant : quelqu’un construit totalement sa maison, mais fait appel à un peintre professionnel pour « fignoler » la façade, et… c’est le peintre qui en devient propriétaire via un bail emphytéotique !6 La cession gratuite de copyright requise pour pouvoir publier un article est en effet totale et irrévocable, et court parfois jusqu’à 70 ans après la mort de l’auteur7. Une fois ces droits acquis, le journal peut faire ce qu’il souhaite des éléments contenus dans la publication, sans en référer à l’auteur (COMETS, 2011), à commencer bien sûr par en vendre le droit de reproduction, y compris à l’auteur lui-même s’il souhaite les ré-utiliser ! La connaissance scientifique, bien public s’il en est, s’est trouvée transformée en un produit marchant par le simple ajout d’un packaging (la mise en forme de la revue) et par la chaîne de distribution. Et sans rétribuer aucun producteur !

Un capitalisme de prédation qui fait rêver Wall Street

Le modèle d’affaire des maisons d’éditions scientifique est en effet une première dans l’histoire du capitalisme. Il a fait écrire à un journaliste du Guardian qu’à ses côtés le magnat de la presse aux mille scandales Ruper Murdoch8 passe pour un socialiste humaniste (Monbiot, 2011). Détaillons un peu. Le travail de production des connaissances (travail de laboratoire, collecte et analyse des données, et nombre d’échanges formels ou informels au sein de la communauté scientifique) est réalisé par les chercheurs, les techniciens et les personnels administratifs de la recherche. La rédaction de l’article – travail effectué par un journaliste dans le reste de la presse – est encore réalisé par le chercheur, ainsi que l’essentiel de la mise en forme (grâce aux logiciels performants de traitement de texte scientifique). La validation du contenu est réalisée par d’autres chercheurs, ainsi que le travail éditorial de la revue. Et tout çà à titre gracieux pour les éditeurs, ou plus exactement via une rétribution symbolique (nous y reviendrons). C’est déjà beaucoup plus rentable que dans la presse conventionnelle où il faut payer les journalistes et les composeurs ! Mais il y a mieux (ou pire, c’est selon les points de vue !). Les journaux sont en effet revendus essentiellement aux bibliothèques de ces mêmes organismes publics de recherches ou universités qui ont financé les recherches et le travail de rédaction ; et ce à prix d’or ! Par exemple l’abonnement électronique à la revue « Biochimica et Biophysica Acta9 » coûte environ 25 000 euros /an (Monbiot, 2011). Ainsi les bibliothèques ont vu leurs dépenses liées à l’abonnement aux revues augmenter de 300% en 10 ans (Blogus Operandi , ULB, 2009). Ce poste absorbait en 2010 ; les 2/3 de leur budget (Monbiot, 2011). Ainsi pour chaque publication acquise, l’État, et donc le contribuable, a payé 4 fois le même article !!

1. les institutions payent les chercheurs qui rédigent les articles publiés dans les revues scientifiques ;

2. les institutions payent les scientifiques qui révisent et commentent les articles qui sont soumis à leur expertise (système de peer review) ;

3. les bibliothèques de ces institutions payent aux éditeurs et/ou agences d’abonnement le droit d’accéder aux revues dans lesquelles leurs chercheurs ont publié ;

4. les bibliothèques de ces institutions payent aux éditeurs l’accès perpétuel aux archives électroniques de ces mêmes revues.

A tel point qu’on a parlé de « racket légal » (Montbiot, 2010). Dans des termes plus liés à l’establishment, même la Deutche Bank reconnait que les marges des Majors de l’édition scientifique sont sans commune mesure avec le service fourni (Mc Gigan and Russel, 2008).

En tout cas c’est Jack Pot !! : Des taux de profits à faire pâlir le Nasdaq, et qui durent ! : 36 % pour Elsevier (secteur scientifique et médical) enCorteX_Logo_boycott_Elsevier_Daniel Mietchen 1988, 36,4 % en 2000 (Mc Gigan and Russel, 2008) encore 36% en 2010 en pleine crise (Montbiot, 2011) ! Les investisseurs spéculateurs ne s’y trompent pas. Ainsi la firme Morgan Stanley, une des grandes banques d’investissement américaines qui se sont tant illustrées dans la crise des subprimes écrivait à ses investisseurs dès 2002 «  la combinaison de son caractère de marché de niche et de la croissance rapide du budget des bibliothèques académiques font du marché de l’édition scientifique le sous secteur de l’industrie des média présentant la croissance la plus rapide de ces 15 dernières années »10 (Gooden et al., 2002). Spéculateurs, fonds de pension, on s’arrache les actions de l’édition scientifique… Quant au chercheur, pigiste-pigeon malgré lui, il constate la diminution des crédits effectivement disponibles pour financer sa recherche (pas son packaging), alors que les gouvernements peuvent communiquer sur un financement accru de la Recherche publique !

La « Science Optimisée par les Marchés » ? Mais c’est la bulle !!!

Si vous êtes chercheur ou simplement contribuable, un néo-libéral vous conseillera sûrement à ce point de récupérer une part de la plus-value de votre travail et/ou de vos impôts en devenant actionnaires de ces sociétés, et en empochant ainsi les dividendes11 ! Et il ajoutera, enthousiaste, que vous participerez en prime à l’optimisation de la recherche par les marchés. Mais justement la science avance, même dans le monde pourtant sous influence des sciences économiques : le modèle démontrant l’optimalité de l’allocation des ressources par le marché (modèle néo-classique) a été remis en cause sur le plan théorique et pratique dès que l’information n’est pas parfaite et qu’il y a des externalités – et la science en est pleine- (travaux du prix « Nobel » Joseph Stiglitz et de ses collaborateurs, voir Stiglitz, 2011). Et la « Grande Récession » mondiale en cours depuis 2008 nous le rappelle tous les jours. Mais on peut aller plus loin : même si on en restait au modèle néo-classique du Marché Optimisateur, ce dernier ne pourrait pas de toute façon s’appliquer à l’édition scientifique ! Comme le remarquait fort justement Morgan & Stanley (Gooden et al., 2002), la demande dans ce domaine est en effet totalement inélastique : les « clients » continuent à acheter quelle que soit l’augmentation des prix, car, comme nous l’avons vu, les publications ne sont pas substituables. Dans ce cas les marchés sont forcément inefficients dans la recherche du « juste prix ». Ils sont essentiellement là dans une position de prédation (on en revient au « racket » (Monbiot, 2009)). Et c’est d’ailleurs bien cette situation qui attire les investisseurs, qui savent bien que les profits juteux sont là où les marchés ne marchent pas (Maris, 2006, Stiglitz, 2011).

On assiste ainsi à une vraie bulle de la publication scientifique. Les journaux se multiplient, car presque tout nouveau journal est rentable et sera acheté. Depuis 1970 le nombre de journaux scientifiques double tous les 20 ans environ (Wake & Mabe, 2009). Quant au nombre de publications scientifiques, il double environ tous les 15 ans (Price, 1963 ; Larsen and von Ins, 2010). Et les prix s’envolent : + 22 à 57 % entre 2004 et 2007 (Rapport du Comité de l’IST, 2008) pour les journaux. En combinant hausse du nombre de journaux et hausse de leur prix, on arrive à une augmentation de +145 % en 6 ans pour l’ensemble des abonnements d’une bibliothèque de premier plan comme celle de l’Université de Harvard (Harvard University, Faculty Avisory Council 2012).

Un contre-argument apporté sur ce point par les sociétés d’éditions et de scientométrie est que l’accroissement du nombre des publications est observé depuis 170012 et qu’il reflète l’augmentation elle aussi exponentielle du nombre de scientifiques. Mais ce n’est pas parce qu’une croissance est exponentielle au début d’un processus qu’il est normal que cette croissance exponentielle se maintienne toujours. Le nombre de publications aurait probablement saturé sans cette bulle (Price, 1963 ; Polanko, 1999). En effet la capacité individuelle de lecture et d’assimilation de chaque chercheur n’augmente pas elle indéfiniment. C’est l’expérience courante de tous les chercheurs qui n’arrivent plus à suivre l’ensemble de la bibliographie, même dans leur spécialité. De même les éditeurs et les relecteurs sont débordés et ont de moins en moins de temps par article, ce qui renforce malgré eux le risque de décision de type « loterie » ou « à la tête du client » (Monvoisin, 2012). On assiste donc à une parcellarisation et une dilution de la connaissance scientifique dans le bruit des publications surabondantes (Bauerlein et al., 2010). Enfin, surabondante uniquement pour ceux qui peuvent payer ! Elle prive les autres, les instituts les moins dotés et les pays en voie de développement de l’accès aux connaissances. Mais l’emballement de la bulle est tel qu’il commence à mettre mal même les institutions les plus riches (ex Harvard University, Faculty Advisory Board, 2012). C’est ce qui a amené de nombreux auteurs à tirer la sonnette d’alarme, et le Comité d’Ethique de la Science du CNRS (COMETS) à émettre en juin 2011 un avis très critique sur cet état de fait (COMETS 2011), suivi plus récemment par le Faculty Advisory Board de l’Université d’Harvard aux USA (Harvard University, Faculty Advisory Board, 2012).

La cotation des journaux à l’Audimat

CorteX_ordi_cadenasMais avant d’aller plus en avant dans l’analyse des effets de cette marchandisation de la science, il nous faut considérer le dispositif mis en place pour établir une cotation « objective » des dits journaux. C’est un point central. Ce fut le fait d’une de ces mêmes grandes maisons de presse, Thomson Reuters, via sa branche Institut of Science Information/ Web of Knowledge. Fort de son expérience sur les marchés boursiers, Thomson Reuter a en effet organisé un système de cotation annuelle en ligne des journaux, le Journal Citation Reports13. Le principe de cette cotation est tout simplement l’Audimat: combien de fois un article publié dans une revue est-il cité, dans les deux ans qui suivent, par les autres articles publiés dans un pannel de journaux choisi par Thomson Reuter (et dont la représentativité a été discutée (Larson et Von Ins, 2010)). C’est ce qu’on appelle le facteur d’impact de la publication. Ainsi la valeur ajoutée d’une recherche a été réduite par l’action de Thomson Reuter aux points d’audimat de la publication associée. On est ainsi passé d’une considération de qualité du contenu par les acteurs de la recherches (tel article est une avancée majeure) à une mesure automatique du nombre de contenants (combien de lecteurs ont-ils vu cet article, et l’ont cité quelle qu’en soit la raison). On peut rentrer dans la critique détaillée de cette mesure (très biaisée), mais là n’est pas l’essentiel ici. Ce qu’il faut retenir ici c’est que la production scientifique a été ainsi quantifiée sur la base du nombre de publications (i.e. du nombre de contenants –packages- sans référence à la connaissance contenue), tout comme on quantifie n’importe quelle production industrielle ou encore les flux financiers (ceci par le biais de la scientométrie -comme on dit médiamétrie-). Et que cette objectivation et trivialisation de la valeur scientifique a été rendue possible en soumettant l’édition scientifique à la loi de l’Audimat.

La mise en place de cette logistique, et surtout sa mise à disposition de tous et sa promotion ont coûté fort cher, mais là encore Thomson Reuter se trouve en situation de quasi-monopole14. Il peut donc revendre avec fort bénéfice ce service aux journaux et surtout aux instituts de recherches et aux universités. Mais pour les éditeurs privés et les intérêts qui les soutiennent, cela présentait un deuxième retour sur investissement, moins direct, en termes de pouvoir et de prise de contrôle cette fois.

Audimat, Agences de Notation, Classements et Mercato : c’est le modèle TF1 ou PSG… en plus rentable !

L’intérêt de l’Audimat, comme on l’a vu dans le cas des chaines de télévisions privées, c’est qu’il peut se décliner à toutes les échelles, en considérant la part d’audience réalisée. Ainsi c’est l’ensemble des acteurs de la production scientifique (chercheurs, institutions et même journaux) qui se trouve ainsi évaluable individuellement en terme de facteur d’impact cumulé (ou de caractérisations dérivées comme le H facteur évaluant la « valeur de l’homo scientificus »).

Des Agences de Notation (l’AERES en France) construites à l’instar de celles qui existent dans la finance ont alors vu le jour. Ces agences publient (aux frais de l’État) des classements (A+, A, B, C, D) essentiellement fondés sur ces critères. Des agences de financement calquées sur les Banques d’investissement, comme l’ANR en France, ont aussi vu le jour pour faire des crédits à des projets de recherche, sur cette même base. Et toujours sur cette base un « Mercato » mondialisé des scientifiques les mieux classés peut s’organiser entre institutions autonomisées gérées comme des entreprises, sur le mode de celui entre chaines de télévisions ou des clubs de football (il est déjà bien en place dans les pays anglo-saxons et c’est un des enjeux de la loi LRU et de sa suivante actuelle que de l’instaurer en France). Ainsi s’est mis en place un mode de management ultralibéral appelé « publish or perish » (publier ou périr). Cette évolution a été analysée ailleurs beaucoup plus en détail (voir en particulier les livres remarquables d’Isabelle Bruno sur la méthode ouverte de management, (Bruno, 2009) et, de Vincent de Gaulejac (2012), sur les conséquences délétères déjà avérées du management de la recherche et l’article de Philippe Baumard (2012) sur la compétition pour la connaissance dans une perspective de guerre économique) et nous ne le développerons pas. Mais il est utile ici de noter qu’un mode de gouvernance des institutions (corporate management) et de management des ressources humaines néo-libéral a pu s’imposer aux sciences grâce à la transformation des modes de production de l’édition scientifique ; et ceci par la mise en place d’une logistique comparable à celle mise en place pour fluidifier les marchés des capitaux (quoiqu’à moindre échelle), soutenue par des investisseurs et des acteurs comparables (ex : Thomson Reuter, les gouvernements libéraux …). Cet environnement et cette logistique établis, le pouvoir de la rétribution symbolique associé à la publication par une revue de prestige d’un éditeur privé a pu se répandre dans l’ensemble du champ scientifique.

Quand la recherche se gère à la contribution au profit des actionnaires  sans débourser un centime de prime: un « coût de génie» !

A la différence de ce qui se passe dans la presse grand public ou même les média télévisuels, la rétribution du producteur primaire (le « travailleur de la recherche scientifique » qu’il soit intellectuel ou manuel15) par les groupes privés d’édition est restée elle essentiellement symbolique, ce qui ne veut pas dire sans pouvoir. En effet, la reconnaissance des équipes de recherche et des individus qui les composent, et l’évaluation de la valeur scientifique de leur production, passe justement par la diffusion et la lecture des publications. Mais, comme nous l’avons vu, grâce au système d’Audimat et d’Agences de Notation et de financement décrit plus haut, la valeur ajoutée d’une recherche a été réduite aux points d’audimat de la publication associée (le facteur d’impact de la publication). Et comme les données d’Audimat sont disponibles et chiffrées (au contraire de la reconnaissance réelle par les pairs) et que tout le système d’évaluation est là pour le légitimer et l’imposer, les chercheurs se sont habitués à considérer le facteur d’impact comme une donnée de première importance, et la gratification symbolique d’avoir un bon facteur d’impact comme suffisante16.

Cette chaîne de valeur symbolique ne le reste pas jusqu’au bout bien sûr : l’actualisation de la valeur en espèces sonnantes et trébuchantes se fait sur le dernier maillon au niveau des sociétés d’éditions lors de la vente des accès aux portefeuilles de journaux (plateformes), puis de la rétribution des actionnaires. Le «coup/coût de génie » de l’édition privée fut d’avoir permis que la valeur marchande (en monnaie réelle dollar, euro…) soit directement corrélée à la cotation du degré de reconnaissance par l’Audimat scientométrique, achevant ainsi l’aliénation de la valeur symbolique de la science en une valeur vénale. Faisant d’une pierre deux coups, l’ensemble de la production est ainsi commandé par une gratification compétitive de chacun des producteurs individuels, permettant au (néo-)Taylorisme de s’imposer en science (comme en attestent la généralisation des diagrammes du principal disciple de Taylor, Gantt, et la gestion des flux tendus que les chercheurs apprennent à connaitre17). Et la boucle est bouclée : les chercheurs sont donc rétribués en terme de crédit symbolique à hauteur directe de leur contribution au chiffre d’affaire des grands groupes privés de l’édition scientifique, via des primes symboliques (qui ne coûtent rien, une sorte de réédition des monnaies de singe des débuts du capitalisme). C’est là la double source du jack pot ! Et aussi de beaucoup d’inquiétude quand on voit ce que la dictature de l’Audimat a pu produire comme effet sur la qualité des contenus dans les médias grand-publics …. On ne s’étonnera guère de la montée des affaires liées à la falsification de données et au plagiat (Monvoisin, 2012 ; Cabut et Larousserie, 2013). Mais une autre conséquence a été moins commentée. Il s’agit de la conséquence sur l’organisation des disciplines scientifiques elle mêmes.

Des disciplines scientifiques à … la discipline des marchés

En terme de marketing, le « marché » des publications est segmenté par l’existence CorteX_publish_perish_phDcomicsmême des disciplines scientifiques (mathématiques, physique, biologie, sociologie, histoire …) et des différents domaines du savoir. La valeur d’impact-audimat des journaux n’a donc de valeur symbolique pour les scientifiques et leurs institutions qu’au sein de ces segments. Les instituts de scientométrie sont donc amenés à établir des regroupements par discipline. Mais le contour même de ces disciplines et domaines sont toujours un peu arbitraires (surtout pour les sous disciplines et domaines). Or les instituts de Scientométrie, en premier lieu Thomson Reuter, se sont arrogé de fait le pouvoir de définir eux-mêmes les contours des domaines, alors que ce travail de différentiation (qui est au cœur de la dynamique de la recherche – Kuhn, 1962- ) était avant aux mains des institutions académiques. En effet comme tous les niveaux institutionnels de la recherche publique sont évalués sur la base des classements d’impact au sein de leur sous-discipline, il suffit que Thomson Reuter -ISI change ses sous-disciplines pour que les équilibres institutionnels soient complètement changés : par exemple, il suffirait d’inclure les « Forestry Sciences » dans les « Plant Sciences », et on verra les meilleurs revues de sciences forestières devenir les derniers de la classe en « Plant-Sciences » pour des raisons liées uniquement à la différence de taille des communautés respectives, déstabilisant ipso facto les départements de recherche en sciences forestières dans le monde entier. Par ailleurs, les pratiques interdisciplinaires, reconnues par beaucoup comme source importante de progrès scientifique, souffrent de cette logique de classement et d’audimat des journaux (voir par exemple Barot et al., 2007 dans le domaine de l’écologie).

Une forme d’intégration verticale informelle….sous la pression des fonds d’investissement.

La mise en marché des publications scientifiques décrite jusqu’ici a mis les institutions scientifiques sous l’influence directe de grands groupes capitalistes, dont la logique est nécessairement celle du profit et de la rente. En fait, pour être plus précis, le processus de production scientifique s’est trouvé intégré verticalement (mais de manière informelle) par les sociétés d’éditions. Or ces sociétés d’éditions se trouvent, nous l’avons vu, sur un segment très rentable. Les actionnaires de ces sociétés sont donc ceux des autres sociétés rentables, à savoir des sociétés d’investissement et des fonds de pension (Gooden et al., 2012), avec les mêmes exigences de rentabilité de la rétribution du capital investi par les dividendes, et la même volatilité qu’ailleurs. Par exemple en décembre 2009, Springer Science + Business Media, racheté en 2003 par le fonds d’investissement britannique Cinven et Candover, était de nouveau revendu à deux autres fonds d’investissements, européen et de Singapour (Chartron, 2009). Par ailleurs, la partie du travail qui n’est pas fournie gratuitement par les chercheurs est délocalisée en Inde ou en Chine (Le Strat et al., 2013). Ainsi sans bien s’en rendre compte et tout en restant salariés de leurs institutions, les « travailleurs de la recherche scientifique » se sont retrouvés intégrés dans un secteur concurrentiel, réclamant toujours plus de productivité-rentabilité et la même dynamique de restructuration (fusions, séparations, délocalisation…) que dans les autres secteurs18. Un tel phénomène d’intégration verticale informelle est probablement sans précédent. Il peut être cependant partiellement comparé à deux autres secteurs : celui des artistes face à l’industrie du « disque » et celui des éleveurs industriels. Dans l’industrie de la musique enregistrée, les artistes créateurs voient leur production dépendre de Majors de la musique qui réalisent le packaging de leur production, et l’accès libre à leur production réglementé par des copyrights et protégé par des lois comme la loi Hadopi 2 en France19 , sans être salariés des maisons d’éditions qui les ont « signé ». Ceci s’observe encore plus clairement chez les éleveurs industriels (élevage porcin, volaille) en France. En laissant aux éleveurs une « indépendance » formelle, les firmes de l’agroalimentaire (aliment en amont, viande en aval) ont pu leur laisser croire qu’ils étaient leurs propres maîtres dans leur monde à eux, et leur faire ainsi accepter des conditions de travail et de rémunération qu’il eut été plus difficile d’obtenir d’eux dans le cadre d’une entreprise unifiée (à cause des syndicats, des conventions collectives …)20. Dans le cas des chercheurs, on a pu maintenir ce même sentiment de « travailleur indépendant » (en fait salarié d’une institution scientifique) et de rémunération horaire faible (du moins en France), en y gagnant en plus l’acceptation par le contribuable de payer au moins quatre fois la production scientifique au bénéfice de profits privés. La différence de modèle économique entre artistes et éleveurs de porcs d’un côté, chercheurs de l’autre, c’est que les artistes ne sont pas les seuls consommateurs de leur propre musique, pas plus que les éleveurs ne sont les seuls consommateurs de la viande qu’ils produisent.21

Des dirigeants de haut vol

La séparation entre les institutions de recherches et les maisons d’éditions qui les ont intégrées dans leur système de production permet d’éviter aussi que les chercheurs et le grand public connaissent les vrais dirigeants de l’ensemble. Beaucoup de chercheurs en effet pensent que le domaine de l’édition scientifique est le domaine de respectables institutions séculaires, dédiées à la science, à l’instar de la maison Springer, sans réaliser que la restructuration de l’édition et les enjeux de « l’économie de la connaissance » ont complètement bouleversé la donne. Pour favoriser une prise de conscience de la situation, il est peut être bon de présenter brièvement le pedigree d’un échantillon des cadres dirigeants des majors de l’édition scientifique. En voici donc un échantillon représentatif de cinq d’entre eux :

Sir David Reid, est Non-Executive Director (directeur non-exécutif) de Reed-Elsevier. Il est aussi chairman (président) de Tesco PLC (3eme leader mondial de la grande distribution derrière WallMart et Carrefour22) dont il a été le directeur financier. Il est enfin ambassadeur des affaires du Premier ministre néo-Thatcherien anglais David Cameron. Son collègue Robert Polet a été directeur non exécutif de Philip Morris International et président et chef de direction (chief executive officer) du groupe de luxe Gucci jusqu’à fin 2011. Il a passé 26 ans dans le marketing chez le géant de l’agroalimentaire Unilever où il finit président de la division Crèmes glacées et aliments surgelés (Unilever’s Worldwide Ice Cream and Frozen Foods division). Enfin Cornelis van Lede est dirigeant (Executive Officer) de Koninklijke Philips Electronics NV. M. van Lede a été président et membre du conseil d’administration et chef de la direction d’Akzo Nobel NV (fabricant et distributeur de produits de santé, revêtements et produits chimiques), de 1994 à mai 2003. De 1991 à 1994, M. van Lede a été président de la Confédération de l’industrie et des employeurs néerlandais (VNO) et vice-président de l’Union of Industrial and Employers’ Confédérations de l’Europe (UNICE). Il est président du conseil de surveillance de Heineken NV depuis 2004. Il est président du conseil de surveillance de la banque centrale néerlandaise (…).Il a servi comme membre du Conseil de surveillance de Royal Dutch Airlines KLM. M. van Lede a été membre du Conseil consultatif européen de Jp Morgan Chase & Co. depuis octobre 2005.

Jetons rapidement un œil chez Thompson Reuters maintenant. Parmi ses directeurs nous rencontrons Sir Deryck Maughan qui a été PDG (Chairman and Chief Executive Officer) du Citigroup International et Vice Président du New York Stock Exchange (bourse de New York) de 1996 à 2000. Finissons notre petite visite par le Board of Trustees. Voici Dame Helen Alexander, qui a été (entre autres) directrice générale (Chief Executer) du groupe du journal économique « The Economist » fer de lance de la City, et directrice opérationnelle (managing director) du renseignement stratégique économique (« Economist Intelligence Unit ») entre1993 et 1997. Elle travaille aussi pour la World Wide Web foundation, The Port of London Authority (PLA) et pour Rolls-Royce, et est présidente de la Said Business School à Oxford. Et à ses côtés, voici quelqu’un de plus connu du grand public, le français Pascal Lamy , ancien sherpa de Jacques Delors à la Commission Européenne, et auteur depuis d’une belle carrière qui l’a mené, via le Crédit Lyonnais , à la direction de l’Organisation Mondiale du Commerce (OMC, World Trade Organisation WTO en Globish), bien connue pour son rôle dans la mondialisation néolibérale et la globalisation.

On pourrait continuer (tout est visible et fièrement affiché sur les sites web des firmes correspondantes). Mais on a vu l’essentiel : Marketing, École de Commerce, grande distribution, industries du tabac et de l’alcool, de l’automobile, de l’agro-alimentaire, de la chimie, du médicament, compagnies d’aviations, import-export, groupes financiers, organisations patronales, grands groupes d’investissement spéculatifs, banque mondiale. L’édition scientifique et le contrôle qu’elle offre sur la source de l’économie globalisée de la connaissance attire des seigneurs du capitalisme financier mondial et de la mondialisation23. Et derrière eux, comme nous l’avons vu, la rentabilité de l’édition scientifique attire fonds de pensions et sociétés d’investissement en capital risque.

Une prise de contrôle qui affaiblit la science

Il est important de répéter ici que cette évolution de l’économie des publications scientifiques, et plus généralement de la production scientifique est inefficace (les coûts sont sans lien avec le service rendu, pilotés uniquement par les exigences de la rente servie aux actionnaires). Ainsi le coût par page sur l’ensemble des domaines scientifiques est 5 fois plus élevé chez les éditeurs à but lucratif que chez les éditeurs à but non lucratifs ; alors que le coût par point d’audience (pour prendre les indicateurs même de l’édition privée) est 10 fois plus élevé ! (Tuckerman, 2011). Et surtout cette évolution est totalement intenable économiquement. En effet les accords pluriannuels dits du « Big Deal » signés entre les bibliothèques et les Majors de l’édition scientifique prévoient une augmentation des prix non négociable de 5 à 7 % par an (Comité de l’IST, 2008), pour autant que l’on sache car les accords portant sur l’accès aux collections électronique sont confidentiels (une condition imposée par les Majors de l’édition). Ceci conduit à un doublement des budgets d’achat tous les 14 ans. Le budget annuel d’abonnement aux journaux de l’Université d’Harvard en 2011 atteignait ainsi un total annuel de 3.75 Millions de dollars. A l’Institut National de la Recherche Agronomique français (INRA), le budget « ressources électroniques » en 2013 serait de 2,75 Millions d’€ (dont environ 850 K€ pour le seul Elsevier), ce qui représente un budget de fonctionnement équivalent à celui de l’ensemble des recherches en écologie des forêts et milieux naturels (département EFPA, l’un des 13 départements de cet organisme) ! Enfin pour le consortium Couperin, regroupant l’essentiel des bibliothèques universitaires on évoque des chiffres atteignant 70 Millions d’€ annuels (Cabut et Larousserie, 2013), Dans le contexte de crise économique majeure et de progression lente voire de stagnation des budgets de la recherche publique, les conséquences de cette situation de « racket » s’aggravent et deviennent intenables (Harvard University, Faculty Advisory Board, 2012).

On retrouve ici une caractéristique générale de l’économie de marché : la marchandisation d’un service public s’avère l’opération la plus rentable pour les actionnaires (Maris, 2006). Peu d’investissement, une économie de racket et de bulle artificielle: quand le secteur sera exsangue, les actionnaires iront ailleurs et on laissera à l’État et aux organisations à but non lucratif24, le soin de remonter la science (s’ils le peuvent et le veulent). Et peu importe la perte de bien public pour l’humanité !

Par ailleurs, en science comme ailleurs, le renforcement de la compétition entre les acteurs de la science présente des limites. La science n’a pas eu besoin d’une compétition basée sur l’Audimat pour atteindre des sommets. Notre curiosité, notre volonté très humaine d’améliorer les conditions de notre vie et celles de nos semblables, pimentées par l’émulation de la découverte suffisent largement. La transformation d’une part des chercheurs en gestionnaires de leur portefeuille de publications, avec tous les effets de mode associés qu’illustre le fait de vouloir avoir son papier dans « Nature » renforce encore les tendances non innovantes de la science (Khun, 1958 ;Monvoisin, 2012).

Enfin, la possibilité de contrôle extérieur de la science via les techniques de management à l’Audimat, remet en cause la tendance majeure de la science vers l’autonomie et l’indépendance vis à vis des groupes d’intérêts économiques, et pose de très sérieux problèmes d’éthique (COMETS, 2011).

Ainsi comme on le voit, cette main basse sur la science n’est pas liée uniquement à une quelconque « naïveté » des chercheurs. Elle a été réalisée avec la complicité active et sous la pression des gouvernements néo-libéraux (au sens large), et des think-tanks associés, tout particulièrement en Europe et aux USA (Bruno, 2009)25. Ils y ont vu en effet sur le plan idéologique un des éléments du démantèlement de l’État et des services publics et un mode d’optimisation de la Science selon le dogme du Marché-Grand-Optimisateur, pour ne rien dire des aspects plus prosaïques du lobbying privé des grands groupes de presse ; et aussi, comme nous l’avons vu, la porte ouverte sur un mode efficace (de leur point de vue) de contrôle managérial sur un secteur désormais identifié comme crucial dans des économies néolibérales de la connaissance (Gooden et al, 2002 ; Bruno, 2009). Et cette marchandisation du savoir a impliqué des investissements importants dans la réorganisation de l’édition scientifique et le transfert des techniques issues de la haute finance, sous le pilotage de « seigneurs » du capital financier. Et on n’est pas au bout des innovations dans ce domaine !

Un nouvel avatar : faites bientôt votre Mercato online grâce au Facebook des scientifiques, qu’ils construisent eux même gratuitement !

Une nouvelle innovation a été récemment introduite par Thomson Reuter, qui devrait permettre d’aller encore plus loin dans le contrôle et la modification profonde du fonctionnement de la science. Il s’agit de MyResearcherID26. Au départ, il y a probablement la recherche de solution à un problème technique. En effet la base de données des journaux scientifiques avait été initialement conçue pour la seule cotation des journaux, pas pour celle des chercheurs ni celle des institutions de recherche. En conséquence si les journaux et les articles étaient identifiés de manière non ambigüe (chacun avait un numéro identifiant unique, à l’instar de notre n° de sécurité sociale), ce n’était pas le cas des auteurs et de leurs institutions, qui étaient identifiés uniquement par leur nom, dans un format libre. Ainsi les publications et les points d’audimat attribués à Mr/Ms Smith, Schmidt, Martin ou Zhang peuvent être le fait de très nombreux homonymes différents27. Inversement, d’une publication à l’autre le nom des instituts pouvait changer, parfois CNRS, parfois Centre National de le Recherche Scientifique, parfois avec une virgule, parfois pas…. Et donc on n’arrivait pas à affecter les parts d’Audimats effectives aux différentes entités. Pour les établissements de recherche et les universités, la solution a été imposée par les gouvernements néo-libéraux : à ces établissements de standardiser leur dénomination et de l’imposer à leurs employés, sinon leur part d’Audimat tronquée serait prise en compte lors de leur notation par les Agences, à leur détriment28. Mais au niveau des individus, ce n’était pas possible car même normalisé, Mr Martin restait Mr Martin. Il aurait fallu refondre tout le système et donner à chaque utilisateur un identifiant à l’instar de ce qui se pratique en informatique (login, mot de passe). Entreprise colossale et coûteuse, qui aurait sérieusement grevé les dividendes des actionnaires. Et c’est là qu’intervient l’astuce. On a proposé aux chercheurs de créer leur page web sur le système de Thomson Reuter et ce gratuitement (au début tout du moins). Ainsi ils peuvent bénéficier de la visibilité du système Thomson Reuter. Et dans un souci de « service au consommateur », on leur propose même tous les outils nécessaires pour aller chercher leurs publications et les affecter à leur page MyResearcherID. Mais en créant leur page, ils se voient attribuer un identifiant unique, et ils effectuent ainsi, une fois de plus gratuitement, le lourd travail qui consistent à trier parmi tous les homonymes, les publications qui correspondent à l’individu désormais identifié. Bénéfice considérable pour Thomson Reuter !! Mais surtout un pas de plus dans le management de la Science par les Marchés. Se crée ainsi au niveau mondial et de façon standardisée un équivalent des tableaux palmarès des employés de chez Mc Donald’s, Wall Mart ou Carrefour  (en pire car jamais McDo ou Carrefour n’aurait laissé une entreprise extérieure et sans contrat avec eux prendre la main sur les critères de leur palmarès, comme c’est le cas pour les institutions de recherche avec Thomson Reuter). Mais en donnant l’impression aux personnes qu’elles font librement le choix de réaliser leur page MyResearcherID, en les associant à sa réalisation et en leur donnant l’impression d’affirmer leur identité individuelle de chercheur (leur offrant pour cela l’équivalent moderne du miroir magique de la Reine de Blanche Neige) on les implique plus fortement en réduisant leur capacités critiques ; c’est une forme connue de marketing/manipulation (Joule et Beauvois, 2002).

Comme pour FaceBook, la réussite d’un tel système tient au fait qu’un nombre substantiel de personnes s’impliquent rapidement. Il faut en effet que cela crée une norme sociale, que les récalcitrants ou simplement les négligents se voient obligés d’entrer dans le système sous peine d’exclusion sociale avant que la prise de conscience des enjeux cachés du système et sa contestation éventuelle ne prenne de l’ampleur. Pour MyResearcherID la partie est encore ouverte car les institutions renâclent un peu à jouer le jeu, sentant que le cœur du management des personnes pourrait alors leur échapper et que le service pourrait de plus devenir payant. Gageons que les lobbys s’activent en coulisse pour que les gouvernements imposent MyResearcherID comme ils ont imposé l’Impact Factor. Mais au niveau des acteurs même de la recherche, les temps changent.

Des formes de résistances … et une vraie lutte qui s’engage!

En effet une prise de conscience a eu lieu et des formes de résistance s’organisent. Le monde des Bibliothèques des universités et des grands organismes a été le premier à tirer la sonnette d’alarme, publiant des analyses détaillées (ex : Chartron, 2009, Bolgus Operandi, 2009 a,b, Vajou et al., 2010) et commençant même un mouvement de désabonnement. Elles ont vu en effet l’étau des maisons d’éditions Majors se resserrer sur elles et elles ont gouté à l’agressivité de leurs pratiques commerciales lors des négociations dites du « BigDeal » (COMETS, 20111), que certains comparaient à celle de la grande distribution (à juste titre, c’est, nous l’avons vu, la même logique et les mêmes filières de formation pour les cadres). Les chercheurs en informatique, qui avaient été aux premières loges de la lutte sur le logiciel libre, leur ont emboité le pas, bientôt rejoints par les mathématiciens et les physiciens, qui avaient organisé dès les années 90 une alternative efficace sous forme d’archives ouvertes (ou « green open-access », où les chercheurs déposent leurs publications, et viennent chercher celles de leurs collègues via des moteurs de recherche, comme par exemple la fameuse ArXiV). Les journalistes scientifiques, sensibilisés par leur propre expérience des grands groupes de presse et par leur attachement à la science, se sont aussi emparé de l’affaire et l’ont analysée. Et de plus en plus de chercheurs et de conseils, comités, commissions et syndicats se saisissent de ce problème (ex l’ Académie des Sciences29, le Comité d’éthique du CNRS –COMETS 2011- ou le travail de la Commission Recherche de la CGT-INRA sur ce thème30). L’ampleur de cette dénonciation et sa visibilité internationale a augmenté d’un cran avec le mémorandum officiel envoyé par le Faculty Advisory Council de l’Université d’Harvard à tout son corps professoral, affirmant le caractère insoutenable de la situation actuelle (Harvard Univ Faculty Adv. Board 2012, voir aussi l’article de Anne Benjamin du Monde et Jean Perès d’Acrimed).

Le niveau le plus bas de cette résistance est le boycott par les chercheurs des revues des Majors de l’édition. A niveau équivalent, on a souvent la possibilité de préférer une revue restée dans le giron de presses universitaires ou de grands organismes (ex Science plutôt que Nature, PloS31, Plant Physiology ou J Exp Botany plutôt que New Phytologist ou Plant Cell and Environment). Sur ce plan les plateformes des grands éditeurs sont très pratiques pour avoir la liste des revues à éviter pour publier, agir comme référé ou comme éditeur associé (voire pour citer, mais dans ce cas on peut pénaliser l’avancée de la science ..). Mais malheureusement on voit de plus en plus les pratiques de maisons d’éditions universitaires s’aligner sur celles des Majors. De plus, hors d’un mouvement collectif puissant, ce mode d’action est limité, surtout que le mode de management au « publish or perish » (publier ou périr) assure une pression très forte sur les individus. En outre, des communautés entières ont vu leur journaux passer sous contrôle des Majors à leur corps défendant, ou sans réaliser l’enjeu, et il devient très difficile pour des chercheurs de boycotter des journaux qui ont de fait une réelle utilité et qualité scientifique. Un mouvement de boycott est cependant peut être en train de naitre : on assiste en effet ces derniers temps à des appels au boycott. Ainsi deux pétitions sur ce thème circulent en ce moment à l’initiative de mathématiciens, et portées par des médailles Fields32 (Vey, 2012). Cette floraison d’analyses critiques et de prises de positions a même amené certains à s’interroger sur le début d’un « printemps académique » (Agence Science Presse 2013).

CorteX_Publish_or_PerishUn niveau plus avancé de résistance est que la communauté scientifique se réapproprie ses moyens de publication. Cela semble techniquement possible, et les réussites les plus prometteuses se situent dans le domaine de l’accès libre (Open Access) 33, avec en particulier la réussite remarquable des journaux PLoS (Public Library of Science) par la bibliothèque nationale des USA et, dans une moindre mesure, de BMC34 pratiquant la licence Creative Commons35 . Encore plus loin du modèle des revues, on trouve le mouvement mondial des archives ouvertes qui a débuté dès 1991 dans le domaine de la physique avec ArΧiv, initiée par Paul Ginsparg, et qui est lui aussi en fort développement dans certaines disciplines. En Europe l’Université de Liège en Belgique a fait office de pionnier avec l’archive ORBI ouverte en 2008, et en France l’équivalent est en place avec HAL (hal.archives-ouvertes.fr). Et un mouvement relancé par l’Initiative dite de Budapest en 2002 autour de l’idée «  ce que la recherche publique a financé et produit doit être accessible gratuitement » prend de l’ampleur ( Cabut et Larousserie, 2013). Un appel et une pétition dans ce sens viennent ainsi d’être lancés en mars 2013 par un collectif de chercheurs et de bibliothécaires36.

Tout ceci inquiète dans les cercles financiers et « The Economist » semble penser que la poule aux œufs d’or a peut-être vécu, ou du moins qu’il sera moins facile à l’avenir de voler les œufs (The Economist, 2010). C’est pourquoi, à l’instar de ce qui se passe dans le domaine de l’édition musicale, les Majors contre-attaquent. On observe ainsi actuellement une forte bataille autour de tentatives législatives visant à déstabiliser la dynamique de l’Open Access et reprendre toute la mise. La dernière de ces tentatives a commencé en décembre 2011 sous la forme du Research Works Act 37, un projet de loi introduit par la Chambre des représentants des Etats-Unis par des élus républicains et démocrates, sous lobbying de l’Association of American Publishers (AAP) et la Copyright Alliance, et autour duquel la bataille a fait rage. La deuxième plus récente a été le procès intenté à Aaron Swartz aux USA (Le Strat et al., 2013, Cassili 2013, Alberganti, 2013,Tellier, 2013). Cet informaticien brillant travaillant à Harvard, et qui avait participé à l’élaboration des flux RSS ou de licence Creative Commons, puis à la lutte sur les projets de lois Sopa et Pipa (les équivalents Etats-Uniens d’Hadopi), avait en 2011 craqué le site d’archivage d’articles scientifiques JSTOR rendant l’accès aux publications (et au savoir qu’elles contiennent) libre et gratuit. Pour ces faits, le procureur des États-Unis Carmen M. Ortiz l’a fait arrêter et l’a accusé de forfaiture, lui faisant encourir une peine pouvant atteindre 35 ans de prison et 1 million de dollars d’amende. Devant cette perspective, Aaron Swartz s’est suicidé, à l’âge de 26 ans38.

Mais plusieurs revers ont aussi été subis par l’oligopole des Majors. Le cas tragique d’Aaron Swartz, et son positionnement au confluent de la culture du net libre et de l’accès libre à la connaissance scientifique a relancé le débat autour de l’économie de la publication scientifique (Alberganti, 2013) et l’a surtout popularisée bien au-delà des cercles académiques (en France, des grands journaux ont couvert l’affaire –ex Le Strat C., S. Guillemarre et O. Michel 2013, Cassili 2013, Alberganti, 2013- et le magazine Télérama a fait ainsi sa couverture sur l’évenement – Tellier, 2013). Sous la pression de ce mouvement d’opinion (très fort aux USA), le Massachuchetts Institute of Technology (MIT) a annoncé une enquête sur cette affaire qu’il a confiée à Hal Abelson, personnalité reconnue du logiciel libre.

Plus largement, sous la pression du monde de la recherche, Elsevier a déclaré le 27 février 2012 qu’il renonçait à son soutien du Research Works Act. Le 17 avril 2012, le mémorandum du conseil consultatif de l’université d’Harvard (dont nous avons déjà parlé) encourage ses 2100 professeurs et chercheurs, à mettre à disposition, librement et en ligne leurs recherches (Harvard Univ Faculty Adv. Board 2012, voir aussi l’article de Anne Benjamin du Monde et Jean Perès d’Acrimed). Par ailleurs, confrontés à la pression venant des milieux académiques et citoyens, aux coûts croissants des budgets des abonnements, mais surtout probablement à un lobbying des entreprises fondant leurs innovations sur les résultats de la recherche et ayant envie d’avoir un accès plus rapide et moins couteux à l’information, les gouvernements de grands pays de recherche sont en train de changer de position. En Grande Bretagne, le 3 mai 2012, le très conservateur et ultralibéral gouvernement anglais a dû aussi faire machine arrière), proposant la création dans les deux ans, d’« une plateforme en ligne permettant à chacun de consulter gratuitement et sans condition toutes les publications subventionnées par l’État britannique ». La réalisation de ce projet serait confiée à Jimmy Wales, un des deux fondateurs de Wikipédia (Jean Perès, 2012). Enfin la Commission Européenne en juillet 201239, et l’administration Obama en février 201340 viennent toutes deux de publier des recommandations allant dans le même sens, tout en recommandant la recherche d’un « équilibre » entre les intérêts de l’innovation et de l’édition (la détermination de cet équilibre étant donc dépendante des rapports de force qui s’établiront autour de cette question). Par ailleurs des juristes proposent que les droits d’auteurs d’une publication liée à un travail réalisé sur fonds publics soient inaccessibles à un éditeur (Le Strat Guillemarre et Michel, 2013). Enfin, au-delà même de la question de l’accès aux publications et du copyright, un large débat de fond continue à monter sur le statut de la connaissance scientifique, celui des chercheurs (en lien avec leur indépendance), insistant sur le caractère délétère du management néolibéral à l’audimat (Couée, 2013).,Il est nécessaire de reconnaitre l’autonomie, l’ universalité et le tempo propre de la recherche (voir par exemple récemment l’appel et pétition « Slow Science »41, mais aussi les travaux de Pierre Bourdieu (1997), Isabelle Bruno (2008) et Vincent de Gaulejac (2012) ainsi que les dénonciations répétées des effets de la politique du chiffre de publications et des « Primes d’Excellences » qui lui sont associées par les syndicats et associations de chercheurs).

Il reste du chemin à parcourir pour construire un système public ou coopératif de publication capable de permettre la diffusion des publications scientifiques au niveau mondial. Il est clair que ce mouvement n’aboutira pas sans une réflexion collective de fond sur la place de la publication : sens du nom du chercheur et du collectif, rôle d’un service public de recherche…. Il est grand temps que la prise de conscience s’effectue et que chacun s’y mette. Vous pouvez déjà y participer en vous intéressant à ces questions, en essayant d’initier des réflexions sur ces thèmes dans vos laboratoires, et de faire aussi pression sur vos institutions et sur le gouvernement pour qu’elles reprennent la main sur les publications qu’elles coéditent avec les Majors et acceptent l’Open Access, et qu’elle revoient leur méthode de management.

 On a pris l’ivoire de la Tour ! Des chercheurs dans la rue ?

Cette évolution majeure de l’économie de la science met ainsi les chercheurs, les techniciens et les services d’appui de la recherche au contact direct du capitalisme le plus dur, souvent à leur insu (car peu d’entre eux prennent le temps d’aller visiter les sites web des Majors de l’édition). Mais cette confrontation directe du monde de la recherche avec le rouleau compresseur du capitalisme le plus sauvage fait naître une prise de conscience les faisant sortir de fait de leur tour d’ivoire (Monvoisin, 2012). Face à des budgets réels en baisse du fait du racket des ressources42 et aux absurdités de la gestion de la Recherche par l’Audimat et au seul profit des bénéfices des Majors de l’Edition, les analyses de la situation se multiplient. Les similitudes avec la situation d’autres secteurs qui ont perdu depuis plus longtemps leur protection face à la pression des marchés sont perçues. Nous en avons tracé quelques unes ici : journalistes soumis à l’Audimat et au pouvoir de grands groupes de Presse et de l’orthodoxie néo-libérale, les artistes et le grand public autour des questions de copyright et d’Hadopi, de bien public et des protection des créateurs (le copyright ayant été là aussi dévoyé de son but initial de protection de la création pour être mis au service des gestionnaires de droits).

Les chercheurs ainsi mis à la rue (aux deux sens du terme), on pourrait voire se développer des solidarités revendicatives nouvelles, par exemple avec les journalistes et avec la communauté du logiciel libre. Et plus largement, les chercheurs se trouvent mis à la même enseigne que l’ensemble des personnes soumises au management brutal de la néo-taylorisation des entreprises de services (rejoignant l’expérience plus ancienne des travailleurs de l’industrie). Malgré une connaissance générale de l’histoire des organisations et de la résistance à l’aliénation du travail encore globalement faible dans le monde de la Recherche Scientifique (à l’exception notable des sciences humaines, si visées par les gouvernements néo-libéraux), on peut espérer que cette situation sera salutaire, et permettra à un grand nombre de chercheurs de mettre leur capacité d’analyse et de création au service du mouvement naissant de réappropriation de l’autonomie de la science et de son indépendance vis-à-vis des intérêts privés financiers, et plus largement des biens publics de la connaissance publiques, indûment privatisés. Ce mouvement est en marche, et c’est le moment de l’amplifier.

Le 6 avril 2013 43.

Rédacteurs : Bruno Moulia, Directeur de Recherches Inra (1),

Yves Chilliard, Directeur de Recherches Inra (1) (2),

Yoel Forterre, Directeur de Recherches Cnrs,

Hervé Cochard, Directeur de Recherches, Inra,

Meriem Fournier, ICPEF, Enseignante-Chercheuse AgroParisTech,

Sébastien Fontaine, Chargé de Recherches Inra (1) (2),

Christine Girousse, Ingénieur de Recherches Inra,

Eric Badel, Chargé de Recherches Inra,

Olivier Pouliquen, Directeur de Recherches Cnrs,

Jean Louis Durand, Chargé de Recherches Inra (1) (2).

(1) Membre de la Commission Recherche de la Cgt-Inra, (2) Membre de la Commission Exécutive de la Cgt-Inra

Références  

  1. Agence Science Presse 2013: Le printemps académique http://www.sciencepresse.qc.ca/actualite/2012/07/03/printemps-academique
  1. Alberganti, M, 2013. Economie de la publication scientifique et libre accès: un débat relancé par la mort d’Aaron Swartz. Slate.fr 21/01/2013. http://www.slate.fr/story/67263/suicide-aaron-swartz-economie-publication-scientifique-libre-acces
  1. Barot S, Blouin M, Fontaine S, Jouquet P, Lata J-C, et al (2007) A Tale of Four Stories: Soil Ecology, Theory, Evolution and the Publication System. PLoS ONE 2(11): e1248. doi:10.1371/journal.pone.0001248

  1. Bauerlein M., Gad-el-Hak M., Grody W., McKelvey W. and Stanley W.2010 We Must Stop the Avalanche of Low-Quality Research. The Chronicle of Higher Education : June 13, 2010 http://chronicle.com/article/We-Must-Stop-the-Avalanche-of/65890/
  1. Baumard P, 2012. Formes de connaissance et compétition. In Harbulot Christian (ed). Manuel d’Intelligence Economique. PUF. 177-188.
  1. Benjamin A, 2012 Harvard rejoint les universitaires pour un boycott des éditeurs Le Monde.fr | 25.04.2012 http://www.lemonde.fr/sciences/article/2012/04/25/harvard-rejoint-les-universitaires-pour-un-boycott-des-editeurs_1691125_1650684.html
  1. Casilli A, 2013 Aaron Swartz, le suicidé de l’édition scientifique commerciale , Le Huffington Post, 13/01/2013 http://www.huffingtonpost.fr/antonio-casilli/aaron-swartz-le-suicide-de-ledition-scientifique-commerciale_b_2466175.html
  1. Couée I, 2013. The economics of creative research EMBO reports 14 :3 222-225 doi :10.1038/embor.2013.11
  1. Havard University , Faculty Advisory Council, 2012 : Faculty Advisory Council Memorandum on Journal Pricing to Faculty Members in all Schools, Faculties, and Units :Major Periodical Subscriptions Cannot Be Sustained, April 17, 2012 http://isites.harvard.edu/icb/icb.do?keyword=k77982&tabgroupid=icb.tabgroup143448
  1. Pérès J, 2012 : La révolte contre l’oligopole de l’édition scientifique s’intensifie, ACRIMED, 14 mai 2012 http://www.acrimed.org/article3822.html
  1. Blogus Operandi , 2009 : Le marché de l’édition scientifique est-il compétitif ? Blogus Operandi, le blog des Archives & Bibliothèques de l’Université Libre de Bruxelle 19 Aout 2009 http://blogusoperandi.blogspot.com/2009/08/le-marche-de-ledition-scientifique-est.html
  1. Blogus Operandi , 2009 : Crise de la publication scientifique : rappel des faits ! Blogus Operandi, le blog des Archives & Bibliothèques de l’Université Libre de Bruxelle 12 Aout 2009 http://blogusoperandi.blogspot.com/2009/08/crise-de-la-publication-scientifique.html
  1. Bourdieu P 1997. Les usages sociaux de la science : pour une sociologie clinique du champ scientifique. Sciences en Question INRA Editions (Quae) 79 p ISBN 2-7380-0793-7
  1. Bruno I 2008. « à vos marques®, prêts… cherchez ! » Editions du Croquant 263 p ISBN 978-2-9149-6837-9
  1. Cabut S, D Larousserie 2013. « Savoirs : Un bien public convoité » (à qui appartient le savoir ?) – Cahier Sciences et Techno Le Monde pp 4-5 n° du 02/03/2013, et édition en ligne http://www.lemonde.fr/sciences/article/2013/02/28/a-qui-appartient-le-savoir_1840797_1650684.html
  1. Chartron G., 2007. “Evolutions de l’édition scientifique, 15 ans après » in « Enjeux et usages des TIC : Mutations des logiques éditoriales »., Colloque EUTIC 2007, Ed. Gutenberg, Athènes, 2008.
  1. Chartron G., 2010. Scénarios prospectifs pour l’édition scientifique, Hermès, vol.57, 2010, CNRS Editions, p.123-129 http://archivesic.ccsd.cnrs.fr/docs/00/55/87/46/PDF/GC-Hermes.pdf
  1. COMETS 2011 Avis du COMETS (Comité d éthique de la science du Cnrs) sur « les relations entre chercheurs et maisons d’édition scientifique » http://www.cnrs.fr/fr/organisme/ethique/comets/docs/avis_Relations-chercheurs-maisons-edition.pdf
  1. Comité IST : Information Scientifique et Technique : Rapport 2008. Ministère de l’Enseignement Supérieur et de la Recherche.
  1. Darcos, M, 2011 Le comité d’éthique du CNRS se prononce pour le libre accès et dresse un portrait édifiant du secteur de l’édition scientifique, 22/12/2011 http://blog.homo-numericus.net/article10981.html
  1. Economiste 1992 Reed-Elsevier : Naissance d’un géant de l’édition. L’économiste N° 47 du 01/10/1992 http://www.leconomiste.com/article/reed-elsevier-naissance-dun-geant-de-ledition#top
  1. de Gaulejac, V, 2012 La recherche malade du management Editions Quae, collection Sciences en questions, Paris , France, 96 pp. http://www.quae.com/fr/r2044-la-recherche-malade-du-management.html
  1. Gooden, P, M Owen, S Simon and L Singlehurst, Scientific Publishing: Knowledge is Power, Morgan Stanley, Equity Research Europe, 30 September 2002
  1. Mc Guigan G. S. and Russel R.D 2008: “The Business of Academic Publishing: A Strategic Analysis of the Academic Journal Publishing Industry and its Impact on the Future of Scholarly Publishing”. Electronic Journal of Academic and Special Librarianship v.9 no.3 http://southernlibrarianship.icaap.org/content/v09n03/mcguigan_g01.html
  1. Joule R.V et J.L. Beauvois 2002. Petit traité de manipulation à l’usage des honnêtes gens. Presses Universitaires de Grenoble ISBN 2 7061 1044 9.
  1. Kuhn, T.S. 1962 : La structure des révolutions scientifiques. Traduction française : éditions Champs Flammarion, (1983) France, (ISBN 2-08-081115-0). 284 pages, pp.37-38.
  1. Larsen P.O., • von Ins M. 2010: The rate of growth in scientific publication and the decline in coverage provided by Science Citation Index. Scientometrics (2010) 84:575–603
  1. Maris, B 2006 « Anti-Manuel d’économie » : Tome 1, les fourmis (2003, ISBN 2-7495-0078-8), Tome 2, les cigales ( 2006, ISBN 2-7495-0629-8) Editions Bréal.
  1. Monbiot, G, 2011. “Academic Publishers makes Murdoch look like a socialist”. The Guardian 29 August 2011 http://www.guardian.co.uk/commentisfree/2011/aug/29/academic-publishers-murdoch-socialist
  1. Monvoisin R 2012 “Recherches publiques, revues privées” Le Monde Diplomatique, n° Décembre 2012 p 27. et édition électronique http://www.monde-diplomatique.fr/2012/12/MONVOISIN/48501
  1. Price, D. J. de S. 1963. Little science. Big Science. New York: Columbia University Press.
  1. Stiglitz J 2011 « Le triomphe de la cupidité » Liméac / Babel Actes Sud 513p ISBN 978-2-7427-9504-8
  1. Le Strat C., S. Guillemarre et O. Michel 2013. « C’est la marchandisation du savoir qui a tué Aaron Swartz » L’Humanité 22-24 février 2013.
  1. Tuckerman, L, 2011 Les nouveaux enjeux de l’édition scientifique. (présentation au comité d’éthique du Cnrs) http://www.pmmh.espci.fr/~laurette/scipub/COMETS.pdf
  1. The Economist , May 2011 “Academic publishing: Of goats and headaches ; One of the best media businesses is also one of the most resented” http://www.economist.com/node/18744177
  1. Vajou M., R. Martinez, S. Chaudiron, 2009 Les Enjeux Économiques de l’Édition Scientifique, Technique et Médicale :Analyses et questions clés « Les Cahiers du numérique 5, 2 : 143-172 »
  1. Vey T. 2012 : Des scientifiques se rebellent contre le monde de l’édition Le Figaro (edition Web) 21/02 2012-02-22 http://www.lefigaro.fr/sciences/2012/02/21/01008-20120221ARTFIG00547-des-scientifiques-se-rebellent-contre-le-monde-de-l-edition.php
  1. Ware M & Mabe M 2009, The STM report: “an overview of scientific and scholarly journals publishing”. Mark Ware Consulting http://www.stm-assoc.org/2009_10_13_MWC_STM_Report.pdf
1 Nous reprenons ici la convention usuelle dans les écrits scientifiques de citer nos sources en donnant le nom des auteurs et l’année de leur publication. Ceci renvoie à la référence détaillée à la fin de cet article, permettant à ceux qui souhaitent pouvoir se référer aux sources de le faire

2 c’est la même évolution technologique qui explique la multiplication des revues de plus en plus ciblées dans les linéaires des supermarchés et la possibilité d’avoir pour presque rien un calendrier avec vos photos pour le Nouvel An.

3 Agronomy for Sustainable Development, (anciennement Agronomie), Annals of Forest Science (anciennement Annales des Sciences Forestières), Apidologie, et Dairy Science and Technology (anciennement Le Lait), sont désormais éditées chez Springer,dans le cadre d’un contrat de délégation de service public, dont le montant avoisinerait 2 millions d’euros, http://ted.europa.eu/udl?uri=TED:NOTICE:359772-2010:TEXT:FR:HTML&src=0. Le contrat contient toutefois le droit pour l’Inra de diffuser librement les pdfs des articles sur les sites institutionnels après 12 mois d’embargo.

4 données du Groupement Français des Industriels de l’Information http://www.gfii.fr/fr

5 Nous ne traduisons volontairement pas « copyright » en « droit d’auteurs » car les traditions juridiques anglo-saxones et françaises sur la question des droits attachés à l’auteur et à l’œuvre sont différents : pour une introduction très claire de ces différences, voir le site de la Société des Auteurs et Compositeurs Dramatiques http://www.sacd.fr/Droit-d-auteur-et-copyright.201.0.html , et http://www.sacd.fr/De-1777-a-nos-jours.32.0.html

6 Pour une autre illustration du « business model » de l’édition scientifique basée cette fois sur le monde des jeux vidéo, voir le blog de Scott Aaronson du MIT http://www.scottaaronson.com/writings/journal.pdf

7 Cette pratique du copyright total commence toutefois à se réduire sous la pression des scientifiques à un copyright avec embargo pendant une durée limitée, mais elle reste majoritaire chez les grands éditeurs (Vajou et al. 2009)

8 On se souvient par exemple du scandale récent des écoutes illégales du tabloïde britannique News of the World, qui a défrayé la chronique l’année dernière et mis en lumière les pratiques du groupe Murdoch.

10 Dans sa formulation originale en Globish, cela donne “The niche nature of the market and the rapid growth in the budgets of academic libraries have combined to make scientific publishing the fastest growing sub-sector of the media industry over the last 15 year” D’après le rapport du Comité sur l’IST du Ministère de la Recherche et de l’enseignement supérieur, ces taux de croissance annuelle était de l’ordre de 8%, avec une croissance à 2 chiffres pour la partie édition électronique.

11 C’est ce qu’on appelait naguère la participation, une forme de stock option du pauvre ; car bien sûr le chercheur ou le technicien de la recherche ne pourra s’acheter qu’une très faible partie de ces actions, et restera un petit porteur vis-à-vis des grandes fortunes qui continueront du coup à s’accaparer l’essentiel du bénéfice (en volume)

12 Le nombre de publications scientifiques est multiplié par 100 tous les 100 ans
14 Même si des alternatives s’organisent, elles pèsent peu à ce jour, et certaines sont le fait d’entreprises tout aussi redoutables : Google par exemple via Google Scholar ou Elsevier via Scopus

15 Nous reprenons ici cette dénomination, qui reprend celle d’un syndicat du CNRS, pour désigner tous les salariés qui travaillent dans les institutions de recherches, et vivent de ce travail.

16 D’autant plus que l’obtention de crédits publics pour les projets de recherche auprès des agences de financement est facilitée par une liste fournie de publications, et que le rémunération même des chercheurs peut en dépendre via l’avancement de la carrière (variables selon les systèmes de gestion et d’avancement des chercheurs) voire de … prime d’excellence scientifique (PES) (attention toutefois à ne pas confondre, cette transformation incitative de la reconnaissance symbolique en espèces sonnantes et trébuchantes ne se fait bien sûr pas sur les deniers des sociétés de l’édition, mais bien sur l’argent public)

17 Ainsi l’organisme mis en place par le gouvernement français pour produire des indicateurs sur la recherche (l Observatoire des Sciences et Technique http://www.obs-ost.fr/) reprend le sigle d’OST généralement attaché à l’Organisation Scientifique du Travail, fondée par F. W. Taylor (1856-1915). Connaissant la culture d’histoire politico-économique de nos Enarques, cette coïncidence ne peut être fortuite, et est sûrement une forme de « private joke ».

18 à ceci prêt que le statut de fonctionnaire les protège en partie, mais ce point est en train d’être contourné par la généralisation –dans ce domaine comme partout – des CDD et autres statuts intérimaires

20 Les récents scandales sur la viande de cheval ont montré à quel degré d’intégration et de spéculation (« trading ») était arrivé la filière de la viande

21 Dans le cas du monde de la science cette rétribution en monnaie symbolique, peu échangeable hors du champ de la science (sauf à le compenser en allant se vendre sur les grands médias télévisés ou sur le Mercato scientifique), évoque aussi un peu l’étape où les ouvriers des usines étaient payés en billets qui n’avaient cours qu’au sein de l’entreprise, et ne permettait des achats que dans les magasins de la même usine. Mais ici encore le modèle économique de la science est plus subtil, puisque l’achat des publications se fait lui en argent courant. .

23 Nous avons choisi volontairement ici des dirigeants « ordinaires ». On pourrait aussi citer des cas qui ont plus décrié la chronique, comme le cas du sulfureux Robert Maxwell, ancien magnat de la presse anglo-saxonne et partenaire de Bouygue dans la privatisation de TF1, qui avait commencé son ascension avec le groupe d’édition scientifique Pergamon Press, pour devenir un symbole des malversations financières et des relations troubles avec des services secrets. http://fr.wikipedia.org/wiki/Robert_Maxwell . Mais le caractère exceptionnel de ces cas affaiblirait le propos, même s’il illustre peut être jusqu’où le système peut dériver.

24 Beaucoup d’université dans les pays anglo-saxons sont des organisations à but non lucratif (non-profit organizations)

25 Les plus grands producteurs d’analyse sur la mesure de la production scientifique et les effets de modes de management sont en effet la Commission Européenne, la National Science Fondation américaine, et l’OCDE

26 http://images.webofknowledge.com/WOK45/help/WOK/h_researcherid.html , voir aussi http://libguides.babson.edu/content.php?pid=17297&sid=117702

27 Situation qui se complique encore pour les chercheuses si éventuellement elles changent de nom lorsqu’elles se marient

28 Tâche qui n’est pas forcément anecdotique quand on sait que le management actuel s’accompagne i) de fréquentes restructurations à tous les niveaux (ex en France la création des instituts au CNRS par le gouvernement Fillon, mais aussi remodelage très rapide du contour des unités de recherches en encore plus des équipes, au rythme de leur notation par les agences ) et ii) de la multiplication des structures englobantes ou de passerelles (ex les Pôles de Recherches et d’Enseignement Supérieurs, Alliances, Agreenium entre l’INRA et le CIRAD …mais aussi les pôles de Compétitivités entre recherche et entreprises privées ….) , l’idée étant de les multiplier pour laisser aux évaluations (et donc comme nous l’avons dit, finalement aux marchés) le soin de faire la sélection et de remodeler ainsi toute l’organisation de le Recherche.

31 Journaux open-access publiés par la Public Library of Science of the United States of America
32 The « cost of knowledge » lance par mathématicien britannique Timothy Gowers, détenteur de la médaille Fields, équivalent du prix Nobel en mathématiques http://thecostofknowledge.com/ signée par près de 7000 chercheurs à ce jour et http://www-fourier.ujf-grenoble.fr/petitions/index.php?petition=3

33 L’Open Access est un modèle économique alternatif, dans lequel les frais de publication sont supportés lors de la publication, l’accès étant ensuite gratuit. Cela résout immédiatement la discrimination par la fortune à la connaissance scientifique. Une question cruciale est bien sûr la juste évaluation au prix coutant des frais d’édition et de dissémination. Ce n’est pas une question simple (mais des exemples de réussite existent), et on a vu en tout cas que les Marchés ne pouvaient pas la résoudre. Par contre les Majors de l’édition ont bien vu le danger et elles ont crée un OpenAcess « marron », incorporant leur taux de bénéfice (majorés de leur perspectives de croissance) dans les frais. Donc attention à distinguer l’Open Access équitable de sa contrefaçon mercantile.

Voir aussi Libre accès, et Cabut et Larousserie (2013).

34 l’éditeur BioMedCentral , qui avait fondé son modèle économique sur le paiement par l’auteur et le libre accès au lecteur via les licences Creative Commons a toutefois été racheté récemment par Springer, ce qui démontre que cette bataille reste indécise.

35 Les licences Creative Commons ont été crées à partir du constat selon lequel les lois actuelles sur le copyright étaient un frein à la diffusion de la culture et traduisent en droit l’idée que la propriété intellectuelle est fondamentalement différente de la propriété physique. http://fr.wikipedia.org/wiki/Licence_Creative_Commons

42 Notons que même si elle est très importante, la dîme des Majors de l’édition n’est pas le seul détournement de l’argent public destiné à la recherche scientifique par la finance ; les différents « crédits impôts recherches » qui font distribuer l’argent public via des entreprises privées, en leur permettant en sus une optimisation fiscale, ou encore les aspects liés aux brevetage du vivant sont aussi à prendre en considération , mais cela demanderait un travail substantiel et nous renvoyons le lecteur à l’abondante littérature sur ces sujets.

43 Ceci est la version revue et corrigée sur quelques points de détails d’un premier texte publié le 20 mars 2013