Biologie, épistémologie – Guillaume Lecointre, des sciences très sollicitées

Des sciences très sollicitées

L’évolution biologique est rarement bien enseignée dans les écoles publiques de par le monde, quand elle l’est. Il est vrai qu’il est difficile de parler d’un phénomène qui échappe à nos sens, et dont les changements qu’il produit sur les êtres vivants sont dépourvus de toute notion de destin : rien n’est écrit à l’avance. Rien de plus difficile pour notre psychologie et notre grammaire, habituées à se penser dans une finalité. Mais surtout, l’évolution biologique contient ce que les sciences ont à dire sur l’origine des êtres vivants, de l’homme et de ses sociétés. Or, ce terrain-là est déjà largement investi, hors des laboratoires et des écoles publiques, par d’autres modalités d’affirmations sur le monde, dont certaines n’entendent pas laisser aux sciences leur autonomie dans la validation des savoirs.

CorteX_science_vs_creationismOn ne s’attardera pas sur les créationnismes « négationniste » et « mimétique ». Ils se fondent sur le récit de la création de l’univers dans les grands textes monothéistes, pris de façon littérale. Les contradictions qui en résultent provoquent une négation des résultats des sciences dans le premier cas, ou bien une « science créationniste » qui établit les prétendues preuves de la vérité littérale du texte dans le second cas. Le premier est notamment représenté par Harun Yahya, pseudonyme de M. Adnan Oktar, homme d’affaires et d’influence turc, qui distribua en janvier 2007 dans toute l’Europe son Atlas de la Création, (auto-édité, Global Publishing) y compris dans les établissements scolaires et laboratoires français. En janvier 2012, via Harun Yahya France, il organisait à Paris, à Rouen et à Évry, une série de conférences : « L’impasse moléculaire de la théorie de l’évolution » « l’effondrement de la théorie de l’évolution »…

Mais il existe une autre stratégie, plus fine, celle d’un créationnisme « normatif » qui entend redéfinir les sciences de l’extérieur, et faire accepter comme scientifique le recours à la Providence. Ce sera le propos de l’ « Intelligent Design », le dessein intelligent. Il n’y a plus de référence aux textes sacrés, mais un « constat »: « L’existence et le développement sur terre requièrent tellement de variables qu’il est impossible qu’ils se soient ajustés par des évènements aléatoires et non-coordonnés »[2]. En d’autres termes, certaines caractéristiques du vivant seraient mieux expliquées par une cause intelligente, que par des processus de variation-sélection. Ce dessein intelligent, développé aux États-Unis par le Discovery Institute, un think tank conservateur chrétien, n’est autre que la théologie naturelle déguisée en science.

Enfin, il existe un spiritualisme englobant, qui n’est pas un créationnisme au sens étroit, mais qui tente de mobiliser la communauté professionnelle des chercheurs dans une « quête de sens », en créant une confusion entre ce que ces derniers peuvent dire individuellement, et ce qu’ils sont habilités à dire en tant que membres de la communauté scientifique. En France, c’est l’Université interdisciplinaire de Paris (UIP) qui agit en ce sens, financée notamment par l’organisation américaine John Templeton Foundation du nom de son fondateur, milliardaire philanthrope et presbytérien (1912-2008). Ce dernier considérait que « Dieu se révèle de plus en plus (…) à travers la recherche étonnamment productive des scientifiques modernes », et que « les révélations scientifiques peuvent être une mine d’or pour revivifier la religion au XXIe siècle ». Sa Fondation se donne pour objectif d’encourager « le dialogue civil, informé, entre scientifiques, philosophes et théologiens » [3]; elle se fait de plus en plus incolore afin de souscrire aux critères de la recevabilité académique. La formule fonctionne : pour son colloque des 5 et 6 décembre 2012, l’UIP affiche sa collaboration avec l’Université Paris V.

L’offensive se joue aussi sur le plan politique. Depuis 2003, c’est l’intelligent design que les enfants turcs reçoivent en guise de cours de biologie [4]. En 2004, la ministre italienne de l’éducation nationale et son homologue serbe s’opposent à l’enseignement de l’évolution biologique dans les écoles. En 2006, la ministre néerlandaise propose un référendum sur la question de l’enseignement à l’école publique du « dessein intelligent ». En 2012, l’État américain du Tennessee est le deuxième, après la Louisiane, à autoriser les enseignants à proposer des substituts ou des contre-arguments à l’évolution darwinienne, afin de permettre à l’élève de juger « de manière efficace des forces et des faiblesses des théories scientifiques existantes ». Quatre autres États (Indiana, Missouri, New Hampshire, Oklahoma) examinent des projets de lois comparables.

Si les sciences de l’évolution suscitent tant d’hostilité, alors même que, sans elles, il n’est pas de sélection en agronomie, de lutte contre les agents pathogènes en médecine, de sauvegarde pérenne de la biodiversité, c’est qu’elles semblent interférer avec le domaine des croyances. Il appartient alors aux scientifiques d’expliquer leur « contrat » méthodologique, afin d’inviter leurs concitoyens à ne pas se tromper sur son périmètre de légitimité, de faire comprendre la distinction entre croire et savoir. Surtout, il leur appartient d’expliquer en quoi ces méthodes ne sont pas collectivement mues par une volonté de conforter ou de contredire une croyance particulière. L’articulation entre croyance et savoir est l’affaire de chacun, et les scientifiques ne sont pas des prescripteurs, collectivement, de cette articulation.

CorteX-Flat_Earth_GeographyOr, les créationnismes et spiritualismes cités ont tous un point commun, leur ignorance, réelle ou feinte, de la nature et du périmètre de légitimité de la démarche et du discours scientifiques : ce que les sciences disent, comment elles le disent, ce qu’elles ne disent pas. Quand l’UIP somme les chercheurs de réfléchir aux « conséquences métaphysiques » de leurs découvertes (Le Monde, 23 février 2006) et affirme qu’« un créateur ne peut être exclu du champ de la science », (Le Monde, 2 septembre 2006), elle « oublie » que le propre des sciences n’est jamais de dire ce qu’il faut « croire », mais de démontrer ce qu’il n’est logiquement plus possible de croire. Mais surtout, elle omet de dire si les scientifiques sont appelés à se prononcer sur ces questions à titre individuel, ou à titre collectif. La confusion entraîne le métier de scientifique d’aujourd’hui au delà de sa légitimité. Il s’agit bien là d’une forme de scientisme déguisé. En organisant la confusion entre la quête spirituelle individuelle et le contrat collectif d’une profession, ces offensives peuvent avoir pour effet, à terme, de faire perdre l’autonomie des scientifiques dans la validation des savoirs. En effet, si la profession se voyait collectivement animée d’un agenda métaphysique, il lui faudrait s’attendre à se voir imposé ce qu’il serait conforme de trouver. L’universalisme des connaissances raisonnées, qui tient aujourd’hui précisément à une abstention métaphysique, ne serait plus possible et l’on assisterait à une communautarisation des savoirs.

Il est donc nécessaire d’expliciter le but des sciences et les attendus méthodologiques tacites d’une démarche scientifique, ce qu’on attend de nos doctorants sans le leur dire – le contrat méthodologique, en quelque sorte. Le rôle des sciences, en tant qu’entreprise intellectuelle collective, est de fournir des explications rationnellement justifiées du monde réel à partir d’expériences testables, reproductibles, validées par des observateurs indépendants. L’« expérience » doit être prise au sens large, incluant le produit des enquêtes et les démonstrations mathématiques. Ces attendus sont le scepticisme initial sur les faits – toute question relative à des faits peut être légitimement posée et la réponse n’est pas requise à l’avance ; la rationalité – le scientifique doit être logique et suivre un principe d’économie d’hypothèse; le réalisme de principe – il vise à une connaissance objective, c’est-à-dire qu’il souhaite que d’autres puissent corroborer ses affirmations en les vérifiant dans le monde réel ; ce qui signifie que le monde réel existe indépendamment de soi et de ce qu’on en dit, et qu’il se manifestera à un collègue inconnu comme il s’est manifesté à un autre chercheur ; le matérialisme méthodologique – la vérification expérimentale n’est possible que sur ce qui est matériel ou d’origine matérielle. Dit autrement, les sciences ne savent travailler qu’avec ce qui est matière ou propriétés émergentes de celle-ci. Ce matérialisme-là n’est pas un point de vue philosophique : il affirme seulement mais pleinement que la science ne travaille pas avec des entités à la fois déclarées immatérielles et agissant sur le monde réel.

S’agit-il là d’une vision angélique ? D’un mythe ? Non, d’un contrat minimal sans lequel un doctorant n’aurait pas sa thèse, socle commun auquel peuvent s’ajouter des spécificités disciplinaires. Certes, le scientifique peut avoir ses options personnelles, et même des sources d’inspiration mystiques, mais la validation des savoirs relève du collectif : sur le long terme, une connaissance ne se stabilise que si la reproduction d’expériences a dépassé et, en quelque sorte, dissout les dérapages individuels du savant qui aurait oublié de laisser ses opinions au vestiaire en entrant dans le laboratoire. L’espace collectif d’élaboration des savoirs est donc laïque de fait, et travaille sur le long terme. C’est en enseignant explicitement ce contrat de scientificité qu’on se donnera les chances de garantir un socle factuel commun à tous les futurs citoyens, sans lequel on ne construit pas une république qui met la Raison au cœur du vivre ensemble. L’enjeu n’est pas seulement celui de l’autonomie des sciences, il est aussi et surtout à l’école publique.

Faut-il dialoguer avec les créationnistes ? Bien entendu. Mais les scientifiques ne doivent pas offrir le bénéfice de communication que les créationnistes attendent d’un « plateau commun » avec un scientifique du milieu académique devant le grand public. Les créationnistes tireront toujours avantage d’un tel dialogue, parce le scientifique laissera malgré lui entendre au public que son interlocuteur est susceptible de jouer le même jeu que lui. Or, on peut démontrer que toutes les formes du créationnisme moderne commettent des entorses multiples aux termes du contrat tacite énoncé plus haut. C’est au philosophe, au théologien, et à l’élu politique de dialoguer avec les créationnistes. Mais alors, que doivent faire les scientifiques ?

Aux scientifiques du milieu académique, dont le salaire est financé avec de l’argent public pour produire précisément de la connaissance objective et la restituer vers leurs concitoyens, l’État demande d’être garants de la fiabilité des résultats collectivement acquis-tant qu’il y aura un État redistributeur de richesses, richesses culturelles comprises (et comme dirait Chomsky, mieux vaut les grilles de l’état que les fauves qui tournent autour). A eux de signaler les contrefaçons, et de populariser les règles du jeu qui fondent le contrat entre connaissance et science.

Guillaume Lecointre

Cet article sera publié dans le n° 621 des Cahiers rationalistes, à paraître en janvier-février 2013.

[1] Les Sciences face aux créationnismes. Ré-expliciter le contrat méthodologique des chercheurs Coll. Sciences en questions, Quae, Versailles, 2012. Guide critique de l’évolution, Belin, Paris, 2009.

[2] Qu’est-ce que la Théorie du Dessein Intelligent ? (Got questions, réponses théologiques).http://www.gotquestions.org/Francais/dessein-intelligent.html

[3] Voir le site www.templeton.org et aussi Cyrille Beaudouin,Olivier Brosseau, Cette étrange FondationTempleton, La Recherche Hors Série n°4 « Dieu et la Science »,avril 2012.

[4] Somel Mehmet, Somel Rahsan Nazli Ozturkler, Kence Aykut (2007), Turks fighting back against anti-evolution forces, Nature 445 (7124)

Pédagogie – Atelier zététique et esprit critique en AP en seconde

Julien Peccoud, professeur de Sciences de la Vie et de la Terre en Isère, réalise un fort sympathique matériel pédagogique. Non seulement il partage son expérience, ses réussites mais également ses erreurs et ses doutes, dans un atelier zététique et esprit critique réalisé en séance d’Accompagnement Personnalisé (AP) de seconde. De quoi faire évoluer certaines pratiques mais aussi le cadre éducatif assez restreint dans lequel elles s’inscrivent… suscitant une forte envie de pousser les murs.

[toc]

Contexte

CorteX_gamin_critique

L’accompagnement personnalisé (AP) est entré en vigueur avec la réforme des lycées à la rentrée 2010. Le but de l’AP est assez large, allant du soutien à l’approfondissement en passant par l’orientation. L’organisation de l’AP est laissée à l’appréciation de l’équipe éducative du lycée (autonomie des établissements). Beaucoup de choix sont possibles et on peut remarquer une grande variabilité entre les établissements.

L’AP est maintenant arrivé en terminale avec la réforme montante mais les objectifs ne sont pas les mêmes dans les trois niveaux de lycée. En seconde, ces heures peuvent être utilisées pour encourager l’ouverture interdisciplinaire, pour développer des « projets » ou pour revenir sur les méthodes de travail liées aux exigences spécifiques du lycée. En première et terminale, on y transmet plutôt du contenu disciplinaire dans l’objectif du bac.

Voilà pour la vision officielle de l’AP…

… Cependant, la réalité est tout autre car l’AP n’a rien de « personnalisé » et pose des difficultés dans la motivation des élèves. En effet, ce n’est pas un enseignement sanctionné par une évaluation (continue ou finale). De ce fait, et c’est bien dommage, les élèves ne s’investissent que très peu et prennent ces séances comme de la garderie. Force est de constater que la motivation est souvent liée à la perspective d’une notation, il parait ainsi difficile de faire sortir les élèves de ce comportement stéréotypé. De plus, étant donné le peu de moyens horaires venant des rectorats, cet « enseignement » se fait généralement en groupe trop chargé pour prétendre à un caractère « personnalisé ». Dans mon lycée on tourne autour de 15 à 20 élèves.

Il faut en fait entendre le terme de « personnalisé » comme un choix laissé à l’élève (de la belle novlangue démagogique soit dit en passant). Des « cycles » d’AP sont mis dans un « menu » dans lequel les élèves de plusieurs classes vont choisir. Étant donné qu’il faut proposer tout un panel de disciplines et/ou d’activités, ce sont des élèves de plusieurs classes qui se regroupent dans un cycle d’AP proposé par un enseignant. Dans mon lycée, ce sont des « barrettes » de trois ou quatre classes (c’est-à-dire en parallèle) qui sont mises en place avec cinq ou six enseignant·e·s à charge, ce qui fait bien 15 à 20 élèves par groupe d’AP.

Cela pose au moins trois problèmes :

  • la place dans chaque cycle – Le nombre de places étant limité dans chaque AP, certains élèves se retrouvent dans un cycle qu’ils·elles n’ont pas choisi. Cela diminue encore la motivation et l’intérêt pour ce type de séances.
  • la relation avec l’enseignant·e – Il est très fréquent que les personnes intervenant en AP ne soient pas des enseignant·e·s des disciplines de la classe étant donné que les élèves proviennent de plusieurs classes. Cet éloignement rend d’autant plus difficiles l’accroche et l’emprise sur les élèves.
  • l’hétérogénéité du groupe – Toutes les six semaines les élèves se retrouvent dans un groupe de travail nouveau et on sait qu’une ambiance de groupe met du temps à se mettre en place. Ajouté à cela que les sorties scolaires et autres évènements liés à une classe ne vont impliquer qu’une partie des élèves, on arrive aussi à une hétérogénéité temporelle lors d’un cycle d’AP. Cela a une influence sur le rythme général.

Déroulement des cycles d’AP zététique

Dans mon établissement, nous faisons des cycle d’AP d’environ 6 semaines soit 6 fois une heure.

J’ai réalisé deux cycles successifs. Ils ont été répartis de cette manière :

Séance 1 : présentation de la zététique et annonce des consignes de travail.

Séance 2 : choix des sujets par les élèves et début du travail de recherche.

Séance 3 : travail en binôme sur les sujets (analyse du sujet, recherche documentaire).

Séance 4 : présentation et mise au point sur la démarche scientifique : comment mettre en place une bonne expérimentation. Suite du travail des élèves.

Séance 5 : suite du travail.

Séance 6 : présentation orale des différents groupes (5 minutes par groupe).

Séance 1

  • J’ai réalisé un petit topo pour expliquer ce qu’est la zététique et ce sur quoi nous allons travailler en insistant sur la démarche d’investigation. Les élèves devaient par eux·elles-mêmes analyser un fait paranormal, pseudoscientifique ou autre. J’ai essayé de cerner trois champs de travail : le paranormal, les pseudosciences / médecines dites alternatives et les sciences dans les médias.
  • Par la suite je leur ai donné quelques outils simples (erreurs de logiques, attaques, travestissements).
  • Je leur ai enfin donné des propositions de thèmes et de sujets en laissant la liberté d’en traiter d’autres.

Les consignes étaient les suivantes :

Renseignez-vous sur le sujet choisi de manière à pouvoir le décrire et le faire comprendre lors de votre exposé oral (par exemple : « d’où provient cette croyance/pseudoscience ? Quelles sont les bases scientifiques invoquées … »).

Mettre en place un protocole expérimental afin de tester si le sujet d’étude est scientifiquement valide ou non.

Selon moi, cette séance se passe assez bien car les élèves sont assez interloqué·e·s par le sujet qui sort un peu de l’ordinaire par rapport à leurs enseignements habituels. Les questions fusent, les remarques aussi. La présentation des erreurs de logiques les intéressent. Elle est propice à une introspection (« ah mais c’est vrai, je le dis tout le temps ça! »).

Séance 2 et 3

Les élèves ont mis beaucoup de temps à choisir leur sujet et certains groupes n’ont même pas réussi à se mettre au travail sur un thème. Ils·elles naviguent entre les propositions que je leur ai données et regardent les documents (vidéos) liés à tous les sujets. Cela a fait perdre beaucoup de temps et surtout beaucoup d’investissement de la part des élèves.

Séance 4

Je fais un petit rappel sur la démarche scientifique et la mise en place de protocoles expérimentaux.

Poser un problème (réduire le sujet traité à un seul paramètre d’étude) > Hypothèse > Expérimentation > Traitement les résultats > Conclusion.

Pour l’expérimentation, j’ai rappelé la notion de témoin et de facteur variant (un seul facteur doit varier entre le témoin et le test). Explication rapide du double aveugle et de l’effet placebo. N’ayant que peu de temps, je n’ai pas abordé le sujet de la randomisation. J’insiste bien sur le fait qu’ils·elles ont peu de temps et que le but n’est pas de mettre en place une expérience mais de seulement proposer un protocole expérimental. Pour les groupes ayant choisi un sujet plus sociologique (médias et sciences par exemple) j’insiste sur la consigne : décortiquer le sujet en utilisant les outils mis à leur disposition en début de cycle.

Les élèves se remettent sur leur sujet.

Séance 5

Des groupes n’arrivent pas à élaborer un protocole ou même à cerner un paramètre à étudier. D’autres ne travaillent pas vraiment, naviguant sur Internet et s’éloignant largement du sujet.

Un groupe commence à regarder des vidéos de catalepsie. En discutant avec elles, je me rends compte d’une résistance assez forte face à la croyance : elles ne sont pas en mesure de trouver comment tester cela. Leur argument : « mais il nous faudrait un hypnotiseur et on n’en a pas ! ». J’ai fait des pieds et des mains pour les amener à se dire qu’elles pourraient le tester elles-mêmes, mais sans réussite. Au final, j’ai dû leur dire qu’elles devaient essayer mais là encore, elles restaient persuadées que c’était vraiment le fait d’un hypnotiseur. On a essayé entre deux tabourets dans la salle avec en prime une autre élève montant sur la non-hypnotisée pour rajouter du poids : c’était parfait ! A partir de ce déclencheur, elles ont pu analyser une vidéo d’un hypnotiseur, traiter de la mise en scène, de la position et des forces mises en jeu.

Séance 6

Étant donné la vitesse de travail des élèves, peu ont pu présenter leur travail à l’oral (3 ou 4 tout au plus).

Problèmes rencontrés et remédiation

CorteX_levitation_enflammee

Dans l’ensemble, je dirai que ces deux cycles d’AP se sont moyennement bien passé. Une bonne moitié des élèves étaient peu impliqués avec cependant quelques binômes ayant fourni un bon travail méthodologique.

Le temps imparti

Le temps imparti (six heures) est trop court pour un tel travail de déconstruction sur un sujet de zététique. La présentation, les concepts et l’outillage laissent peu de temps pour le travail des élèves. De plus, si on veut faire une séance de présentation finale il ne reste que 3h30 de travail effectif.

Je ne vois que peu de solutions à ce niveau car la durée du cycle dépend de l’organisation interne de l’établissement. On pourrait tout de même imaginer de raccourcir l’introduction, tout en préservant le côté stimulant, pour pouvoir passer directement au choix des sujets. En ce qui concerne la présentation de l’outillage, il serait peut-être judicieux de cibler avec chacun des groupes les outils dont il a besoin pour mener à bien son enquête.

Le type et le nombre de sujets

J’ai voulu laisser un large choix de sujets aux élèves mais ils·elles se sont perdus dans les méandres des thèmes. Il faudrait mieux cerner quelques sujets et donner le moins de choix possible aux élèves.

Les consignes

Beaucoup d’élèves ne semblaient pas comprendre le but du cycle. Les consignes devaient être trop larges mais j’avais en tête de développer l’autonomie. Il faudrait proposer des thèmes plus simples et avec une consigne plus précise. On perdrait en autonomie mais on gagnerait en temps. Il faut garder en tête que ce n’est qu’une introduction à la zététique et il ne serait pas vraiment gênant de donner plus d’aide et d’orienter leur travail.

La motivation pour le cycle d’AP

Ce problème est inhérent à la structure de l’AP et je ne sais pas comment y remédier. Beaucoup d’élèves ont atterri dans ce cycle sans l’avoir choisi. Peut-être aurait-il fallu faire des groupes de travail plus grands (trois ou quatre élèves), bien que cela augmente le risque de distraction et de bavardage et que certains élèves en profitent pour se reposer sur d’autres. Cependant, dans ce cas, il est possible qu’un groupe de travail de quatre soit bénéfique pour la motivation dans le cadre de l’AP.

En conclusion

Faire de la zététique en AP semble assez difficile au premier abord mais peut-être faut-il penser cela de manière plus simple. Cela pourrait être l’occasion de se centrer sur la démarche scientifique et de mettre de côté certains thèmes comme les médias ou le paranormal dans un premier temps. Ou bien on pourrait imaginer plusieurs cycles d’AP recouvrant de la zététique et de l’esprit critique afin de moins s’éparpiller :

  • Cycle zététique et critique de la science dans les médias

Outillage présenté : techniques de manipulations et de marketing, appel aux émotions.

Consignes : déconstruire des articles dits scientifiques, analyser la présentation de certains produits du commerce mettant en avant leur caractère scientifique.

  • Cycle zététique et pseudosciences/medecines dites alternatives

Outillage présenté : méthodologie scientifique, principes de base en statistique.

Consignes : proposer un protocole expérimental dans le but de tester la véracité d’une pseudoscience ou d’une médecine dite alternative.

  • Cycle zététique et paranormal :

Outillage présenté : erreurs de logique, psychologie et biais cognitifs, psychologie sociale, rasoir d’Ockham et compagnie.

Consignes : faire des recherches sur un événement relevant du paranormal. Grâce à l’outillage mis à votre disposition, recherchez les origines historiques et sociales de cette croyance. Tentez de donner une explication rationnelle de cet évènement.

Pour élargir un peu, d’autres espaces sont utilisables au lycée pour faire de la zététique et de l’esprit critique :

  • Les enseignements d’exploration en seconde visent l’interdisciplinarité. Par exemple en sciences, c’est MPS (Méthodes et Pratiques Scientifiques) en collaboration avec les SVT (Sciences de la Vie et de la Terre), les SPC (Sciences Physiques et Chimiques) et les mathématiques. A coups de 1h30 par semaine sur la totalité de l’année il est possible de développer quelque chose de plus abouti. Cependant, les thèmes nationaux sont imposés et il faudrait passer outre.
  • Enfin, le meilleur endroit, selon moi, pour faire de la zététique semble être les TPE (Travaux Personnels Encadrés) se déroulant en classe de première, sur la moitié de l’année, deux heures par semaine, et sanctionnés d’une évaluation finale comptant pour le bac. Dans ce cadre, les élèves sont plus motivé·e·s (pour différentes raisons allant de la notation au fait qu’ils·elles sont dans leur filière « de choix »). Ici aussi deux ou trois enseignant·e·s interviennent ce qui permet, pour ce qui est des sciences, de faire appel à la physique, chimie, biologie, géologie et aux mathématiques. En TPE de sciences les élèves sont largement encouragés à faire des expériences et doivent aboutir à une production finale et présenter une soutenance ce qui entraîne forcément plus d’implication personnelle : c’est souvent l’occasion de voir un bel engouement collectif.
Julien Peccoud, novembre 2012

Annexe 1 – recueil d’erreurs de raisonnement et sophismes argumentatifs

À télécharger ici.

Annexe 2 – sujets proposés

Sujet Description et consigne proposée Documents de départ

Si c’était à refaire, ce que je changerai

1 L’acupuncture

Critiquez l’article, pour cela vous devez vous documenter sur l’acupuncture et utiliser la démarche expérimentale.

Un mystère de l’acupuncture expliqué par la science, Le Figaro, 31 mai 2010.

Consigne – Faire une analyse critique de l’article. Pour cela vous devez vous documenter sur l’acupuncture et utiliser la démarche expérimentale.

Le sujet est peut-être complexe pour des secondes. A supprimer ?

2 Le triangle de la burle

Le triangle de la Burle est décrit comme étant le « triangle des bermudes français ».

Le triangle de la Burle, Les 30 histoires les plus mystérieuses (2010)

Le triangle de la Burle, André Douzet

 
3 Les effets de la lune sur la pousse des cheveux et sur les naissances

La lune aurait un effet sur la vitesse de pousse des cheveux et des poils ainsi que sur les naissances (il y aurait plus de naissances les jours de pleine lune)

 

Consigne – Des croyances répandues prétendent qu’il y aurait un effet de la lune sur le monde biologique (vitesse de pousse des cheveux, plus de naissances ou de crimes les jours de pleine lune…)

Il faudrait donner des chiffres et des statistiques que les élèves pourraient traiter.

4 Les effets de la lune sur la production végétale La lune aurait des effets sur la croissance des végétaux dans un potager.

Jardiner avec la Lune, Le potager facile

Consigne – Des croyances répandues prétendent qu’il y aurait des effets sur la croissance des végétaux dans un potager. Comment pourrait-on tester cela ?

5 Les effets de la lune sur le sommeil.

On dit que l’orientation de notre lit a une influence sur le sommeil. Comment vérifier cela expérimentalement.

 

Consigne – On dit que l’orientation de notre lit a une influence sur le sommeil. Proposez un protocole pour tester cette affirmation.

6 Le hoquet et les techniques pour l’arrêter

Il y a un grand nombre de techniques supposées arrêter le hoquet. Quand est-il ? Sur quoi se basent-elles ?

 

Consigne – Il y a un grand nombre de techniques supposées arrêter le hoquet. Ont-elles fait la preuve de leur efficacité ?

7 La combustion humaine « spontanée »

Des observations montreraient que certaines personnes auraient brûlé spontanément, sans causes externes. Peut-on douter de cela ?

La combustion humaine spontanée, Secret Base

Consigne – Existe-t-il des explications rationnelles à ce phénomène ?

8 La graphologie

Utilisée pour analyser des CV et des lettres de motivation, cette technique permettrait de tracer le profil psychologique par l’étude de l’écriture. Proposez une expérimentation afin de tester cette pseudoscience

 

Consigne – Proposez une expérimentation afin de tester l’efficacité le cette méthode.

Il faudrait mettre à disposition des élèves du matériel sur cela (méthode de graphologie ou autre…)

9 La radiesthésie : les sourciers

Grâce à un bâton, des personnes possédant un « pouvoir » pourraient trouver de l’eau à l’aveugle. Comment pourrait-on vérifier cela expérimentalement ?

 

Consigne – Proposez un protocole expérimental afin de tester l’existence de ce sois-disant pouvoir.

10 L’astrologie L’astrologie est-elle scientifique ?

 

Proposer et mettre en place un protocole permettant de tester la véracité des profils astrologiques.

Signes astrologiques, Astrologie pour tous.

 
11 Les coupeurs de feu (ou barreurs de feu)    

Supprimer ce sujet car trop compliqué pour mettre en place un protocole.

12 L’effet de l’accélération de Coriolis dans un évier

L’eau s’écoulerait de l’évier dans un sens en hémisphère sud et dans le sens inverse en hémisphère nord.

Doc 1  Doc 2  Doc 3    Doc 4

Consigne – L’eau d’un évier s’écoule-t-elle vraiment dans un sens en hémisphère sud et dans l’autre sens en hémisphère nord ?

13 L’hydrocution

Se documenter sur ce phénomène et trouver un protocole pouvant prouver sa véracité

 

Supprimer ce sujet car un protocole est difficilement possible

14 L’homéopathie

Sur quoi se base l’homéopathie ? Imaginez un protocole pour tester cette méthode pharmaceutique.

 

C’est un sujet vaste et complexe. Peut-être est-ce plus simple de se limiter à de la recherche documentaire sur le sujet et laisser tomber la mise en place d’un protocole ?

15 L’acupuncture

Proposer un protocole permettant de tester l’efficacité de l’acupuncture. Pour cela vous devrez vous renseigner sur le procédé et isoler un facteur à tester.

 

Sujet à fusionner avec le premier.

16 Les magnétiseurs

Certaines personnes en font leur profession. Ils prétendent soigner en manipulant et en influant sur nos « énergies » corporelles. Comment tester ce phénomène c’est à dire la capacité à ressentir et manipuler ces énergies que l’on n’ a jamais mesurées ?

   
Autres matériels d’étude ne permettant pas d’expérimenter mais permettant de s’entraîner à la critique
17 Critiques de l’odyssée de l’espèce

Les images et la scénarisation peuvent être trompeuses. Critiquez ces extraits de ce fameux documentaire.

Extrait L’odyssée de l’espèce, Jacques Malaterre (2002)

 
18 Les stéréotypes

Les femmes peuvent faire plusieurs choses en même temps et pas les hommes ; les dyslexiques sont plus intelligents et bien d’autres affirmations de la sorte …. Les stéréotypes sont courants dans la société mais ils ont de multiples origines. Comment les distinguer et les déjouer ?

 

Supprimer les stéréotypes faisant intervenir des notions complexes à définir et donc à mesurer (par exemple l’inteligence). Trouver d’autres stéréotypes simples.

Consigne – Ces affirmations sont-elles étayées scientifiquement ?

19 L’homme et le singe ont-ils un ancêtre commun ?

Nécessite une connaissance dans l’évolution et ses mécanismes … Documentez-vous.

 

Changer pour : l’Homme descend-il du singe ?

Consigne – Cette affirmation souvent entendue est-elle valide scientifiquement ?

20 Les crèmes cosmétiques

Faire une analyse critique de produits cosmétiques à partir de leurs compositions et des arguments publicitaires.

Doc 1 Doc 2 Doc 3  
21 Utilise-t-on 10% de notre cerveau ?    

Sujet à supprimer. C’est trop flou.

Evolution & créationnisme – Le plus grand spectacle du monde par R.Dawkins

La théorie de l’évolution est une théorie scientifique nous dit-on. Soit. Mais sur quelles preuves se base-t-elle ? Qu’est-ce qui permet de dire qu’elle est plus vraie que fausse ? Comment répondre aux différentes attaques créationnistes (des plus radicales aux plus insidieuses) ? Sur quels exemples s’appuyer lorsque l’on est amené à présenter des faits solides et explicites ? Voilà l’ambition du biologiste Richard Dawkins en publiant Le plus grand spectacle du monde.

Pourquoi ce livre ?

J’avais besoin, je pense, de trouver des réponses simples et rapides à certaines questions, questions tirées de certains arguments (valides parfois, fallacieux le plus souvent) utilisés par les diverses formes de créationnismes et qui me posaient problème. Le résultat est un ouvrage assez complet mais parfois éloigné de l’objectif de départ [1]. Dawkins commence par un détour d’importance concernant le vocabulaire (qu’est-ce qu’une théorie scientifique et pourquoi l’évolution en est une comme les autres), et sur les idées reçues contre lesquelles Darwin et ses successeurs ont dû lutter pour faire entendre leur point de vue. Puis il revient longuement sur les différents aspects de la théorie, notamment avec de nombreux exemples clairs et utilisables. Un passage vraiment captivant traite, par comparaison, de la sélection artificielle et de la sélection naturelle. Un autre concerne l’évolution dans les temps géologiques : Dawkins y accumule les arguments tous plus convaincants les uns que les autres, de la dendrochronologie [2] en passant par toutes les datations basées sur la décroissance radioactive de certains éléments (pour l’âge des fossiles, celui des différentes couches sédimentaires ou bien de la Terre elle-même par exemple). Il présente enfin une série d’expériences permettant de tester les prévisions de la théorie évolutive. C’est un passage vraiment fantastique, notamment quand Dawkins expose en détail l’impressionnante expérience de Richard Lenski et de ses bactéries.

La suite du livre est tout aussi captivante : l’auteur bat en brèche plusieurs arguments créationnistes comme le fameux problème du « chaînon manquant » (qui n’en est pas un), ou de la complexité irréductible (qui n’est pas irréductible).

Mais…

Malgré une attention particulière à ne pas user d’un jargon finaliste ou même « lamarckiste » (Dawkins l’indique à plusieurs reprises), j’ai pu noter plusieurs formulations maladroites : « Comme les doigts individuels n’ont pas à porter de gros poids, ils ne sont pas particulièrement développés » ou « […] les pattes qui se sont modifiées pour porter les ‘ailes’ » (p.305). Attention, je sais qu’il est plus que difficile de construire des phrases sans avoir recours à ces expressions, mais je suis tenté de penser que c’est bien ainsi, en faisant cet effort permanent – et ce d’autant plus dans des livres de vulgarisation ou des documentaires animaliers – que petit à petit, on évitera dès le plus jeune âge de se dire : « Mais alors, le poisson, pour sortir de l’eau, il a transformé ses branchies en poumons ??! »

Denis Caroti

Richard Dawkins, Le plus grand spectacle du monde (The greatest show on Earth)
Editions Robert Laffon (Poche), 514 pages, 2010
10,50 €

[1] Beaucoup de descriptions des mécanismes de l’évolution elle-même sont données par l’auteur.

[2] La dendrochronologie est une méthode de datation basée sur les anneaux de croissance dans le bois des arbres.

Épistémologie – Les concepts de la sociologie sont-ils d'une nature spéciale ? par Dominique Raynaud

Nous avons à Grenoble la chance d’avoir un sociologue, épistémologue des sciences sociales qui fait un travail remarquable de rigueur. Il s’appelle Dominique Raynaud, et il travaille à l’Université Pierre-Mendès-France. 
Comme nous, il souscrit à un monisme méthodologique, c’est-à-dire qu’il ne pense pas, contrairement à une opinion répandue, que les choses de la matière sensible et celles de la « matière » sociale méritent deux types de méthodes différentes. Pour faire simple, point de méthode différente, plus de sciences dites dures et d’autres dites molles, mais une seule manière de décrire au mieux la réalité à laquelle nous avons accès. Certains objets sont infiniment plus complexes à appréhender, plus « mous » et d’autres plus simples, mais la manière de dire des choses vérifiables dessus n’est qu’une.
Dominique Raynaud nous offre ici une contribution qui vaut son pesant d’or. Le texte ci-dessous est une version écourtée du chapitre 4 de son livre La sociologie et sa vocation scientifique, Paris, éditions Hermann (2006) et montre que la sociologie n’a pas de normes spéciales de scientificité.
Ce n’est pas un sujet facile, mais l’effort qu’il demande ne sera pas vain.

[toc]

Résumé

Pour les épistémologies dualistes ou régionalistes, la sociologie relève de normes spéciales de scientificité. La sociologie serait délimitée par le fait que ses concepts ne sont pas des « concepts analytiques » ou « taxinomiques », au sens des sciences naturelles, mais des « concepts idéaltypiques » ou des « désignateurs semi-rigides ».

L’analyse comparée montre deux choses.

(1) Les concepts analytiques et taxinomiques sont d’un usage régulier en sociologie.

(2) Les concepts idéaltypiques et les désignateurs semi-rigides ne sont pas l’apanage de la sociologie : on en trouve l’équivalent en physique et en astronomie.

Du coup, le statut particulier des concepts sociologiques n’est pas un critère adéquat pour doter la sociologie de normes épistémologiques propres.

Introduction

De manière à ce que les termes de la discussion soient clairs, je commencerai par poser quelques définitions utiles.

1° Un « concept taxinomique » est celui qui naît de la relation entre une espèce et un genre. Les critères dichotomique d’absence/présence d’un caractère sont en usage dans toutes les classifications, en particulier en zoologie et en botanique. Par différence, on peut identifier des « concepts typologiques » qui n’emploient pas des critères exclusifs mais inclusifs. C’est notamment le cas de l’idéaltype, un concept introduit par le fondateur de la sociologie moderne, Max Weber (1). Les exemples historiques de domination légitime ne se rattachent jamais à un seul des trois types de domination distingués par Max Weber (2).

2° Le terme de « concept analytique » se fonde sur la distinction proposée par Kant entre les jugements analytiques et les jugements synthétiques. Les jugements analytiques sont ceux qui sont universellement vrais, parce que leur valeur de vérité ne dépend pas de l’expérience. La « vitesse » est un concept analytique parce que la signification de ce concept est toute entière contenue dans sa définition : la vitesse est le rapport de l’espace parcouru par un mobile au temps mis pour le parcourir. Tout au contraire, les « concepts synthétiques », ou « phénoménaux », ont la particularité d’engager des qualités extérieures au concept.

3° Les « concepts quantitatifs »,  tels que distingués par Rudolf Carnap, constituent une espèce des précédents. Par exemple, la « vitesse » v CorteX_mobius_escher=  dx/dt, l’« accélération » γ = d²x/dt², la « force » F = mγ sont des concepts analytiques quantitatifs parce qu’ils résultent de la combinaison de grandeurs élémentaires mesurables (dans le cas de la vitesse : une certaine quantité d’espace dx et une certaine quantité de temps dt). Au contraire, les « concepts qualitatifs » ne supposent aucune mesure. C’est le cas des concepts de la topologie, comme ceux de « boule » ou d’« anneau de Möbius » (voir ci-contre, l’anneau de Möbius par le graveur Escher).

4° Le nom de « désignateur semi-rigide », introduit par Jean-Claude Passeron, fait directement référence aux « désignateurs rigides » du logicien Saül Kripke (3). On peut définir ces deux termes relativement l’un

à l’autre. Les désignateurs rigides se distinguent par la régionpropriété d’avoir le même référent dans tous les mondes possibles. Par exemple, l’« eau » est identique à elle-même dans tous les mondes où il y a de l’eau ; le nombre « π » est toujours identique à lui-même, etc. Par différence, Passeron nomme « désignateurs semi-rigides » ou « semi-noms propres » les « concepts indexés sur une série de cas singuliers ». Ainsi, le « féodalisme » ne se présente que dans certaines sociétés comme le Japon de l’ère Kamakura, la Chine des Royaumes combattants ou l’Europe médiévale.

En dépit de leur parenté, il faut bien voir qu’idéaltype et désignateur semi-rigide caractérisent deux réactions possibles au problème de l’inadéquation des concepts au réel. D’un côté, l’idéaltype accentue l’écart au réel. Max Weber précise : « par son contenu, cette construction a le caractère d’une utopie » ; « l’idéaltype est un tableau de pensée, il n’est pas la réalité historique ni surtout la réalité « authentique » ». Ainsi parle-t-on de « capitalisme » ou de « libre concurrence », quel que soit le contexte économique qui en constitue une approximation, en sachant qu’il s’agit d’une fiction visant moins l’adéquation au réel que la pureté logique. En ce sens, l’idéaltype « sort » de l’histoire. C’est ce qui justifie notamment le commentaire de Julien Freund : « la description que Weber fait de la bureaucratie est idéaltypique, ce qui signifie […] que les traits qu’il énumère [activité à plein temps, gestion rationnelle, subordination à une autorité, hiérarchie, spécialisation et technicité des fonctions] valent pour toute bureaucratie moderne, indépendamment des variations particulières et contingentes dans les divers pays ». Cependant, Weber particularise parfois l’idéaltype : c’est le cas lorsqu’il spécifie « christianisme » en « christianisme médiéval » ou « charisme » en « charisme anti-autoritaire bonapartiste ». L’idéaltype rentre alors dans l’histoire, ce qui fonde la lecture de Passeron. Car le désignateur semi-rigide, qui n’est pas une utopie, incite à accoler au concept ses traits contextuels les plus saillants. Pourquoi sommes-nous tentés de préciser « capitalisme spéculatif » ou « christianisme médiéval » au lieu de « capitalisme » et « christianisme » sinon pour ne pas désindexer ces concepts ? Face au problème de l’inadéquation du concept au réel, l’idéaltype s’oriente par excès (il accentue la différence) ; le désignateur semi-rigide par défaut (il réduit la différence).

Se pose ensuite la question des critères en fonction desquels distinguer les différentes espèces de concepts qui viennent d’être d’énumérées. Je propose les suivants :

1. Les concepts taxinomiques donnent naissance à des classifications ; les concepts idéaltypiques à des typologies. Les premières recourent à des critères dichotomiques ou exclusifs, les secondes à des critères inclusifs.

Par conséquent, elles peuvent être départagées sur la base du critère 1 :

dans une classification, un élément appartient à une classe et à une seule versus  dans une typologie, un élément peut appartenir à plusieurs types simultanément.

La graminée Avena stricta dépend du genre Avena à l’exclusion de tout autre genre ; le régime nazi dépend de la domination charismatique sous certains aspects mais de la domination légale-rationnelle à d’autres points de vue.

2. Concepts analytiques et phénoménaux se distinguent tout d’abord par leur propriété fondamentale (prédicat interne donné par définition versus prédicat externe). Les seconds ont une propriété distinctive qui tient à leur rapport à l’inadéquation des concepts au réel. Les idéaltypes consistent en tableaux abstraits épurés ; les désignateurs semi-rigides ont un caractère ad hoc prononcé, d’où suit le critère 2 :

les concepts analytiques sont toujours vrais versus les concepts phénoménaux ne sont que des approximations de la réalité — soit par orientation abstraite (idéaltype), soit par orientation adhociste (désignateurs semi-rigides).

La vitesse dx/dt permet de mesurer indifféremment la vitesse du son cS = 330 m.s–1 ou la vitesse de propagation d’une vibration dans l’acier cA ~ 5000 m.s–1. L’influence exercée par le mahâtma Gandhi lors de la « Marche du Sel » reste une approximation de la domination charismatique.

3. La définition des concepts quantitatifs suffit à les distinguer des concepts qualitatifs, ce qui conduit au critère 3:

les concepts quantitatifs supposent la réalisation d’une mesure (qui exige à son tour la définition de certains règles comme la transitivité, ou le choix d’une échelle de mesure) versus les concepts qualitatifs ne l’autorisent pas.

Citons, dans le domaine démographique, l’âge qui est un concept quantitatif (un enfant de 3 ans et demi), alors que le statut matrimonial (célibataire, marié, divorcé, veuf) est qualitatif : même si l’on peut envisager un « codage » des caractères, cela ne constitue en rien une « mesure » au sens scientifique du terme.

4. Désignateurs rigides ou semi-rigides se distinguent aisément par la propriété énoncée par Kripke, fondement du critère 4 :

les désignateurs rigides ont toujours le même référent versus les désignateurs semi-rigides ont un référent variable, indexé sur les différents contextes sociohistoriques.

Le nombre π = 3,14159265… est une constante dans tous les mondes possibles ; le capitalisme change de forme selon que l’on vise le « capitalisme productif » des années 1950 ou le « capitalisme spéculatif » des années 2000.

Deux versions de l’épistémologie sociologique

Nous avons défini les concepts utiles et les moyens de les distinguer. La question est de savoir si les sciences naturelles et les sciences sociales — qui s’occupent de classes de faits différents — doivent pour cela recourir à des principes épistémologiques différents. Les critères imaginés par les tenants de positions dualistes ourégionalistes (4) étant innombrables, je m’occuperai ici du statut des concepts en tant qu’il sert d’argument au débat à l’exclusion de toute autre considération. La thèse d’une épistémologie propre de la sociologie repose sur le statut particulier que l’on accorde aux concepts sociologiques. Limitons-nous à un exemple classique, dont l’auteur est connu et apprécié pour le sérieux de ses recherches. Dans Le Raisonnement sociologique, Jean-Claude Passeron soutient — c’est une conséquence de la thèse 2 et de son corrélat 2.3 — que tous les concepts sociologiques ont un statut logique de désignateurs semi-rigides :

« Il n’existe pas et il ne peut exister de langage protocolaire unifié de la description empirique du monde historique », « Le lexique scientifique de la sociologie est un lexique infaisable », « Le statut sémantique des concepts sociologiques se présente […] comme un statut mixte, intermédiaire entre le nom commun et le nom propre », « Les concepts sociologiques sont des noms communs […] qui ne peuvent être complètement coupés de leur référence déictique à des noms propres d’individualités historiques » (5) (mises en gras par D. Raynaud).

L’auteur soutient que les concepts insérés dans une démonstration sociologique diffèrent de ceux qui sont utilisés dans les sciences de la nature. Il assujettit l’épistémologie à l’ontologie sociologique : cette discipline traitant d’objets spécifiques, ses concepts sont spécifiques.

Mais il importe de voir qu’il existe deux manières de soutenir cette thèse :
Thèse forte – la sociologie se distingue des sciences naturelles parce que ses concepts sont d’une nature différente : les sciences naturelles recourent à des concepts analytiques et taxinomiques ; la sociologie recourt à des concepts idéaltypiques ou semi-rigides.
Thèse faible – la sociologie se distingue des sciences naturelles parce que, quoiqu’elle fasse un usage régulier de concepts analytiques et taxinomiques à l’instar des sciences naturelles, elle est la seule à employer des concepts idéaltypiques et semi-rigides.

Examen de la thèse forte

Un des caractères saillants des sciences naturelles, en particulier de la physique, est le fait qu’elles utilisent des concepts analytiques mathématiques.

Or, l’examen le plus vague laisse apparaître que beaucoup de concepts sociologiques ne sont assujettis à aucune singularité socio-historique (rationalité téléologique ou axiologique, décision, déclassement, agrégation, effet pervers, mobilité sociale, etc.). On trouve donc en sociologie des concepts qui ne sont rien moins que des concepts taxinomiques ou analytiques, au sens des définitions 1 et 2 données au début de ce texte. Laissons de côté les concepts taxinomiques  et voyons plutôt le cas des concepts analytiques.
Il existe tout d’abord un argument de fait. L’existence d’une sociologie mathématique est le premier argument sérieux de l’existence de ces concepts analytiques en sociologie : statistique descriptive et inférentielle, analyse factorielle sont des chapitres connus des sociologues. Mais d’autres sont également pourvus d’applications sociologiques : analyse combinatoire, théorie des jeux, théorie de la décision, théorie des choix collectifs, processus stochastiques (par exemple, les chaînes de Markov appliquées à la modélisation de la mobilité sociale), théorie des graphes (formalisation des réseaux sociaux), treillis de Galois (extraction des caractéristiques communes des individus d’un réseau), etc. Tous constituent des domaines par excellence où le raisonnement porte exclusivement sur des concepts analytiques.

Se présente ensuite un argument historique que rappelle Marc Barbut (6). Cet argument — opposé au jugement d’André Weil — est que les sciences sociales ont très directement contribué au développement des mathématiques. Barbut signale les contributions de Pascal, Huygens, Leibniz au calcul des probabilités (issu d’un problème de décision) ; celles de Jacques et Nicolas Bernoulli à la statistique inférentielle ; celles de Condorcet, Zermelo, Borel et von Neumann à la théorie des jeux. Mais si les mêmes savants ont contribué au progrès des sciences physiques et à celui des sciences sociales, pourquoi auraient-ils fait de bonnes mathématiques en physique et de mauvaises mathématiques en sociologie ?

Examinons maintenant un concept de cette sociologie mathématique dont il vient d’être question, et prenons le cas de la sociologie des réseaux.

1° Cette spécialité utilise des concepts analytiques quantitatifs (au sens de Carnap), qui tirent leur caractère de la théorie mathématique sous-jacente à la sociologie des réseaux : la théorie des graphes. Distinguons tout d’abord les relations orientées (don, conseil, etc.) des relations non orientées (mariage, interconnaissance, etc.) Les relations du premier type permettent la construction d’un graphe orienté dont la « densité » vaut D= L/(g(g – 1)) où L représente le nombre d’arcs et le g le nombre de sommets du graphe. Le concept de densité est organiquement lié à une mesure : il s’agit, au sens de Carnap, d’un concept quantitatif intensif (non additif) qui satisfait aux règles classiques permettant de définir la mesure :

1° existence d’une relation d’équivalence ;
2° existence d’une relation d’ordre ;
3° choix du zéro (D = 0 pour une collection de sommets déconnectés) ;
4° choix d’une unité (D = 1 dans un graphe complet) ;
5° choix d’une échelle (0 ≤ D ≤ 1).

Je ne vois pas que la sociologie utilise ici des concepts d’un statut logique différent de celui qui caractérise les concepts des sciences physiques. Carnap explique d’ailleurs fort bien ce qui fonde cette absence de différence entre physique et sociologie :

« Les concepts quantitatifs ne nous sont pas donnés par la nature ; ils découlent de la pratique qui consiste à appliquer des nombres aux phénomènes naturels. Quel avantage y a-t-il à cela ? Si les grandeurs quantitatives étaient fournies par la nature, nous ne songerions pas à poser la question, pas plus que nous ne demandons : à quoi servent les couleurs ? La nature pourrait fort bien exister sans couleurs, mais on a plaisir à percevoir leur présence dans le monde. Elles font partie de la nature, tout simplement ; nous n’y pouvons rien. Il n’en va pas de même pour les concepts quantitatifs. Il font partie du langage et non pas de la nature » (R. Carnap, Les Fondements philosophiques de la physique, p. 107).

Il s’ensuit que la présence ou l’absence de concepts analytiques (quantitatifs) dans une discipline ne tient pas à la nature des faits empirique étudiés par cette discipline, mais à une décision de l’observateur de se donner (ou non) des définitions strictes et un système de mesure des observables : c’est ce qu’a su faire la sociologie des réseaux, en appliquant le langage de la théorie des graphes aux relations sociales.

2° Certaines démonstrations sociologiques recourent presque exclusivement à des concepts analytiques de ce type. C’est le cas de la juridicisation croissante des sociétés modernes expliquée par Piaget à partir de la distinction faite par Franck et Timasheff entre relations interpersonnelles et relations transpersonnelles. Supposons un groupe composé des individus A, B, C… Par rapport à A, les liens (A, B), (A, C), (A, D)… sont des relations interpersonnelles (notées rip), les liens (B, D), (C, B), (C, D) sont des relations transpersonnelles (notéesrtp). Les relations interpersonnelles sont des relations directes ; elles sont impliquées dans une action réciproque classique (A cause un préjudice à B ; B demande réparation à A). Les relations transpersonnelles mobilisent quant à elles des formes de jugement indirect (A cause un préjudice à B ; B en informe C ; C juge l’action de A collectivement préjudiciable). Si l’on fait une combinatoire de ces relations dans un graphe complet de n individus, on constate que :

Card (rip) = n (n – 1)           et          Card (rtp) = n (n – 1)(n – 2) / 2

La croissance des rip et des rtp obéit au fait que les relations interpersonnelles varient comme n2 alors que les relations transpersonnelles varient comme n3. L’écart entre rip et rtp croît en fonction de n. Il est donc faible dans les sociétés peu volumineuses (hordes, tribus), fort dans les sociétés volumineuses (états-nations modernes). À mesure que croit le volume de la société, le règlement des différends fondé sur les rip (action en retour) cèdera la place à un règlement fondé sur les rtp (évaluation juridique par des tiers). C’est pourquoi on peut observer une juridicisation croissante des sociétés modernes. La réduction d’une société à un graphe complet est une idéalisation, mais les concepts qui interviennent dans cette démonstration sont tous des concepts analytiques ; aucun ne peut porter le nom de désignateur semi-rigide.
La thèse de l’absence en sociologie des concepts analytiques est donc inexacte. Elle n’est vraie que de la seule partie de la sociologie qui en condamne l’usage.

Examen de la thèse faible

Pour que la thèse faible soit réfutée, il faut établir la présence de concepts idéaltypiques ou de désignateurs semi-rigides dans les sciences naturelles. Admettons par hypothèse que les concepts de la sociologie sont des idéaltypes ou des désignateurs semi-rigides. Ces espèces sont-elles inconnues dans les sciences physiques ?

Concepts idéaltypiques

La spécialité de la sociologie tient-elle à son usage des idéaltypes ? Si le mot n’est pas utilisé en physique, sa définition est applicable à certains concepts. Renvoyons aux textes :

« Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai, on dit que l’instrument est stigmatique pour le couple de points AoAi […] Un tel stigmatisme est rigoureux si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao, c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, l’instrument altère toujours le caractère ponctuel de l’image […] Le stigmatisme rigoureux est donc une idéalisation ».
« Dans un repère galiléen, toute particule isolée décrit un mouvement rectiligne et uniforme […] Pratiquement, l’univers dans lequel nous vivons est constitué de nombreuses particules et la particule isolée est une vue de l’esprit. Cependant les interactions entre particules diminuent lorsque la distance entre ces particules augmente » (J. Bok et P. Morel, Mécanique/Ondes, Paris, Hermann, 1971, p. 25, 40).

« Lumière monochromatique », « milieu homogène et isotrope », « stigmatisme rigoureux », « particule isolée », « choc élastique », « gaz parfait », « corps noir » sont des concepts analytiques qui n’ont de corrélats empiriques qu’approximatifs. Le physicien manipule des concepts purifiés. Dans le monde réel, il sait que les concepts sont des idéalisations qui décrivent approximativement les phénomènes réels qui apparaissent spontanément. En quoi cela fait-il une différence avec la sociologie ?

Désignateurs semi-rigides

Le référent d’un désignateur rigide est identique à lui-même dans tous les mondes possibles ; celui d’un désignateur semi-rigide doit varier en fonction du contexte. Esclavage romain/colonial, judaïsme ashkénaze/séfarade, etc. Dans tous ces cas on retrouvera l’idée d’une « indexation sur une série mobile de cas singuliers ». Mais la sociologie est-elle seule à utiliser des désignateurs semi-rigides ? La réponse est négative. Les astronomes distinguent les concepts analytiques explicatifs (rayon, masse, magnitude absolue, température de surface, pression, etc.) et les concepts phénoménaux (étoiles, amas, galaxies). Prenons le cas des étoiles. Si l’on réunit les « désignateurs » couramment utilisés par les astronomes, les étoiles sont identifiées comme :étoiles de Wolf-Rayet, nébuleuses planétaires, super-géantes, géantes rouges, sous-géantes, naines, naines blanches, naines brunes, étoiles carbonées, novae, supernovae, étoiles à neutrons, trous noirs, étoiles variables périodiques ou non, pulsantes ou non pulsantes, Céphéides, étoiles RR Lyrae, Mira, δ Scuti, βCMa, ZZ Ceti, P Cygni, étoile de Barnard, étoiles binaires, pulsarsetc. On trouve là une telle diversité que certains, comme Audouze, n’hésitent pas à parler de « zoologie stellaire » (J. Audouze et J. Lequeux, Cours d’astrophysique 1976-1977, Palaiseau, École Polytechnique, 1977, p. 35).

On trouve dans cette liste l’équivalent exact des « désignateurs semi-rigides » ou « semi-noms propres ». Les Céphéides (massives) et les étoiles RR Lyrae (peu massives) sont des étoiles variables dénommées par le nom propre d’un cas paradigmatique (δ Cephei pour les Céphéides). C’est également en ce sens qu’on parle des étoiles de type ZZ Ceti, etc. La dénomination des étoiles variables a largement utilisé ce procédé : un « nom propre » (au sens de Kripke) est pris comme « profil » de reconnaissance d’autres objets célestes. Par suite, il devient un « semi-nom propre » indexé sur une série de cas singuliers.

On ne voit guère ce qui distingue ce procédé intellectuel de celui préconisé par Passeron, ou même par Weber, lorsqu’il définit les formes de charisme en relation avec l’économie : charisme bonapartiste, charisme de Périclès ou charisme américain. Là encore, il s’agit d’identifier un type, non tant par ses caractéristiques abstraites, que par les propriétés singulières exhibées par le cas paradigmatique.

Classification ou typologie stellaire ?

Admettons enfin que la sociologie recoure à des typologies versus classifications. Est-elle la seule dans ce cas ? Prenons un exemple qui révèle assez bien la limite de cette distinction.

Les étoiles sont assujetties à la classification de Harvard, fondée sur la température de surface et la magnitude absolue. On distingue les classes O, B, A, F, G, K, M (des hautes aux basses températures) elles-mêmes subdivisées en sous-classes par un suffixe décimal 0…9. Chacune correspond à un ensemble de propriétés physiques. Les astronomes se réfèrent à cette « classification » en employant indistinctement les mots « classe » ou « type spectral ». Que signifie cette hésitation? L’analyse montre qu’il ne s’agit pas d’une inadvertance : le choix de « type » est légitime. Il existe même des raisons tout à fait fondées de préférer le syntagme « type spectral » à celui de « classe spectrale », en dépit du flottement terminologique qui caractérise leur usage.

Rappelons les principales, qui sont au nombre de six.

1. Les types spectraux ne permettent d’identifier correctement que les étoiles (naines) de la « séquence principale » du diagramme de Hertzsprung-Russell : il existe toujours des étoiles plus froides ou plus chaudes de même type spectral.

2. Ces anomalies ont été à l’origine d’une nouvelle classification dite de Yerkes ou MKK (Morgan, Keenan, Kellman, 1943) en « classes de luminosité » ; on ajoute le suffixe 0, Ia, Ib, II, III, IV, V, sd (VI), wd (VII) pour caractériser l’étoile : le Soleil est par exemple une étoile G2 V. La classification a par ailleurs été complétée par l’introduction de nouveaux types : W (puis Q et P) en amont de O et des types C (subdivisé en R et N), S et L, T en aval de G.

3. Ces classifications n’absorbent pas la diversité du phénomène « étoile ». Le concept d’« étoile G » est un profil de reconnaissance qui laisse des différences résiduelles entre deux étoiles G du même type ou du même sous-type (Soleil, α Centauri, β Comae Berenicesetc.). C’est le diagnostic qui ressort de ce texte de Schatzman :

« La classification spectrale à deux dimensions est à la fois un acquis fondamental de l’astrophysique stellaire et la grille de référence par rapport à laquelle s’établissent toutes les singularités. En effet de nombreuses étoiles ne se plient pas aisément aux règles de la classification MKK : elles sont particulières. C’est le cas des étoiles à raies d’émission de type B, dites Be, dont un prototype est αCas ; des étoiles de type A et B ayant des raies intenses d’éléments très peu répandus comme le gadolinium, le mercure ou les terres rares, ou aussi des raies anormalement intenses de certains élements connus (Mn, Si, Fe) : on les nomme Ap et Bp ; des étoiles de type K et M à éruptions ou à raies d’émission : on les note Ke ou Me (exemples : α Cen C et UV Cet), des étoiles à baryum, etc. », E. Schatzman et F. Praderie, Astrophysique. Les étoiles, Paris, CNRS, 1990, p. 39 (mes italiques).

Ce texte montre on ne peut mieux l’écart perçu entre la classification spectrale et les objets célestes singuliers que rencontre l’astrophysicien dans ses observations. Reconnaître pleinement ces singularités n’impose ni d’abandonner la classification — au motif qu’elle serait dénuée de pouvoir descriptif —, ni de négliger les caractères particuliers des objets observés — au motif qu’ils devraient se plier entièrement à la description qu’en donne la classification.

4. La double classification par types spectraux et par classes de luminosité n’épuisant pas les propriétés des objets connus, les astronomes tombent régulièrement sur des objets célestes atypiques. On a donc proposé de compléter la nomenclature par des indications extérieures. Les astrophysiciens utilisent aujourd’hui un système de quinze suffixes indiquant les propriétés remarquables absentes de la classification. Voici la liste de ces suffixes :

e émission (hydrogène dans les étoiles de type O)
em émission de raies métalliques
ep émission particulière
eq émission à profil P Cygni (absorption des faibles longueurs d’ondes)
er émission inversée
f émission de l’hélium et du néon dans les étoiles de type O
k raies interstellaires
m fortes raies métalliques
n raies diffuses
nn raies très diffuses
p spectre particulier
s raies étroites
v variation dans le spectre
wk raies faibles

L’examen de cette liste montre que les suffixes désignent : tantôt un phénomène atypique (cas des spectres eq, er) ; tantôt — ce qui est plus intéressant pour notre comparaison — un phénomène proprement inclassable (cas des spectres ep, p, v).

5. Ensuite, il faut observer que, contrairement à ce que suggèrent les mots « classes » et « classification », les étoiles peuvent appartenir à plusieurs classes, y compris même à des classes que tout oppose a priori. Reprenons la classification à partir des données récentes recueillies par Hipparcos, chargé d’établir un catalogue de 115 000 étoiles jusqu’à la 12e magnitude. Leur positionnement sur le diagramme de Hertzsprung-Russell forme un nuage en Y (séquence principale + sous-géantes). Le dépouillement des données Hipparcos a révélé le défaut de correspondance exacte entre type spectral et magnitude absolue qui est au fondement de la classification. La définition des « standards » (c’est-à-dire des étoiles paradigmatiques servant de référence à chaque sous-type) est confrontée à ces anomalies. L’analyse des données Hipparcos a récemment conduit Ginestet, Carquillat et Jaschek à la découverte d’étoiles ayant un statut paradoxal, hybride entre « naines » et « géantes » :

« HD 204613 est une étoile de type G1 IIIa : CH1,5 dont les données photométriques et spectroscopiques sont en nette opposition […] la photométrie correspondrait à celle d’une naine et le spectre indiquerait une classe III [géante]. Deux autres étoiles géantes sortent aussi nettement du groupe mais, cette fois, en direction de la classe II : ce sont HD 81817 et HD 176670 », N. Ginestet, J.-M. Carquillat, C. Jaschek, Astronomy and Astrophysics, Supplement Series 142 (2000): 13-24.

Ces cas permettent de douter que l’intérêt des singularités soit un caractère propre de la sociologie. La « zoologie stellaire » n’est pas moins foisonnante de cas singuliers. Mais il existe encore une façon de sauver l’irréductibilité épistémologique de la sociologie : prétendre que l’astrophysicien — au contraire du sociologue — tente, à travers cette zoologie, de confirmer la typicalité des objets célestes. Est-ce le cas ? Deux indices paraissent montrer le contraire :

1° le nombre de publications consacrées aux objets « exotiques » (en dehors de la séquence principale) qui sont pourtant d’une abondance tout à fait négligeable dans l’univers ;

2° le nombre de publications consacrées à des phénomènes singuliers comme l’éruption solaire du 25 juillet 1946 ; la couronne blanche de l’éclipse totale de Soleil du 30 juin 1973 ; l’environnement de β Pictoris ou la supernova 1987A parfois considérée comme supernova « hors la loi » à cause de sa courbe de luminosité.

Les astrophysiciens n’ont pas l’obsession de la typicalité. Ils s’intéressent également aux singularités. Cela fait-il une différence avec la sociologie ?

Conclusion

Certains concepts sociologiques sont des concepts idéaltypiques et des désignateurs semi-rigides ; d’autres sont des concepts analytiques. Certains concepts des sciences physiques sont des concepts analytiques quantitatifs, d’autres des concepts typologiques et des désignateurs semi-rigides. L’ontologie sociologique ne secrète donc pas de concepts ayant une nature spéciale. De ce fait, la thèse forte et la thèse faible sont réfutées. Le statut des concepts n’est pas un argument du dualisme ou du régionalisme, au sens où l’on devrait — à cause de celà — juger la sociologie selon des normes spéciales de scientificité.

Il existe évidemment bien d’autres critères à partir desquels on peut essayer de donner à la sociologie un statut épistémologique particulier, mais ce n’est pas le lieu de les examiner ici (7).

Dominique Raynaud. Contact : dominique.raynaud (at) upmf-grenoble.fr.


Notes

(1) « L’idéaltype […] n’a d’autre signification que d’un concept limite purement idéal, auquel on mesure la réalité pour clarifier le contenu empirique de certains de ses éléments importants », M. Weber, Essais sur la théorie de la science, Paris, Plon, 1992, p. 172.

(2) Weber distingue trois types de domination légitime : la domination légale-rationnelle (le chef tire sa légitimité d’un ordre rationnel défini par les « membres » de la société), la domination traditionnelle (aux yeux des « sujets » le chef est investi d’une légitimité issue de la tradition) et la domination charismatique (le chef tire sa légitimité des capacités extraordinaires que veulent bien lui prêter ses « disciples »). Il est rare de rencontrer ces types à l’état pur. Les cas historiques de domination sont le plus souvent des mixtes (la légitimité de De Gaulle était essentiellement du type légal-rationnel, mais des éléments de charisme l’ont probablement renforcée).

(3) Kripke donne la définition suivante : « un désignateur désigne un certain objet rigidement s’il désigne cet objet partout où celui-ci existe ; si, de surcroît, l’objet existe nécessairement, le désignateur peut être appelé « rigide au sens fort » », S. Kripke, La Logique des noms propres, Paris, Éditions de Minuit, 1982, pp. 36-37. Outre les noms propres (« Neptune »), les désignateurs rigides absorbent les constantes (« π », rapport de la circonférence du cercle à son diamètre) et les concepts d’usage partitif (« eau », « oxygène », etc.).

(4) Plusieurs expressions ont été utilisées pour dire que la sociologie n’était pas une science comme les autres. On a parlé du dualisme des sciences naturelles et sociales – au sens où il existerait deux blocs de sciences disjoints. Cette expression, qui implique une séparation radicale des mondes naturel et humain, fait référence au Methodenstreit allemand, dominé par la figure de Dilthey. On parle aussi de régionalisme, dans un sens très librement dérivé de Bachelard et de Bunge, au sens où chaque discipline possèderait des caractères propres. Le régionalisme n’a pas les mêmes implications que le dualisme. D’abord, parce qu’il peut se dispenser de penser une opposition frontale entre sciences naturelles et sciences sociales. Ensuite, parce qu’il n’est pas tenu de postuler une unité au sein de ces ensembles de disciplines – ce que fait le dualisme. Cette unité étant discutable, le régionalisme nécessite moins d’hypothèses. Toutefois, il existe des passerelles entre dualisme et régionalisme. Si on s’intéresse à une seule discipline, ces expressions deviennent à peu près équivalentes, puisqu’elles cherchent à identifier les caractères distinctifs d’une discipline par rapport aux autres.

(5) J.-C. Passeron, Le Raisonnement sociologiqueop. cit., pp. 363, 371.

(6) M. Barbut, Les mathématiques et les sciences humaines. Esquisse d’un bilan, L’Acteur et ses Raisons. Mélanges en l’honneur de Raymond Boudon, Paris, PUF, 2000, pp. 205-224.

(7) Pour une analyse critique de plusieurs autres critères, voir D. Raynaud, La Sociologie et sa vocation scientifique, Paris, Editions Hermann, 2006.

De la difficulté d’être darwinien – l’énigme pédagogique des éléphants sans défenses

Voici un extrait de la publication de notre collègue Gérald Bronner « La résistance au darwinisme : croyances et raisonnements » dans la Revue française de sociologie* qui offre un outil magistral aux enseignants.
J’ai (RM) tenté de reproduire l’énigme moi-même dans mes enseignements (voir deuxième partie).

(…)  Si l’on réalisait une enquête pour savoir si les Français adhèrent aux thèses de Darwin, on obtiendrait sans doute des CorteX_Gerald_Bronnerrésultats assez différents de ceux du sondage américain.Il est possible d’imaginer que nos compatriotes se déclareraient plus volontiers darwiniens que leurs voisins d’outre-Atlantique, pourtant il serait sage de rester sceptique face à ces résultats. En effet, pour prendre ce genre de déclarations au sérieux, il faudrait être assuré que le sens commun conçoit clairement ce qu’être darwinien signifie, ce dont il est permis de douter.

Pour tester cette idée, nous avons réalisé une expérimentation (18) qui consistait à soumettre 60 individus à une situation énigmatique qui, précisément, concernait les métamorphoses du vivant. Cette situation réelle avait été relayée, faiblement, par la presse (19) et était de nature à mesurer les représentations ordinaires de l’évolution biologique.

L’énoncé de l’énigme était lu lentement aux sujets volontaires. En plus de cette lecture, cet énoncé était proposé sous forme écrite et l’entretien ne commençait que lorsque le sujet déclarait avoir compris parfaitement ce qui lui était demandé. Il lui était laissé ensuite tout le temps qui lui paraissait nécessaire pour proposer une ou plusieurs réponses à cette énigme. La grille d’entretien avait été conçue pour inciter l’interviewé à donner toutes les réponses qui lui viendraient à l’esprit, attendu que ce sujet n’impliquait pas(en particulier en France), a priori, une charge idéologique ou émotionnelle forte, de nature à susciter des problèmes d’objectivation ou de régionalisation (20).

Trois critères présidèrent à l’analyse de contenu de ces 60 entretiens.

1) Le critère de spontanéité : il consistait à mesurer l’ordre d’apparition des scénarios dans le discours. En d’autres termes, on cherchait à voir quelles seraient les solutions qui viendraient le plus facilement à l’esprit des individus face à l’énigme.

Le critère de récurrence : il consistait à mesurer le nombre d’évocations du même type de scénario dans un entretien.

3) Le critère de crédibilité : à la fin de l’entretien, on demandait à l’interviewé celui, d’entre les scénarios qu’il avait évoqués, qui lui paraissait le plus crédible. On demandait par exemple : « Si vous aviez à parier sur l’une des solutions de l’énigme que vous avez proposées, laquelle ferait l’objet de votre mise ? »

Ces critères furent mobilisés pour mesurer les rapports de force entre les différents discours possibles, les solutions imaginées, pour résoudre l’énigme.

J’ai retenu, en outre, le critère d’évocation simple qui mesurait le nombre de fois où un scénario avait été évoqué globalement, sans tenir compte de l’ordinalité ou des récurrences dans les différents discours et un critère d’évocation pondérée qui croisait le critère de spontanéité et celui de récurrence (21).

La population des sujets de l’expérimentation fut échantillonnée selon deux éléments.

  1. Le diplôme : tous les interviewés devaient être titulaires du baccalauréat. On s’assurait ainsi qu’ils avaient tous été familiarisés avec la théorie de Darwin, à un moment ou à un autre de leur scolarité.
  2. L’âge : la règle préliminaire de cette enquête était de mettre en œuvre l’idée d’une dispersion. Pour contrôler cette dispersion autour des valeurs centrales (l’âge moyen était de 37 ans), j’ai rapporté l’intervalle interquartile à l’étendue. Le premier représentant plus de 50 %(59 %) de la seconde, on s’assurait ainsi d’éviter des phénomènes de concentration des âges. Cette expérimentation fut menée de novembre 2005 à janvier 2006, principalement auprès de personnes vivant en Île-de-France (N = 49), et tous en Métropole(Lorraine N = 4, Haute-Normandie N = 4, Midi-Pyrénées N = 3). Cette population était composée de 33 femmes et 27 hommes, de cadres, professions intellectuelles et supérieures (N = 14), de professions intermédiaires (N = 17), d’employés (N = 7), d’étudiants (N =11), de chômeurs(N = 5), de retraités (N = 4), d’un agriculteur exploitant et d’une femme au foyer.

Cette situation énigmatique, tirée d’un fait réel (22), fut donc soumise à ces 60 personnes sous la forme suivante :

« À l’état sauvage, certains éléphanteaux sont porteurs d’un gène qui prévient la formation des défenses. Les scientifiques ont constaté récemment que de plus en plus d’éléphanteaux naissaient porteurs de ce gène (ils n’auront donc pas de défenses devenus adultes). Comment expliquez cette situation ? »

Vous pouvez tenter de répondre à cette question. Puis cliquez .

* Bronner G., La résistance au darwinisme : croyances et raisonnements, Ophrys, Revue française de sociologie 2007/3 – Volume 48. Télécharger. Avec l’aimable autorisation de Gérald Bronner.

(18) Je remercie ici la promotion de maîtrise de sociologie de l’université Paris-Sorbonne 2005 sans l’aide matérielle de laquelle cette recherche eût été beaucoup affaiblie.

(19) Un encart de quelques lignes dans Libération (19/07/2005).

(20) Blanchet et Gotman (1992).

(21) Cette mesure n’est pas sans évoquer ce que les psychologues sociaux nomment l’analyse prototypique et catégorielle qui consiste à croiser le rang d’apparition de l’élément et sa fréquence dans le discours et à effectuer ensuite une typologie autour d’éléments sémantiquement proches. Un classement d’éléments cognitifs peut alors être obtenu soulignant le caractère central de certains d’entre eux. Sur ce point voir Vergès (1992, 1994).

(22) Sa réalité était sans doute un avantage, un autre était que le fait était passé presque inaperçu. On ne pouvait donc pas s’attendre à ce que les interviewés connaissent la solution de cette énigme comme cela aurait pu être le cas si j’avais choisi de les faire réfléchir sur la célèbre « affaire » des papillons Biston betularia, plus connus sous le nom de « géomètres du bouleau » ou « phalène du bouleau », dont le phénotype dominant changea au XIXe siècle dans la région de Manchester. Cette constatation inspira une expérience fameuse, menée entre 1953 et 1955 par le biologiste Bernard Kettlewell, et relatée dans tous les manuels de biologie évolutive. Cette recherche fournit, pour la première fois, la preuve expérimentale de l’existence de la sélection naturelle.

Biologie, évolution – L'échelle des êtres par Alain Le Metayer

L’échelle des êtres se cache-t-elle dans l’arbre phylogénétique ? Est-il possible qu’une idée fausse (par exemple : « Il existe une échelle des êtres« ) puisse persister dans les discours ou les représentations graphiques de personnes qui, pourtant, déclarent explicitement que cette idée est fausse ?
Alain Le Métayer partage avec nous un document instructif et éclairant sur ce problème.

 

Dans un article sur la résistance au darwinisme, Gérald Bronner propose ceci : il est difficile de devenir darwinien… quand on pense qu’on l’est déjà et qu’on mobilise les idées de Lamarck plutôt que celles de Darwin. Ainsi, en embarquant Lamarck comme passager clandestin tout en se croyant darwinien, on a peu de chance de le devenir vraiment !


On pourra également se servir de l’excellent documentaire Espèces d’espèces, de Denis van Waerebeke. Concernant cette partie (sur l’échelle des êtres), voici deux extraits que nous utilisons dans nos cours :

[youtube=http://www.youtube.com/watch?v=kKnHlnD02dc]  
[vimeo 20738400]  

https://cortecs.org/videotex/biologie-de-levolution-metaphore-de-la-boule-buissonnante

https://cortecs.org/videotex/biologie-documentaire-especes-despeces

Denis Caroti

Esprit critique & kinésithérapie : deux mémoires défrayent la chronique

En ce mois de juin 2012 sortent simultanément de l’Ecole de Kinésithérapie du CHU de Grenoble deux mémoires de Master 1 portant sur des sujets controversés : la fasciathérapie MDB et la micro-kinésithérapie. Le travail de Nelly Darbois, mené le plus rigoureusement et impartialement possible, alimentera les réflexions et devraient permettre d’affiner les pratiques et l’épistémologie de la discipline. Concernant le mémoire de Thibaud Rival, il est de moindre qualité mais apporte un éclairage indéniable sur son objet. Bonne lecture.

Nelly Darbois
Nelly Darbois – Kinésithérapie (Chambéry, France)

Le premier mémoire, écrit par Nelly Darbois, porte sur le sujet « chaud » de la fasciathérapie Méthode Danis Bois et s’intitule La fasciathérapie « Méthode Danis Bois » : niveau de preuve d’une pratique de soin non conventionnel [1]. Il a été encadré par Richard Monvoisin (CorteX – Université de Grenoble) et Stéphanie Bernelle (Ecole de Kinésithérapie – CHU Grenoble).

  • Le mémoire (pdf, actualisé le 28 juin 2012)
  • Le poster (pdf)
  • La présentation orale montée, (le 25 mai 2012 à Grenoble) :

    Ajout du 22 décembre 2017.

    Des requêtes judiciaires menées depuis 2012 par la société Point d’appui et l’association nationale des kinésithérapeutes fasciathérapeutes (aujourd’hui nommée Association FasciaFrance) ont conduit à demander à ce que « les informations concernant la fasciathérapie ne doivent plus figurer dans le guide  » Santé et dérives sectaires  » publié par la mission interministérielle de vigilance contre les dérives sectaires (MIVILUDES) en avril 2012  » 1.


CorteX_Thibaud_Rival

Le second mémoire, produit par Thibaud Rival aborde le non moins problématique sujet de la microkinésithérapie de MM. Benini et Grosjean, et s’intitule « Une méthodologie d’approche des pratiques non conventionnelles : application par l’analyse critique de la microkinésithérapie ». Il a été encadré par Nicolas Pinsault (CorteX – Ecole de Kinésithérapie – CHU Grenoble) et Richard Monvoisin (CorteX – Université de Grenoble).

Pour tout détail, complément ou remarque :

  •  Nelly Darbois, Thibaud Rival via R. Monvoisin – Collectif de Recherche Transdisciplinaire Esprit Critique & Sciences (CORTECS) Bureau des Enseignements Transversaux – Département des Licences Sciences & Techniques  480 avenue Centrale Domaine Universitaire BP 53 – 38041 Grenoble cedex 9 – Monvoisin [at] cortecs.org

Richard Monvoisin

[1] Sujet « chaud » au sens où cette technique fait l’objet de critiques de la Mission Interministérielle de Vigilance et de Lutte contre les Dérives Sectaires (Miviludes 2007 et 2012, Guide santé et dérives sectaires) et se retrouve au coeur de processii juridiques. On lira à ce propos Face au cancer, la fasciathérapie continue de diviser à Angers, Rue 89.

Entraînez-vous ! Détection du finalisme et de l'anthropomorphisme

Difficile de parler des mécanismes de l’évolution des espèces sans utiliser un vocabulaire ou des expressions anthropomorphiques ou finalistes. On les retrouve cachées dans des expressions telles que « les poils (humains) ont disparu car nous n’en n’avions plus besoin« . Plus subtil, le terme « pour » lorsque l’on évoque par exemple le long cou des girafes pour attraper la nourriture haut dans les arbres. Si ce « pour » a comme signification « leur permettant de », il est acceptable car extérieur à la volonté de l’animal, mais dans l’esprit de beaucoup de gens, ce « pour » signifie « dans le but de » ou « dans l’intention de ». Nous pensons que ce type de formulations a un effet dévastateur sur les conceptions d’un public qui, soi-disant, est demandeur de choses faciles et rapides à digérer, se complaisant dans l’image et le sensationnel. Il est tout à fait possible qu’un reportage mou et long sur la reproduction des taupes ne suscite pas le même engouement qu’un documentaire déjanté sur les plus gros insectes du monde. Mais ce faux dilemme ne doit pas nous empêcher d’imaginer ces mêmes documentaires, et sexy et rigoureux scientifiquement, sans aucun compromis entre justesse de vocabulaire et audience.

Si vous avez vous aussi des exemples à partager, vous pouvez nous écrire : contact@cortecs.org

Denis Caroti


Dans l’extrait suivant d’un documentaire réalisé en 2004 et diffusé sur France 5 en 2008 (Petites bêtes et grosses frayeurs – World’s Biggest and Baddest Bugs), nous avons détecté quelques-unes de ces utilisations. Nicolas Montes ayant travaillé sur ce décorticage, nous retranscrivons ici ses remarques. Merci à lui pour cette analyse !

[youtube=http://www.youtube.com/watch?v=JblvtnC4_Qs]

A télécharger ici

1/ Analyse du vocabulaire

L’anthropomorphisme est l’attribution de caractéristiques comportementales ou morphologiques humaines à d’autres entités comme des animaux, des objets ou des phénomènes.
On peut relever une série de mots à fort effet impact, intégrée dans une scénarisation guerrière (voir technique du carpaccio) : le vocabulaire de combat est tel qu’on pourrait l’entendre dans la description de conflits humains actuels, avec des qualificatifs anthropomorphiques, c’est-à-dire qui confèrent à l’animal des sentiments humains ou des valeurs morales.
  • « Le féroce Casoar »

Féroce : qui se plait dans le meurtre, cruel (Dictionnaire Littré)

  • « Les armes de la mante »
  • « Les pattes extraordinaires de la mante… »
Extraordinaire a un sens ambigu : qui sort de l’ordinaire sans préciser quel ordinaire ou quelle normalité. Par exemple, ordinaire pourrait signifier des pattes de sauterelles ? Mais les pattes de sauterelles ne sont-elles pas « extra-ordinaires » par rapport à celles du chien par exemple ?
  • « Cet insecte a sacrifié deux de ses six pattes… »
  • « … des machines à tuer »
  • « … servir de proie à des tueurs »

2/ Finalisme (téléologie), anthropomorphisme et erreurs

  • « Les armes préférées de la mante religieuse sont ses pattes extraordinaires »

CorteX_mante_armeeLa mante n’a pas de préférences dans le choix de « ses armes ». C’est un anthropomorphisme. De plus, « armes préférées » signifie qu’elle en a d’autres, on peut se demander lesquelles ? Qui plus est, le fait même d’utiliser « armes » est un terme téléologique, avec une finalité, alors que l’évolution ne fonctionne pas avec une finalité : seuls ont survécu les individus ayant cette caractéristique qui leur a permis d’assurer une plus grande descendance que ceux qui ne l’avaient pas, ceci dans le milieu où ils vivent.

  • « Cet insecte a sacrifié deux de ses six pattes pour en faire exclusivement des machines à tuer »

Elle n’a pas « sacrifié » ses pattes (mais il y a eu, au cours du temps, sélection naturelle de la variation « pattes antérieures ravisseuses »)
Ce « sacrifice » s’est fait à l’échelle historique et de l’espèce (et pas de l’individu visible sur le film).

  • « Cet insecte a sacrifié deux de ses six pattes pour en faire exclusivement des machines à tuer »

La sélection naturelle n’a pas de but. Ni la mante, ni la sélection naturelle n’ont « fabriqué » intentionnellement des machines à tuer (le fameux « pour » auquel il est très difficile de ne pas avoir recours mais dont il faut, rappelons-le, particulièrement se méfier). C’est une vision finaliste.

  • « Cet insecte a sacrifié deux de ses six pattes pour en faire exclusivement des machines à tuer »

Cette affirmation est fausse puisque ces pattes servent aussi à la locomotion.

Nicolas Montes

Entrevue avec Nicolas Gauvrit

A l’occasion d’une conférence donnée à Marseille, Nicolas Gauvrit, Maître de Conférences à l’Université d’Artois et chercheur au laboratoire de didactique de l’Université Paris VII, a accepté de répondre à quelques-unes de nos questions. Nous partageons ici ses réflexions sur le thème de la psychanalyse notamment mais également sur des sujets plus généraux comme le rationalisme, la prise en charge de l’autisme, etc. (La prise de son annexe n’a pas fonctionné, désolé).

Denis Caroti


  1. Zététicien, rationaliste, sceptique ? Comment Nicolas se définit-il ?
  2. Agir de façon rationnelle ? Peut-on croire de façon rationnelle ?
  3. L’inconscient comme fondement des psychanalyses
  4. Les psychanalyses sont-elles « scientifiques » ?
  5. Quels sont les critères pour dire qu’une pratique est « scientifique » ?
  6. Peut-on tester certaines hypothèses psychanalytiques ?
  7. Des hypothèses psychanalytiques ont-elles été validées ?
  8. Psychanalyse et idées reçues
  9. Le refoulement : une idée reçue ?
  10. Le lapsus : idée reçue ?
  11. Lacan et les mathématiques : imposture intellectuelle ?
  12. Psychanalyse et autisme : sophisme « du juste milieu »
  13. Psychanalyse : traiter les causes de l’autisme ?
  14. Les livres qui ont compté
  15. Développer science et esprit critique : un outil de transformation sociale ?
  16. Bibliographie
[dailymotion id=xr55xb] Zététicien, rationaliste, sceptique ? Comment Nicolas se définit-il ?Pourquoi ? Quel est le terme qui convient le mieux pour parler de ses travaux ?
   
[dailymotion id=xr56j2] Agir de façon rationnelle ? Peut-on croire de façon rationnelle ?
   
[dailymotion id=xr5dz0] L’inconscient comme fondement des psychanalyses
   
[dailymotion id=xr56jo] Les psychanalyses sont-elles « scientifiques » ?
   
[dailymotion id=xr56jv] Quels sont les critères pour dire qu’une pratique est « scientifique » ?
   
[dailymotion id=xr56k4] Peut-on tester certaines hypothèses psychanalytiques ?
   
[dailymotion id=xr5f6o] Des hypothèses psychanalytiques ont-elles été validées ?
   
[dailymotion id=xr5fei] Psychanalyse et idées reçues
   
[dailymotion id=xr5fv9] Le refoulement : une idée reçue ?
   
[dailymotion id=xr5g75] Le lapsus : idée reçue ?
   
[dailymotion id=xr5gfc] Lacan et les mathématiques : imposture intellectuelle ?
   
[dailymotion id=xr5hcm] Psychanalyse et autisme : sophisme « du juste milieu »
   
[dailymotion id=xr5i2g] Psychanalyse : traiter les causes de l’autisme ?
   
[dailymotion id=xr5isp] Les livres qui ont compté
   
[dailymotion id=xr5iut] Développer science et esprit critique : un outil de transformation sociale ?
mensonges_freudiens le_singe_en_nous
Impostures_intellectuelles

Bibliographie :
– Le singe en nous, Frans de Waal, Fayard (2006).
– Mensonges freudiens, Jacques Bénesteau, Pierre Mardaga éditeur (2002).
– Impostures intellectuelles, A.Sokal & J.Bricmont, Odile Jacob (1997).

Main basse sur la science publique : le «coût de génie» de l’édition scientifique privée

Le problème de la publication scientifique et de son violent « capitalisme » fait l’objet de nos enseignements et de nos préoccupations. Nous l’abordons dans les stages pour doctorants ainsi que dans les modules « analyse d’articles » pour professionnels de santé. Richard Monvoisin a d’ailleurs clairement pris position sur le sujet (voir Recherche publique, revues privées, Le monde diplomatique, décembre 2012). Un groupe de chercheurs (CNRS, INRA) emmenés  par le biologiste Bruno Moulia ont produit un texte fouillé sur la question, qui étoffera tout enseignement sur le sujet. Nous le reproduisons ici.


CorteX_cerveau_poissons_K_ba

Main basse sur la science publique :

le «coût de génie» de l’édition scientifique privée

 Imaginez un monde où les chercheurs des établissements publics de recherche et des universités seraient rétribués individuellement en fonction de leur contribution au chiffre d’affaire d’un oligopole de grands groupes privés, et où les moyens humains et financiers affectés à leurs recherches en dépendraient. Projet d’un think-tank ultra-libéral, voire science-fiction pensez-vous ?… ou alors cas particulier de quelques fraudes liées à l’industrie du médicament ? Non, non, regardez bien autour de vous, c’est déjà le cas, dans l’ensemble du monde scientifique (sciences de la nature, médicales, agronomiques…), et ce à l’insu de la grande majorité des gens, et de trop de chercheurs ! Mais une prise de conscience est en train de s’opérer et une bataille s’engage sur tous les continents. Analysons les faits :

Une transformation du processus de production dans l’édition qui a conduit à sa concentration et à la privatisation de la publication par quelques grands groupes

La publication, l’acte par lequel des chercheurs rendent publics et accessibles à leur collègues leurs résultats, est un élément clé du processus de développement de la Science. Le travail des chercheurs y est soumis à une première vérification par des pairs. Cette vérification, si elle n’est pas parfaite (Monvoisin, 20121), permet du moins de modérer le nombre de publications et donc de limiter la dilution de l’information significative –au risque d’un certain conservatisme parfois (Khun, 1952). Si ce travail est jugé significatif par deux pairs spécialistes du domaine (couverts par l’anonymat), ce travail est alors publié c’est-à-dire rendu disponible à l’ensemble de la communauté. La publication est ainsi un élément central de la reconnaissance du travail accompli (et/ou de sa critique) et de la renommée des chercheurs et des équipes, et participe ainsi à la formation de leur « crédit ou capital symbolique » (Bourdieu, 1997). La connaissance est aussi un bien public : un bien qui ne perd pas sa valeur par l’usage d’autrui, mais au contraire qui ne la réalise pleinement que par l’usage que les autres scientifiques en font (Maris, 2006). La publication de cette connaissance, en particulier sa publication écrite, est ainsi le moyen de rendre cette connaissance accessible aux autres chercheurs, aux institutions de recherche, aux journalistes et finalement aux citoyens, permettant son évaluation critique au-delà de la vérification initiale et finalement sa mise en valeur collective. Ainsi la publication est le vecteur principal des idées et des innovations d’un secteur à l’autre. Enfin, la publication est un bien non substituable : si un chercheur a besoin pour son travail de tel article, il ne pourra pas le substituer par un autre article qui serait accessible à un moindre coût (COMETS, 2011).

L’organisation de la publication scientifique, au niveau des chercheurs et de l’édition a donc été un élément important du développement des sciences et un aspect central du mode d’organisation de la production scientifique. Elle s’est faite par la création de journaux scientifiques à comités de lecture. Historiquement, l’édition de ces journaux scientifiques a été essentiellement le fait de structures à but non lucratif : des sociétés savantes et des académies des sciences (le modèle issus des Lumières), des presses universitaires et enfin les presses des grands établissements publics de recherche – CNRS, INRA INSERM …en France (le modèle issu du Conseil National de le Résistance et plus largement de l’après guerre). L’enjeu principal de ces structures était la diffusion de la science, avec un souci de qualité et de reconnaissance.

Or les trente dernières années ont vu une transformation sans précédent des modes de production de l’édition en général, et de l’édition scientifique en particulier (Chartron, 2007). Cette transformation est liée au développement des Nouvelles Technologies de l’Information et de la Communication (NTIC) et à l’informatisation/automatisation des processus éditoriaux et d’imprimerie ; elle culmine désormais dans les bibliothèques virtuelles et autres plateformes « on-line ». Cette évolution, concentrant tous les coûts dans « la première feuille virtuelle » et dans le développement et le maintien de grandes plateformes informatisées, a rendu les tirages limités et donc l’édition des journaux scientifiques rentable via des investissements initiaux conséquents et une concentration du secteur2 . Les petits éditeurs n’ont pas pu suivre. En France par exemple, l’Institut National de la Recherche Agronomique éditait 5 titres dont il a cédé, depuis les années 2000, l’édition, la diffusion et la politique commerciale à des éditeurs privés (Elsevier ,puis Springer)3. Et l’Académie des Sciences française a fait de même pour ses Comptes Rendus (mais pas l’américaine plus avisée ! …).

Ainsi, suite à ce processus de fusion-acquisition massif, l’édition des articles scientifiques est passée majoritairement aux mains d’un oligopole de grands groupes d’édition privés. Cinq grands groupes de presse écrasent désormais le marché : Reeds-Elsevier, Springer, Wolters-Kluwer-Health, Willey-Blackwell, Thomson-Reuter (Chartron, 2010). On peut y ajouter un 6eme, le groupe Nature (du groupe MacMillan, GHPG, un géant du livre). Ces 6 groupes privés concentrent désormais plus de 50 % du total des publications (Mc Guilan and Russel, 2008) sur un marché mondial de l’édition Scientifique Médicale et Technique (SMT) estimé à 21 Milliards de dollars en 20104. Reed Elsevier à lui tout seul concentre 25% du total. C’est un niveau de concentration considérable, généralement considéré comme critique par les autorités européennes de la concurrence car il permet la mise en place de pratiques anticoncurrentielles (Comité IST Ministère de l’Enseignement Supérieur et de la recherche, rapport 2008)

Ces groupes participent souvent de groupes capitalistes plus larges. Par exemple Thomson Reuter est d’abord un leader mondial de l’information financière. Ce sont aussi des géants de la presse. Ainsi dès sa création en 1993, l’éditeur Reed-Elsevier se situait au troisième rang mondial dans le secteur de la communication, derrière Time Warner et Dun and Bradstreet, et devenait le 3eme groupe anglo-néerlandais après le pétrolier Royal Dutch Shell et le géant de l’alimentaire Unilever (L’économiste, 1992). En 2010, Reed-Elsevier publiait 2000 journaux pour un chiffre d’affaire de 3 Milliards de dollars (The Economist, 2011).

Privatisation de la publication par les 5 Majors: packaging et copyright

Ainsi une part majeure des publications a été privatisée par des sociétés à but lucratifs. Cette captation du produit de la science (la publication) par les marchés se réalise par la cession par les auteurs de leur « copyright »5 au groupe d’édition publiant le journal où ils veulent publier leur article (cette cession est un pré-requis à la publication). Elle se fait au nom des coûts associés à la publication. Or ces coûts se sont fortement réduits du fait que l’essentiel du travail de mise en forme et d’édition est fait à titre gratuit par les scientifiques eux mêmes. Comme le disait Laurette Tuckerman (une chercheuse de l’ESPCI qui a participé aux travaux de la Commission d’Ethique du CNRS sur ce sujet, COMETS, 2011), un équivalent dans la vie de tous les jours pourrait être le suivant : quelqu’un construit totalement sa maison, mais fait appel à un peintre professionnel pour « fignoler » la façade, et… c’est le peintre qui en devient propriétaire via un bail emphytéotique !6 La cession gratuite de copyright requise pour pouvoir publier un article est en effet totale et irrévocable, et court parfois jusqu’à 70 ans après la mort de l’auteur7. Une fois ces droits acquis, le journal peut faire ce qu’il souhaite des éléments contenus dans la publication, sans en référer à l’auteur (COMETS, 2011), à commencer bien sûr par en vendre le droit de reproduction, y compris à l’auteur lui-même s’il souhaite les ré-utiliser ! La connaissance scientifique, bien public s’il en est, s’est trouvée transformée en un produit marchant par le simple ajout d’un packaging (la mise en forme de la revue) et par la chaîne de distribution. Et sans rétribuer aucun producteur !

Un capitalisme de prédation qui fait rêver Wall Street

Le modèle d’affaire des maisons d’éditions scientifique est en effet une première dans l’histoire du capitalisme. Il a fait écrire à un journaliste du Guardian qu’à ses côtés le magnat de la presse aux mille scandales Ruper Murdoch8 passe pour un socialiste humaniste (Monbiot, 2011). Détaillons un peu. Le travail de production des connaissances (travail de laboratoire, collecte et analyse des données, et nombre d’échanges formels ou informels au sein de la communauté scientifique) est réalisé par les chercheurs, les techniciens et les personnels administratifs de la recherche. La rédaction de l’article – travail effectué par un journaliste dans le reste de la presse – est encore réalisé par le chercheur, ainsi que l’essentiel de la mise en forme (grâce aux logiciels performants de traitement de texte scientifique). La validation du contenu est réalisée par d’autres chercheurs, ainsi que le travail éditorial de la revue. Et tout çà à titre gracieux pour les éditeurs, ou plus exactement via une rétribution symbolique (nous y reviendrons). C’est déjà beaucoup plus rentable que dans la presse conventionnelle où il faut payer les journalistes et les composeurs ! Mais il y a mieux (ou pire, c’est selon les points de vue !). Les journaux sont en effet revendus essentiellement aux bibliothèques de ces mêmes organismes publics de recherches ou universités qui ont financé les recherches et le travail de rédaction ; et ce à prix d’or ! Par exemple l’abonnement électronique à la revue « Biochimica et Biophysica Acta9 » coûte environ 25 000 euros /an (Monbiot, 2011). Ainsi les bibliothèques ont vu leurs dépenses liées à l’abonnement aux revues augmenter de 300% en 10 ans (Blogus Operandi , ULB, 2009). Ce poste absorbait en 2010 ; les 2/3 de leur budget (Monbiot, 2011). Ainsi pour chaque publication acquise, l’État, et donc le contribuable, a payé 4 fois le même article !!

1. les institutions payent les chercheurs qui rédigent les articles publiés dans les revues scientifiques ;

2. les institutions payent les scientifiques qui révisent et commentent les articles qui sont soumis à leur expertise (système de peer review) ;

3. les bibliothèques de ces institutions payent aux éditeurs et/ou agences d’abonnement le droit d’accéder aux revues dans lesquelles leurs chercheurs ont publié ;

4. les bibliothèques de ces institutions payent aux éditeurs l’accès perpétuel aux archives électroniques de ces mêmes revues.

A tel point qu’on a parlé de « racket légal » (Montbiot, 2010). Dans des termes plus liés à l’establishment, même la Deutche Bank reconnait que les marges des Majors de l’édition scientifique sont sans commune mesure avec le service fourni (Mc Gigan and Russel, 2008).

En tout cas c’est Jack Pot !! : Des taux de profits à faire pâlir le Nasdaq, et qui durent ! : 36 % pour Elsevier (secteur scientifique et médical) enCorteX_Logo_boycott_Elsevier_Daniel Mietchen 1988, 36,4 % en 2000 (Mc Gigan and Russel, 2008) encore 36% en 2010 en pleine crise (Montbiot, 2011) ! Les investisseurs spéculateurs ne s’y trompent pas. Ainsi la firme Morgan Stanley, une des grandes banques d’investissement américaines qui se sont tant illustrées dans la crise des subprimes écrivait à ses investisseurs dès 2002 «  la combinaison de son caractère de marché de niche et de la croissance rapide du budget des bibliothèques académiques font du marché de l’édition scientifique le sous secteur de l’industrie des média présentant la croissance la plus rapide de ces 15 dernières années »10 (Gooden et al., 2002). Spéculateurs, fonds de pension, on s’arrache les actions de l’édition scientifique… Quant au chercheur, pigiste-pigeon malgré lui, il constate la diminution des crédits effectivement disponibles pour financer sa recherche (pas son packaging), alors que les gouvernements peuvent communiquer sur un financement accru de la Recherche publique !

La « Science Optimisée par les Marchés » ? Mais c’est la bulle !!!

Si vous êtes chercheur ou simplement contribuable, un néo-libéral vous conseillera sûrement à ce point de récupérer une part de la plus-value de votre travail et/ou de vos impôts en devenant actionnaires de ces sociétés, et en empochant ainsi les dividendes11 ! Et il ajoutera, enthousiaste, que vous participerez en prime à l’optimisation de la recherche par les marchés. Mais justement la science avance, même dans le monde pourtant sous influence des sciences économiques : le modèle démontrant l’optimalité de l’allocation des ressources par le marché (modèle néo-classique) a été remis en cause sur le plan théorique et pratique dès que l’information n’est pas parfaite et qu’il y a des externalités – et la science en est pleine- (travaux du prix « Nobel » Joseph Stiglitz et de ses collaborateurs, voir Stiglitz, 2011). Et la « Grande Récession » mondiale en cours depuis 2008 nous le rappelle tous les jours. Mais on peut aller plus loin : même si on en restait au modèle néo-classique du Marché Optimisateur, ce dernier ne pourrait pas de toute façon s’appliquer à l’édition scientifique ! Comme le remarquait fort justement Morgan & Stanley (Gooden et al., 2002), la demande dans ce domaine est en effet totalement inélastique : les « clients » continuent à acheter quelle que soit l’augmentation des prix, car, comme nous l’avons vu, les publications ne sont pas substituables. Dans ce cas les marchés sont forcément inefficients dans la recherche du « juste prix ». Ils sont essentiellement là dans une position de prédation (on en revient au « racket » (Monbiot, 2009)). Et c’est d’ailleurs bien cette situation qui attire les investisseurs, qui savent bien que les profits juteux sont là où les marchés ne marchent pas (Maris, 2006, Stiglitz, 2011).

On assiste ainsi à une vraie bulle de la publication scientifique. Les journaux se multiplient, car presque tout nouveau journal est rentable et sera acheté. Depuis 1970 le nombre de journaux scientifiques double tous les 20 ans environ (Wake & Mabe, 2009). Quant au nombre de publications scientifiques, il double environ tous les 15 ans (Price, 1963 ; Larsen and von Ins, 2010). Et les prix s’envolent : + 22 à 57 % entre 2004 et 2007 (Rapport du Comité de l’IST, 2008) pour les journaux. En combinant hausse du nombre de journaux et hausse de leur prix, on arrive à une augmentation de +145 % en 6 ans pour l’ensemble des abonnements d’une bibliothèque de premier plan comme celle de l’Université de Harvard (Harvard University, Faculty Avisory Council 2012).

Un contre-argument apporté sur ce point par les sociétés d’éditions et de scientométrie est que l’accroissement du nombre des publications est observé depuis 170012 et qu’il reflète l’augmentation elle aussi exponentielle du nombre de scientifiques. Mais ce n’est pas parce qu’une croissance est exponentielle au début d’un processus qu’il est normal que cette croissance exponentielle se maintienne toujours. Le nombre de publications aurait probablement saturé sans cette bulle (Price, 1963 ; Polanko, 1999). En effet la capacité individuelle de lecture et d’assimilation de chaque chercheur n’augmente pas elle indéfiniment. C’est l’expérience courante de tous les chercheurs qui n’arrivent plus à suivre l’ensemble de la bibliographie, même dans leur spécialité. De même les éditeurs et les relecteurs sont débordés et ont de moins en moins de temps par article, ce qui renforce malgré eux le risque de décision de type « loterie » ou « à la tête du client » (Monvoisin, 2012). On assiste donc à une parcellarisation et une dilution de la connaissance scientifique dans le bruit des publications surabondantes (Bauerlein et al., 2010). Enfin, surabondante uniquement pour ceux qui peuvent payer ! Elle prive les autres, les instituts les moins dotés et les pays en voie de développement de l’accès aux connaissances. Mais l’emballement de la bulle est tel qu’il commence à mettre mal même les institutions les plus riches (ex Harvard University, Faculty Advisory Board, 2012). C’est ce qui a amené de nombreux auteurs à tirer la sonnette d’alarme, et le Comité d’Ethique de la Science du CNRS (COMETS) à émettre en juin 2011 un avis très critique sur cet état de fait (COMETS 2011), suivi plus récemment par le Faculty Advisory Board de l’Université d’Harvard aux USA (Harvard University, Faculty Advisory Board, 2012).

La cotation des journaux à l’Audimat

CorteX_ordi_cadenasMais avant d’aller plus en avant dans l’analyse des effets de cette marchandisation de la science, il nous faut considérer le dispositif mis en place pour établir une cotation « objective » des dits journaux. C’est un point central. Ce fut le fait d’une de ces mêmes grandes maisons de presse, Thomson Reuters, via sa branche Institut of Science Information/ Web of Knowledge. Fort de son expérience sur les marchés boursiers, Thomson Reuter a en effet organisé un système de cotation annuelle en ligne des journaux, le Journal Citation Reports13. Le principe de cette cotation est tout simplement l’Audimat: combien de fois un article publié dans une revue est-il cité, dans les deux ans qui suivent, par les autres articles publiés dans un pannel de journaux choisi par Thomson Reuter (et dont la représentativité a été discutée (Larson et Von Ins, 2010)). C’est ce qu’on appelle le facteur d’impact de la publication. Ainsi la valeur ajoutée d’une recherche a été réduite par l’action de Thomson Reuter aux points d’audimat de la publication associée. On est ainsi passé d’une considération de qualité du contenu par les acteurs de la recherches (tel article est une avancée majeure) à une mesure automatique du nombre de contenants (combien de lecteurs ont-ils vu cet article, et l’ont cité quelle qu’en soit la raison). On peut rentrer dans la critique détaillée de cette mesure (très biaisée), mais là n’est pas l’essentiel ici. Ce qu’il faut retenir ici c’est que la production scientifique a été ainsi quantifiée sur la base du nombre de publications (i.e. du nombre de contenants –packages- sans référence à la connaissance contenue), tout comme on quantifie n’importe quelle production industrielle ou encore les flux financiers (ceci par le biais de la scientométrie -comme on dit médiamétrie-). Et que cette objectivation et trivialisation de la valeur scientifique a été rendue possible en soumettant l’édition scientifique à la loi de l’Audimat.

La mise en place de cette logistique, et surtout sa mise à disposition de tous et sa promotion ont coûté fort cher, mais là encore Thomson Reuter se trouve en situation de quasi-monopole14. Il peut donc revendre avec fort bénéfice ce service aux journaux et surtout aux instituts de recherches et aux universités. Mais pour les éditeurs privés et les intérêts qui les soutiennent, cela présentait un deuxième retour sur investissement, moins direct, en termes de pouvoir et de prise de contrôle cette fois.

Audimat, Agences de Notation, Classements et Mercato : c’est le modèle TF1 ou PSG… en plus rentable !

L’intérêt de l’Audimat, comme on l’a vu dans le cas des chaines de télévisions privées, c’est qu’il peut se décliner à toutes les échelles, en considérant la part d’audience réalisée. Ainsi c’est l’ensemble des acteurs de la production scientifique (chercheurs, institutions et même journaux) qui se trouve ainsi évaluable individuellement en terme de facteur d’impact cumulé (ou de caractérisations dérivées comme le H facteur évaluant la « valeur de l’homo scientificus »).

Des Agences de Notation (l’AERES en France) construites à l’instar de celles qui existent dans la finance ont alors vu le jour. Ces agences publient (aux frais de l’État) des classements (A+, A, B, C, D) essentiellement fondés sur ces critères. Des agences de financement calquées sur les Banques d’investissement, comme l’ANR en France, ont aussi vu le jour pour faire des crédits à des projets de recherche, sur cette même base. Et toujours sur cette base un « Mercato » mondialisé des scientifiques les mieux classés peut s’organiser entre institutions autonomisées gérées comme des entreprises, sur le mode de celui entre chaines de télévisions ou des clubs de football (il est déjà bien en place dans les pays anglo-saxons et c’est un des enjeux de la loi LRU et de sa suivante actuelle que de l’instaurer en France). Ainsi s’est mis en place un mode de management ultralibéral appelé « publish or perish » (publier ou périr). Cette évolution a été analysée ailleurs beaucoup plus en détail (voir en particulier les livres remarquables d’Isabelle Bruno sur la méthode ouverte de management, (Bruno, 2009) et, de Vincent de Gaulejac (2012), sur les conséquences délétères déjà avérées du management de la recherche et l’article de Philippe Baumard (2012) sur la compétition pour la connaissance dans une perspective de guerre économique) et nous ne le développerons pas. Mais il est utile ici de noter qu’un mode de gouvernance des institutions (corporate management) et de management des ressources humaines néo-libéral a pu s’imposer aux sciences grâce à la transformation des modes de production de l’édition scientifique ; et ceci par la mise en place d’une logistique comparable à celle mise en place pour fluidifier les marchés des capitaux (quoiqu’à moindre échelle), soutenue par des investisseurs et des acteurs comparables (ex : Thomson Reuter, les gouvernements libéraux …). Cet environnement et cette logistique établis, le pouvoir de la rétribution symbolique associé à la publication par une revue de prestige d’un éditeur privé a pu se répandre dans l’ensemble du champ scientifique.

Quand la recherche se gère à la contribution au profit des actionnaires  sans débourser un centime de prime: un « coût de génie» !

A la différence de ce qui se passe dans la presse grand public ou même les média télévisuels, la rétribution du producteur primaire (le « travailleur de la recherche scientifique » qu’il soit intellectuel ou manuel15) par les groupes privés d’édition est restée elle essentiellement symbolique, ce qui ne veut pas dire sans pouvoir. En effet, la reconnaissance des équipes de recherche et des individus qui les composent, et l’évaluation de la valeur scientifique de leur production, passe justement par la diffusion et la lecture des publications. Mais, comme nous l’avons vu, grâce au système d’Audimat et d’Agences de Notation et de financement décrit plus haut, la valeur ajoutée d’une recherche a été réduite aux points d’audimat de la publication associée (le facteur d’impact de la publication). Et comme les données d’Audimat sont disponibles et chiffrées (au contraire de la reconnaissance réelle par les pairs) et que tout le système d’évaluation est là pour le légitimer et l’imposer, les chercheurs se sont habitués à considérer le facteur d’impact comme une donnée de première importance, et la gratification symbolique d’avoir un bon facteur d’impact comme suffisante16.

Cette chaîne de valeur symbolique ne le reste pas jusqu’au bout bien sûr : l’actualisation de la valeur en espèces sonnantes et trébuchantes se fait sur le dernier maillon au niveau des sociétés d’éditions lors de la vente des accès aux portefeuilles de journaux (plateformes), puis de la rétribution des actionnaires. Le «coup/coût de génie » de l’édition privée fut d’avoir permis que la valeur marchande (en monnaie réelle dollar, euro…) soit directement corrélée à la cotation du degré de reconnaissance par l’Audimat scientométrique, achevant ainsi l’aliénation de la valeur symbolique de la science en une valeur vénale. Faisant d’une pierre deux coups, l’ensemble de la production est ainsi commandé par une gratification compétitive de chacun des producteurs individuels, permettant au (néo-)Taylorisme de s’imposer en science (comme en attestent la généralisation des diagrammes du principal disciple de Taylor, Gantt, et la gestion des flux tendus que les chercheurs apprennent à connaitre17). Et la boucle est bouclée : les chercheurs sont donc rétribués en terme de crédit symbolique à hauteur directe de leur contribution au chiffre d’affaire des grands groupes privés de l’édition scientifique, via des primes symboliques (qui ne coûtent rien, une sorte de réédition des monnaies de singe des débuts du capitalisme). C’est là la double source du jack pot ! Et aussi de beaucoup d’inquiétude quand on voit ce que la dictature de l’Audimat a pu produire comme effet sur la qualité des contenus dans les médias grand-publics …. On ne s’étonnera guère de la montée des affaires liées à la falsification de données et au plagiat (Monvoisin, 2012 ; Cabut et Larousserie, 2013). Mais une autre conséquence a été moins commentée. Il s’agit de la conséquence sur l’organisation des disciplines scientifiques elle mêmes.

Des disciplines scientifiques à … la discipline des marchés

En terme de marketing, le « marché » des publications est segmenté par l’existence CorteX_publish_perish_phDcomicsmême des disciplines scientifiques (mathématiques, physique, biologie, sociologie, histoire …) et des différents domaines du savoir. La valeur d’impact-audimat des journaux n’a donc de valeur symbolique pour les scientifiques et leurs institutions qu’au sein de ces segments. Les instituts de scientométrie sont donc amenés à établir des regroupements par discipline. Mais le contour même de ces disciplines et domaines sont toujours un peu arbitraires (surtout pour les sous disciplines et domaines). Or les instituts de Scientométrie, en premier lieu Thomson Reuter, se sont arrogé de fait le pouvoir de définir eux-mêmes les contours des domaines, alors que ce travail de différentiation (qui est au cœur de la dynamique de la recherche – Kuhn, 1962- ) était avant aux mains des institutions académiques. En effet comme tous les niveaux institutionnels de la recherche publique sont évalués sur la base des classements d’impact au sein de leur sous-discipline, il suffit que Thomson Reuter -ISI change ses sous-disciplines pour que les équilibres institutionnels soient complètement changés : par exemple, il suffirait d’inclure les « Forestry Sciences » dans les « Plant Sciences », et on verra les meilleurs revues de sciences forestières devenir les derniers de la classe en « Plant-Sciences » pour des raisons liées uniquement à la différence de taille des communautés respectives, déstabilisant ipso facto les départements de recherche en sciences forestières dans le monde entier. Par ailleurs, les pratiques interdisciplinaires, reconnues par beaucoup comme source importante de progrès scientifique, souffrent de cette logique de classement et d’audimat des journaux (voir par exemple Barot et al., 2007 dans le domaine de l’écologie).

Une forme d’intégration verticale informelle….sous la pression des fonds d’investissement.

La mise en marché des publications scientifiques décrite jusqu’ici a mis les institutions scientifiques sous l’influence directe de grands groupes capitalistes, dont la logique est nécessairement celle du profit et de la rente. En fait, pour être plus précis, le processus de production scientifique s’est trouvé intégré verticalement (mais de manière informelle) par les sociétés d’éditions. Or ces sociétés d’éditions se trouvent, nous l’avons vu, sur un segment très rentable. Les actionnaires de ces sociétés sont donc ceux des autres sociétés rentables, à savoir des sociétés d’investissement et des fonds de pension (Gooden et al., 2012), avec les mêmes exigences de rentabilité de la rétribution du capital investi par les dividendes, et la même volatilité qu’ailleurs. Par exemple en décembre 2009, Springer Science + Business Media, racheté en 2003 par le fonds d’investissement britannique Cinven et Candover, était de nouveau revendu à deux autres fonds d’investissements, européen et de Singapour (Chartron, 2009). Par ailleurs, la partie du travail qui n’est pas fournie gratuitement par les chercheurs est délocalisée en Inde ou en Chine (Le Strat et al., 2013). Ainsi sans bien s’en rendre compte et tout en restant salariés de leurs institutions, les « travailleurs de la recherche scientifique » se sont retrouvés intégrés dans un secteur concurrentiel, réclamant toujours plus de productivité-rentabilité et la même dynamique de restructuration (fusions, séparations, délocalisation…) que dans les autres secteurs18. Un tel phénomène d’intégration verticale informelle est probablement sans précédent. Il peut être cependant partiellement comparé à deux autres secteurs : celui des artistes face à l’industrie du « disque » et celui des éleveurs industriels. Dans l’industrie de la musique enregistrée, les artistes créateurs voient leur production dépendre de Majors de la musique qui réalisent le packaging de leur production, et l’accès libre à leur production réglementé par des copyrights et protégé par des lois comme la loi Hadopi 2 en France19 , sans être salariés des maisons d’éditions qui les ont « signé ». Ceci s’observe encore plus clairement chez les éleveurs industriels (élevage porcin, volaille) en France. En laissant aux éleveurs une « indépendance » formelle, les firmes de l’agroalimentaire (aliment en amont, viande en aval) ont pu leur laisser croire qu’ils étaient leurs propres maîtres dans leur monde à eux, et leur faire ainsi accepter des conditions de travail et de rémunération qu’il eut été plus difficile d’obtenir d’eux dans le cadre d’une entreprise unifiée (à cause des syndicats, des conventions collectives …)20. Dans le cas des chercheurs, on a pu maintenir ce même sentiment de « travailleur indépendant » (en fait salarié d’une institution scientifique) et de rémunération horaire faible (du moins en France), en y gagnant en plus l’acceptation par le contribuable de payer au moins quatre fois la production scientifique au bénéfice de profits privés. La différence de modèle économique entre artistes et éleveurs de porcs d’un côté, chercheurs de l’autre, c’est que les artistes ne sont pas les seuls consommateurs de leur propre musique, pas plus que les éleveurs ne sont les seuls consommateurs de la viande qu’ils produisent.21

Des dirigeants de haut vol

La séparation entre les institutions de recherches et les maisons d’éditions qui les ont intégrées dans leur système de production permet d’éviter aussi que les chercheurs et le grand public connaissent les vrais dirigeants de l’ensemble. Beaucoup de chercheurs en effet pensent que le domaine de l’édition scientifique est le domaine de respectables institutions séculaires, dédiées à la science, à l’instar de la maison Springer, sans réaliser que la restructuration de l’édition et les enjeux de « l’économie de la connaissance » ont complètement bouleversé la donne. Pour favoriser une prise de conscience de la situation, il est peut être bon de présenter brièvement le pedigree d’un échantillon des cadres dirigeants des majors de l’édition scientifique. En voici donc un échantillon représentatif de cinq d’entre eux :

Sir David Reid, est Non-Executive Director (directeur non-exécutif) de Reed-Elsevier. Il est aussi chairman (président) de Tesco PLC (3eme leader mondial de la grande distribution derrière WallMart et Carrefour22) dont il a été le directeur financier. Il est enfin ambassadeur des affaires du Premier ministre néo-Thatcherien anglais David Cameron. Son collègue Robert Polet a été directeur non exécutif de Philip Morris International et président et chef de direction (chief executive officer) du groupe de luxe Gucci jusqu’à fin 2011. Il a passé 26 ans dans le marketing chez le géant de l’agroalimentaire Unilever où il finit président de la division Crèmes glacées et aliments surgelés (Unilever’s Worldwide Ice Cream and Frozen Foods division). Enfin Cornelis van Lede est dirigeant (Executive Officer) de Koninklijke Philips Electronics NV. M. van Lede a été président et membre du conseil d’administration et chef de la direction d’Akzo Nobel NV (fabricant et distributeur de produits de santé, revêtements et produits chimiques), de 1994 à mai 2003. De 1991 à 1994, M. van Lede a été président de la Confédération de l’industrie et des employeurs néerlandais (VNO) et vice-président de l’Union of Industrial and Employers’ Confédérations de l’Europe (UNICE). Il est président du conseil de surveillance de Heineken NV depuis 2004. Il est président du conseil de surveillance de la banque centrale néerlandaise (…).Il a servi comme membre du Conseil de surveillance de Royal Dutch Airlines KLM. M. van Lede a été membre du Conseil consultatif européen de Jp Morgan Chase & Co. depuis octobre 2005.

Jetons rapidement un œil chez Thompson Reuters maintenant. Parmi ses directeurs nous rencontrons Sir Deryck Maughan qui a été PDG (Chairman and Chief Executive Officer) du Citigroup International et Vice Président du New York Stock Exchange (bourse de New York) de 1996 à 2000. Finissons notre petite visite par le Board of Trustees. Voici Dame Helen Alexander, qui a été (entre autres) directrice générale (Chief Executer) du groupe du journal économique « The Economist » fer de lance de la City, et directrice opérationnelle (managing director) du renseignement stratégique économique (« Economist Intelligence Unit ») entre1993 et 1997. Elle travaille aussi pour la World Wide Web foundation, The Port of London Authority (PLA) et pour Rolls-Royce, et est présidente de la Said Business School à Oxford. Et à ses côtés, voici quelqu’un de plus connu du grand public, le français Pascal Lamy , ancien sherpa de Jacques Delors à la Commission Européenne, et auteur depuis d’une belle carrière qui l’a mené, via le Crédit Lyonnais , à la direction de l’Organisation Mondiale du Commerce (OMC, World Trade Organisation WTO en Globish), bien connue pour son rôle dans la mondialisation néolibérale et la globalisation.

On pourrait continuer (tout est visible et fièrement affiché sur les sites web des firmes correspondantes). Mais on a vu l’essentiel : Marketing, École de Commerce, grande distribution, industries du tabac et de l’alcool, de l’automobile, de l’agro-alimentaire, de la chimie, du médicament, compagnies d’aviations, import-export, groupes financiers, organisations patronales, grands groupes d’investissement spéculatifs, banque mondiale. L’édition scientifique et le contrôle qu’elle offre sur la source de l’économie globalisée de la connaissance attire des seigneurs du capitalisme financier mondial et de la mondialisation23. Et derrière eux, comme nous l’avons vu, la rentabilité de l’édition scientifique attire fonds de pensions et sociétés d’investissement en capital risque.

Une prise de contrôle qui affaiblit la science

Il est important de répéter ici que cette évolution de l’économie des publications scientifiques, et plus généralement de la production scientifique est inefficace (les coûts sont sans lien avec le service rendu, pilotés uniquement par les exigences de la rente servie aux actionnaires). Ainsi le coût par page sur l’ensemble des domaines scientifiques est 5 fois plus élevé chez les éditeurs à but lucratif que chez les éditeurs à but non lucratifs ; alors que le coût par point d’audience (pour prendre les indicateurs même de l’édition privée) est 10 fois plus élevé ! (Tuckerman, 2011). Et surtout cette évolution est totalement intenable économiquement. En effet les accords pluriannuels dits du « Big Deal » signés entre les bibliothèques et les Majors de l’édition scientifique prévoient une augmentation des prix non négociable de 5 à 7 % par an (Comité de l’IST, 2008), pour autant que l’on sache car les accords portant sur l’accès aux collections électronique sont confidentiels (une condition imposée par les Majors de l’édition). Ceci conduit à un doublement des budgets d’achat tous les 14 ans. Le budget annuel d’abonnement aux journaux de l’Université d’Harvard en 2011 atteignait ainsi un total annuel de 3.75 Millions de dollars. A l’Institut National de la Recherche Agronomique français (INRA), le budget « ressources électroniques » en 2013 serait de 2,75 Millions d’€ (dont environ 850 K€ pour le seul Elsevier), ce qui représente un budget de fonctionnement équivalent à celui de l’ensemble des recherches en écologie des forêts et milieux naturels (département EFPA, l’un des 13 départements de cet organisme) ! Enfin pour le consortium Couperin, regroupant l’essentiel des bibliothèques universitaires on évoque des chiffres atteignant 70 Millions d’€ annuels (Cabut et Larousserie, 2013), Dans le contexte de crise économique majeure et de progression lente voire de stagnation des budgets de la recherche publique, les conséquences de cette situation de « racket » s’aggravent et deviennent intenables (Harvard University, Faculty Advisory Board, 2012).

On retrouve ici une caractéristique générale de l’économie de marché : la marchandisation d’un service public s’avère l’opération la plus rentable pour les actionnaires (Maris, 2006). Peu d’investissement, une économie de racket et de bulle artificielle: quand le secteur sera exsangue, les actionnaires iront ailleurs et on laissera à l’État et aux organisations à but non lucratif24, le soin de remonter la science (s’ils le peuvent et le veulent). Et peu importe la perte de bien public pour l’humanité !

Par ailleurs, en science comme ailleurs, le renforcement de la compétition entre les acteurs de la science présente des limites. La science n’a pas eu besoin d’une compétition basée sur l’Audimat pour atteindre des sommets. Notre curiosité, notre volonté très humaine d’améliorer les conditions de notre vie et celles de nos semblables, pimentées par l’émulation de la découverte suffisent largement. La transformation d’une part des chercheurs en gestionnaires de leur portefeuille de publications, avec tous les effets de mode associés qu’illustre le fait de vouloir avoir son papier dans « Nature » renforce encore les tendances non innovantes de la science (Khun, 1958 ;Monvoisin, 2012).

Enfin, la possibilité de contrôle extérieur de la science via les techniques de management à l’Audimat, remet en cause la tendance majeure de la science vers l’autonomie et l’indépendance vis à vis des groupes d’intérêts économiques, et pose de très sérieux problèmes d’éthique (COMETS, 2011).

Ainsi comme on le voit, cette main basse sur la science n’est pas liée uniquement à une quelconque « naïveté » des chercheurs. Elle a été réalisée avec la complicité active et sous la pression des gouvernements néo-libéraux (au sens large), et des think-tanks associés, tout particulièrement en Europe et aux USA (Bruno, 2009)25. Ils y ont vu en effet sur le plan idéologique un des éléments du démantèlement de l’État et des services publics et un mode d’optimisation de la Science selon le dogme du Marché-Grand-Optimisateur, pour ne rien dire des aspects plus prosaïques du lobbying privé des grands groupes de presse ; et aussi, comme nous l’avons vu, la porte ouverte sur un mode efficace (de leur point de vue) de contrôle managérial sur un secteur désormais identifié comme crucial dans des économies néolibérales de la connaissance (Gooden et al, 2002 ; Bruno, 2009). Et cette marchandisation du savoir a impliqué des investissements importants dans la réorganisation de l’édition scientifique et le transfert des techniques issues de la haute finance, sous le pilotage de « seigneurs » du capital financier. Et on n’est pas au bout des innovations dans ce domaine !

Un nouvel avatar : faites bientôt votre Mercato online grâce au Facebook des scientifiques, qu’ils construisent eux même gratuitement !

Une nouvelle innovation a été récemment introduite par Thomson Reuter, qui devrait permettre d’aller encore plus loin dans le contrôle et la modification profonde du fonctionnement de la science. Il s’agit de MyResearcherID26. Au départ, il y a probablement la recherche de solution à un problème technique. En effet la base de données des journaux scientifiques avait été initialement conçue pour la seule cotation des journaux, pas pour celle des chercheurs ni celle des institutions de recherche. En conséquence si les journaux et les articles étaient identifiés de manière non ambigüe (chacun avait un numéro identifiant unique, à l’instar de notre n° de sécurité sociale), ce n’était pas le cas des auteurs et de leurs institutions, qui étaient identifiés uniquement par leur nom, dans un format libre. Ainsi les publications et les points d’audimat attribués à Mr/Ms Smith, Schmidt, Martin ou Zhang peuvent être le fait de très nombreux homonymes différents27. Inversement, d’une publication à l’autre le nom des instituts pouvait changer, parfois CNRS, parfois Centre National de le Recherche Scientifique, parfois avec une virgule, parfois pas…. Et donc on n’arrivait pas à affecter les parts d’Audimats effectives aux différentes entités. Pour les établissements de recherche et les universités, la solution a été imposée par les gouvernements néo-libéraux : à ces établissements de standardiser leur dénomination et de l’imposer à leurs employés, sinon leur part d’Audimat tronquée serait prise en compte lors de leur notation par les Agences, à leur détriment28. Mais au niveau des individus, ce n’était pas possible car même normalisé, Mr Martin restait Mr Martin. Il aurait fallu refondre tout le système et donner à chaque utilisateur un identifiant à l’instar de ce qui se pratique en informatique (login, mot de passe). Entreprise colossale et coûteuse, qui aurait sérieusement grevé les dividendes des actionnaires. Et c’est là qu’intervient l’astuce. On a proposé aux chercheurs de créer leur page web sur le système de Thomson Reuter et ce gratuitement (au début tout du moins). Ainsi ils peuvent bénéficier de la visibilité du système Thomson Reuter. Et dans un souci de « service au consommateur », on leur propose même tous les outils nécessaires pour aller chercher leurs publications et les affecter à leur page MyResearcherID. Mais en créant leur page, ils se voient attribuer un identifiant unique, et ils effectuent ainsi, une fois de plus gratuitement, le lourd travail qui consistent à trier parmi tous les homonymes, les publications qui correspondent à l’individu désormais identifié. Bénéfice considérable pour Thomson Reuter !! Mais surtout un pas de plus dans le management de la Science par les Marchés. Se crée ainsi au niveau mondial et de façon standardisée un équivalent des tableaux palmarès des employés de chez Mc Donald’s, Wall Mart ou Carrefour  (en pire car jamais McDo ou Carrefour n’aurait laissé une entreprise extérieure et sans contrat avec eux prendre la main sur les critères de leur palmarès, comme c’est le cas pour les institutions de recherche avec Thomson Reuter). Mais en donnant l’impression aux personnes qu’elles font librement le choix de réaliser leur page MyResearcherID, en les associant à sa réalisation et en leur donnant l’impression d’affirmer leur identité individuelle de chercheur (leur offrant pour cela l’équivalent moderne du miroir magique de la Reine de Blanche Neige) on les implique plus fortement en réduisant leur capacités critiques ; c’est une forme connue de marketing/manipulation (Joule et Beauvois, 2002).

Comme pour FaceBook, la réussite d’un tel système tient au fait qu’un nombre substantiel de personnes s’impliquent rapidement. Il faut en effet que cela crée une norme sociale, que les récalcitrants ou simplement les négligents se voient obligés d’entrer dans le système sous peine d’exclusion sociale avant que la prise de conscience des enjeux cachés du système et sa contestation éventuelle ne prenne de l’ampleur. Pour MyResearcherID la partie est encore ouverte car les institutions renâclent un peu à jouer le jeu, sentant que le cœur du management des personnes pourrait alors leur échapper et que le service pourrait de plus devenir payant. Gageons que les lobbys s’activent en coulisse pour que les gouvernements imposent MyResearcherID comme ils ont imposé l’Impact Factor. Mais au niveau des acteurs même de la recherche, les temps changent.

Des formes de résistances … et une vraie lutte qui s’engage!

En effet une prise de conscience a eu lieu et des formes de résistance s’organisent. Le monde des Bibliothèques des universités et des grands organismes a été le premier à tirer la sonnette d’alarme, publiant des analyses détaillées (ex : Chartron, 2009, Bolgus Operandi, 2009 a,b, Vajou et al., 2010) et commençant même un mouvement de désabonnement. Elles ont vu en effet l’étau des maisons d’éditions Majors se resserrer sur elles et elles ont gouté à l’agressivité de leurs pratiques commerciales lors des négociations dites du « BigDeal » (COMETS, 20111), que certains comparaient à celle de la grande distribution (à juste titre, c’est, nous l’avons vu, la même logique et les mêmes filières de formation pour les cadres). Les chercheurs en informatique, qui avaient été aux premières loges de la lutte sur le logiciel libre, leur ont emboité le pas, bientôt rejoints par les mathématiciens et les physiciens, qui avaient organisé dès les années 90 une alternative efficace sous forme d’archives ouvertes (ou « green open-access », où les chercheurs déposent leurs publications, et viennent chercher celles de leurs collègues via des moteurs de recherche, comme par exemple la fameuse ArXiV). Les journalistes scientifiques, sensibilisés par leur propre expérience des grands groupes de presse et par leur attachement à la science, se sont aussi emparé de l’affaire et l’ont analysée. Et de plus en plus de chercheurs et de conseils, comités, commissions et syndicats se saisissent de ce problème (ex l’ Académie des Sciences29, le Comité d’éthique du CNRS –COMETS 2011- ou le travail de la Commission Recherche de la CGT-INRA sur ce thème30). L’ampleur de cette dénonciation et sa visibilité internationale a augmenté d’un cran avec le mémorandum officiel envoyé par le Faculty Advisory Council de l’Université d’Harvard à tout son corps professoral, affirmant le caractère insoutenable de la situation actuelle (Harvard Univ Faculty Adv. Board 2012, voir aussi l’article de Anne Benjamin du Monde et Jean Perès d’Acrimed).

Le niveau le plus bas de cette résistance est le boycott par les chercheurs des revues des Majors de l’édition. A niveau équivalent, on a souvent la possibilité de préférer une revue restée dans le giron de presses universitaires ou de grands organismes (ex Science plutôt que Nature, PloS31, Plant Physiology ou J Exp Botany plutôt que New Phytologist ou Plant Cell and Environment). Sur ce plan les plateformes des grands éditeurs sont très pratiques pour avoir la liste des revues à éviter pour publier, agir comme référé ou comme éditeur associé (voire pour citer, mais dans ce cas on peut pénaliser l’avancée de la science ..). Mais malheureusement on voit de plus en plus les pratiques de maisons d’éditions universitaires s’aligner sur celles des Majors. De plus, hors d’un mouvement collectif puissant, ce mode d’action est limité, surtout que le mode de management au « publish or perish » (publier ou périr) assure une pression très forte sur les individus. En outre, des communautés entières ont vu leur journaux passer sous contrôle des Majors à leur corps défendant, ou sans réaliser l’enjeu, et il devient très difficile pour des chercheurs de boycotter des journaux qui ont de fait une réelle utilité et qualité scientifique. Un mouvement de boycott est cependant peut être en train de naitre : on assiste en effet ces derniers temps à des appels au boycott. Ainsi deux pétitions sur ce thème circulent en ce moment à l’initiative de mathématiciens, et portées par des médailles Fields32 (Vey, 2012). Cette floraison d’analyses critiques et de prises de positions a même amené certains à s’interroger sur le début d’un « printemps académique » (Agence Science Presse 2013).

CorteX_Publish_or_PerishUn niveau plus avancé de résistance est que la communauté scientifique se réapproprie ses moyens de publication. Cela semble techniquement possible, et les réussites les plus prometteuses se situent dans le domaine de l’accès libre (Open Access) 33, avec en particulier la réussite remarquable des journaux PLoS (Public Library of Science) par la bibliothèque nationale des USA et, dans une moindre mesure, de BMC34 pratiquant la licence Creative Commons35 . Encore plus loin du modèle des revues, on trouve le mouvement mondial des archives ouvertes qui a débuté dès 1991 dans le domaine de la physique avec ArΧiv, initiée par Paul Ginsparg, et qui est lui aussi en fort développement dans certaines disciplines. En Europe l’Université de Liège en Belgique a fait office de pionnier avec l’archive ORBI ouverte en 2008, et en France l’équivalent est en place avec HAL (hal.archives-ouvertes.fr). Et un mouvement relancé par l’Initiative dite de Budapest en 2002 autour de l’idée «  ce que la recherche publique a financé et produit doit être accessible gratuitement » prend de l’ampleur ( Cabut et Larousserie, 2013). Un appel et une pétition dans ce sens viennent ainsi d’être lancés en mars 2013 par un collectif de chercheurs et de bibliothécaires36.

Tout ceci inquiète dans les cercles financiers et « The Economist » semble penser que la poule aux œufs d’or a peut-être vécu, ou du moins qu’il sera moins facile à l’avenir de voler les œufs (The Economist, 2010). C’est pourquoi, à l’instar de ce qui se passe dans le domaine de l’édition musicale, les Majors contre-attaquent. On observe ainsi actuellement une forte bataille autour de tentatives législatives visant à déstabiliser la dynamique de l’Open Access et reprendre toute la mise. La dernière de ces tentatives a commencé en décembre 2011 sous la forme du Research Works Act 37, un projet de loi introduit par la Chambre des représentants des Etats-Unis par des élus républicains et démocrates, sous lobbying de l’Association of American Publishers (AAP) et la Copyright Alliance, et autour duquel la bataille a fait rage. La deuxième plus récente a été le procès intenté à Aaron Swartz aux USA (Le Strat et al., 2013, Cassili 2013, Alberganti, 2013,Tellier, 2013). Cet informaticien brillant travaillant à Harvard, et qui avait participé à l’élaboration des flux RSS ou de licence Creative Commons, puis à la lutte sur les projets de lois Sopa et Pipa (les équivalents Etats-Uniens d’Hadopi), avait en 2011 craqué le site d’archivage d’articles scientifiques JSTOR rendant l’accès aux publications (et au savoir qu’elles contiennent) libre et gratuit. Pour ces faits, le procureur des États-Unis Carmen M. Ortiz l’a fait arrêter et l’a accusé de forfaiture, lui faisant encourir une peine pouvant atteindre 35 ans de prison et 1 million de dollars d’amende. Devant cette perspective, Aaron Swartz s’est suicidé, à l’âge de 26 ans38.

Mais plusieurs revers ont aussi été subis par l’oligopole des Majors. Le cas tragique d’Aaron Swartz, et son positionnement au confluent de la culture du net libre et de l’accès libre à la connaissance scientifique a relancé le débat autour de l’économie de la publication scientifique (Alberganti, 2013) et l’a surtout popularisée bien au-delà des cercles académiques (en France, des grands journaux ont couvert l’affaire –ex Le Strat C., S. Guillemarre et O. Michel 2013, Cassili 2013, Alberganti, 2013- et le magazine Télérama a fait ainsi sa couverture sur l’évenement – Tellier, 2013). Sous la pression de ce mouvement d’opinion (très fort aux USA), le Massachuchetts Institute of Technology (MIT) a annoncé une enquête sur cette affaire qu’il a confiée à Hal Abelson, personnalité reconnue du logiciel libre.

Plus largement, sous la pression du monde de la recherche, Elsevier a déclaré le 27 février 2012 qu’il renonçait à son soutien du Research Works Act. Le 17 avril 2012, le mémorandum du conseil consultatif de l’université d’Harvard (dont nous avons déjà parlé) encourage ses 2100 professeurs et chercheurs, à mettre à disposition, librement et en ligne leurs recherches (Harvard Univ Faculty Adv. Board 2012, voir aussi l’article de Anne Benjamin du Monde et Jean Perès d’Acrimed). Par ailleurs, confrontés à la pression venant des milieux académiques et citoyens, aux coûts croissants des budgets des abonnements, mais surtout probablement à un lobbying des entreprises fondant leurs innovations sur les résultats de la recherche et ayant envie d’avoir un accès plus rapide et moins couteux à l’information, les gouvernements de grands pays de recherche sont en train de changer de position. En Grande Bretagne, le 3 mai 2012, le très conservateur et ultralibéral gouvernement anglais a dû aussi faire machine arrière), proposant la création dans les deux ans, d’« une plateforme en ligne permettant à chacun de consulter gratuitement et sans condition toutes les publications subventionnées par l’État britannique ». La réalisation de ce projet serait confiée à Jimmy Wales, un des deux fondateurs de Wikipédia (Jean Perès, 2012). Enfin la Commission Européenne en juillet 201239, et l’administration Obama en février 201340 viennent toutes deux de publier des recommandations allant dans le même sens, tout en recommandant la recherche d’un « équilibre » entre les intérêts de l’innovation et de l’édition (la détermination de cet équilibre étant donc dépendante des rapports de force qui s’établiront autour de cette question). Par ailleurs des juristes proposent que les droits d’auteurs d’une publication liée à un travail réalisé sur fonds publics soient inaccessibles à un éditeur (Le Strat Guillemarre et Michel, 2013). Enfin, au-delà même de la question de l’accès aux publications et du copyright, un large débat de fond continue à monter sur le statut de la connaissance scientifique, celui des chercheurs (en lien avec leur indépendance), insistant sur le caractère délétère du management néolibéral à l’audimat (Couée, 2013).,Il est nécessaire de reconnaitre l’autonomie, l’ universalité et le tempo propre de la recherche (voir par exemple récemment l’appel et pétition « Slow Science »41, mais aussi les travaux de Pierre Bourdieu (1997), Isabelle Bruno (2008) et Vincent de Gaulejac (2012) ainsi que les dénonciations répétées des effets de la politique du chiffre de publications et des « Primes d’Excellences » qui lui sont associées par les syndicats et associations de chercheurs).

Il reste du chemin à parcourir pour construire un système public ou coopératif de publication capable de permettre la diffusion des publications scientifiques au niveau mondial. Il est clair que ce mouvement n’aboutira pas sans une réflexion collective de fond sur la place de la publication : sens du nom du chercheur et du collectif, rôle d’un service public de recherche…. Il est grand temps que la prise de conscience s’effectue et que chacun s’y mette. Vous pouvez déjà y participer en vous intéressant à ces questions, en essayant d’initier des réflexions sur ces thèmes dans vos laboratoires, et de faire aussi pression sur vos institutions et sur le gouvernement pour qu’elles reprennent la main sur les publications qu’elles coéditent avec les Majors et acceptent l’Open Access, et qu’elle revoient leur méthode de management.

 On a pris l’ivoire de la Tour ! Des chercheurs dans la rue ?

Cette évolution majeure de l’économie de la science met ainsi les chercheurs, les techniciens et les services d’appui de la recherche au contact direct du capitalisme le plus dur, souvent à leur insu (car peu d’entre eux prennent le temps d’aller visiter les sites web des Majors de l’édition). Mais cette confrontation directe du monde de la recherche avec le rouleau compresseur du capitalisme le plus sauvage fait naître une prise de conscience les faisant sortir de fait de leur tour d’ivoire (Monvoisin, 2012). Face à des budgets réels en baisse du fait du racket des ressources42 et aux absurdités de la gestion de la Recherche par l’Audimat et au seul profit des bénéfices des Majors de l’Edition, les analyses de la situation se multiplient. Les similitudes avec la situation d’autres secteurs qui ont perdu depuis plus longtemps leur protection face à la pression des marchés sont perçues. Nous en avons tracé quelques unes ici : journalistes soumis à l’Audimat et au pouvoir de grands groupes de Presse et de l’orthodoxie néo-libérale, les artistes et le grand public autour des questions de copyright et d’Hadopi, de bien public et des protection des créateurs (le copyright ayant été là aussi dévoyé de son but initial de protection de la création pour être mis au service des gestionnaires de droits).

Les chercheurs ainsi mis à la rue (aux deux sens du terme), on pourrait voire se développer des solidarités revendicatives nouvelles, par exemple avec les journalistes et avec la communauté du logiciel libre. Et plus largement, les chercheurs se trouvent mis à la même enseigne que l’ensemble des personnes soumises au management brutal de la néo-taylorisation des entreprises de services (rejoignant l’expérience plus ancienne des travailleurs de l’industrie). Malgré une connaissance générale de l’histoire des organisations et de la résistance à l’aliénation du travail encore globalement faible dans le monde de la Recherche Scientifique (à l’exception notable des sciences humaines, si visées par les gouvernements néo-libéraux), on peut espérer que cette situation sera salutaire, et permettra à un grand nombre de chercheurs de mettre leur capacité d’analyse et de création au service du mouvement naissant de réappropriation de l’autonomie de la science et de son indépendance vis-à-vis des intérêts privés financiers, et plus largement des biens publics de la connaissance publiques, indûment privatisés. Ce mouvement est en marche, et c’est le moment de l’amplifier.

Le 6 avril 2013 43.

Rédacteurs : Bruno Moulia, Directeur de Recherches Inra (1),

Yves Chilliard, Directeur de Recherches Inra (1) (2),

Yoel Forterre, Directeur de Recherches Cnrs,

Hervé Cochard, Directeur de Recherches, Inra,

Meriem Fournier, ICPEF, Enseignante-Chercheuse AgroParisTech,

Sébastien Fontaine, Chargé de Recherches Inra (1) (2),

Christine Girousse, Ingénieur de Recherches Inra,

Eric Badel, Chargé de Recherches Inra,

Olivier Pouliquen, Directeur de Recherches Cnrs,

Jean Louis Durand, Chargé de Recherches Inra (1) (2).

(1) Membre de la Commission Recherche de la Cgt-Inra, (2) Membre de la Commission Exécutive de la Cgt-Inra

Références  

  1. Agence Science Presse 2013: Le printemps académique http://www.sciencepresse.qc.ca/actualite/2012/07/03/printemps-academique
  1. Alberganti, M, 2013. Economie de la publication scientifique et libre accès: un débat relancé par la mort d’Aaron Swartz. Slate.fr 21/01/2013. http://www.slate.fr/story/67263/suicide-aaron-swartz-economie-publication-scientifique-libre-acces
  1. Barot S, Blouin M, Fontaine S, Jouquet P, Lata J-C, et al (2007) A Tale of Four Stories: Soil Ecology, Theory, Evolution and the Publication System. PLoS ONE 2(11): e1248. doi:10.1371/journal.pone.0001248

  1. Bauerlein M., Gad-el-Hak M., Grody W., McKelvey W. and Stanley W.2010 We Must Stop the Avalanche of Low-Quality Research. The Chronicle of Higher Education : June 13, 2010 http://chronicle.com/article/We-Must-Stop-the-Avalanche-of/65890/
  1. Baumard P, 2012. Formes de connaissance et compétition. In Harbulot Christian (ed). Manuel d’Intelligence Economique. PUF. 177-188.
  1. Benjamin A, 2012 Harvard rejoint les universitaires pour un boycott des éditeurs Le Monde.fr | 25.04.2012 http://www.lemonde.fr/sciences/article/2012/04/25/harvard-rejoint-les-universitaires-pour-un-boycott-des-editeurs_1691125_1650684.html
  1. Casilli A, 2013 Aaron Swartz, le suicidé de l’édition scientifique commerciale , Le Huffington Post, 13/01/2013 http://www.huffingtonpost.fr/antonio-casilli/aaron-swartz-le-suicide-de-ledition-scientifique-commerciale_b_2466175.html
  1. Couée I, 2013. The economics of creative research EMBO reports 14 :3 222-225 doi :10.1038/embor.2013.11
  1. Havard University , Faculty Advisory Council, 2012 : Faculty Advisory Council Memorandum on Journal Pricing to Faculty Members in all Schools, Faculties, and Units :Major Periodical Subscriptions Cannot Be Sustained, April 17, 2012 http://isites.harvard.edu/icb/icb.do?keyword=k77982&tabgroupid=icb.tabgroup143448
  1. Pérès J, 2012 : La révolte contre l’oligopole de l’édition scientifique s’intensifie, ACRIMED, 14 mai 2012 http://www.acrimed.org/article3822.html
  1. Blogus Operandi , 2009 : Le marché de l’édition scientifique est-il compétitif ? Blogus Operandi, le blog des Archives & Bibliothèques de l’Université Libre de Bruxelle 19 Aout 2009 http://blogusoperandi.blogspot.com/2009/08/le-marche-de-ledition-scientifique-est.html
  1. Blogus Operandi , 2009 : Crise de la publication scientifique : rappel des faits ! Blogus Operandi, le blog des Archives & Bibliothèques de l’Université Libre de Bruxelle 12 Aout 2009 http://blogusoperandi.blogspot.com/2009/08/crise-de-la-publication-scientifique.html
  1. Bourdieu P 1997. Les usages sociaux de la science : pour une sociologie clinique du champ scientifique. Sciences en Question INRA Editions (Quae) 79 p ISBN 2-7380-0793-7
  1. Bruno I 2008. « à vos marques®, prêts… cherchez ! » Editions du Croquant 263 p ISBN 978-2-9149-6837-9
  1. Cabut S, D Larousserie 2013. « Savoirs : Un bien public convoité » (à qui appartient le savoir ?) – Cahier Sciences et Techno Le Monde pp 4-5 n° du 02/03/2013, et édition en ligne http://www.lemonde.fr/sciences/article/2013/02/28/a-qui-appartient-le-savoir_1840797_1650684.html
  1. Chartron G., 2007. “Evolutions de l’édition scientifique, 15 ans après » in « Enjeux et usages des TIC : Mutations des logiques éditoriales »., Colloque EUTIC 2007, Ed. Gutenberg, Athènes, 2008.
  1. Chartron G., 2010. Scénarios prospectifs pour l’édition scientifique, Hermès, vol.57, 2010, CNRS Editions, p.123-129 http://archivesic.ccsd.cnrs.fr/docs/00/55/87/46/PDF/GC-Hermes.pdf
  1. COMETS 2011 Avis du COMETS (Comité d éthique de la science du Cnrs) sur « les relations entre chercheurs et maisons d’édition scientifique » http://www.cnrs.fr/fr/organisme/ethique/comets/docs/avis_Relations-chercheurs-maisons-edition.pdf
  1. Comité IST : Information Scientifique et Technique : Rapport 2008. Ministère de l’Enseignement Supérieur et de la Recherche.
  1. Darcos, M, 2011 Le comité d’éthique du CNRS se prononce pour le libre accès et dresse un portrait édifiant du secteur de l’édition scientifique, 22/12/2011 http://blog.homo-numericus.net/article10981.html
  1. Economiste 1992 Reed-Elsevier : Naissance d’un géant de l’édition. L’économiste N° 47 du 01/10/1992 http://www.leconomiste.com/article/reed-elsevier-naissance-dun-geant-de-ledition#top
  1. de Gaulejac, V, 2012 La recherche malade du management Editions Quae, collection Sciences en questions, Paris , France, 96 pp. http://www.quae.com/fr/r2044-la-recherche-malade-du-management.html
  1. Gooden, P, M Owen, S Simon and L Singlehurst, Scientific Publishing: Knowledge is Power, Morgan Stanley, Equity Research Europe, 30 September 2002
  1. Mc Guigan G. S. and Russel R.D 2008: “The Business of Academic Publishing: A Strategic Analysis of the Academic Journal Publishing Industry and its Impact on the Future of Scholarly Publishing”. Electronic Journal of Academic and Special Librarianship v.9 no.3 http://southernlibrarianship.icaap.org/content/v09n03/mcguigan_g01.html
  1. Joule R.V et J.L. Beauvois 2002. Petit traité de manipulation à l’usage des honnêtes gens. Presses Universitaires de Grenoble ISBN 2 7061 1044 9.
  1. Kuhn, T.S. 1962 : La structure des révolutions scientifiques. Traduction française : éditions Champs Flammarion, (1983) France, (ISBN 2-08-081115-0). 284 pages, pp.37-38.
  1. Larsen P.O., • von Ins M. 2010: The rate of growth in scientific publication and the decline in coverage provided by Science Citation Index. Scientometrics (2010) 84:575–603
  1. Maris, B 2006 « Anti-Manuel d’économie » : Tome 1, les fourmis (2003, ISBN 2-7495-0078-8), Tome 2, les cigales ( 2006, ISBN 2-7495-0629-8) Editions Bréal.
  1. Monbiot, G, 2011. “Academic Publishers makes Murdoch look like a socialist”. The Guardian 29 August 2011 http://www.guardian.co.uk/commentisfree/2011/aug/29/academic-publishers-murdoch-socialist
  1. Monvoisin R 2012 “Recherches publiques, revues privées” Le Monde Diplomatique, n° Décembre 2012 p 27. et édition électronique http://www.monde-diplomatique.fr/2012/12/MONVOISIN/48501
  1. Price, D. J. de S. 1963. Little science. Big Science. New York: Columbia University Press.
  1. Stiglitz J 2011 « Le triomphe de la cupidité » Liméac / Babel Actes Sud 513p ISBN 978-2-7427-9504-8
  1. Le Strat C., S. Guillemarre et O. Michel 2013. « C’est la marchandisation du savoir qui a tué Aaron Swartz » L’Humanité 22-24 février 2013.
  1. Tuckerman, L, 2011 Les nouveaux enjeux de l’édition scientifique. (présentation au comité d’éthique du Cnrs) http://www.pmmh.espci.fr/~laurette/scipub/COMETS.pdf
  1. The Economist , May 2011 “Academic publishing: Of goats and headaches ; One of the best media businesses is also one of the most resented” http://www.economist.com/node/18744177
  1. Vajou M., R. Martinez, S. Chaudiron, 2009 Les Enjeux Économiques de l’Édition Scientifique, Technique et Médicale :Analyses et questions clés « Les Cahiers du numérique 5, 2 : 143-172 »
  1. Vey T. 2012 : Des scientifiques se rebellent contre le monde de l’édition Le Figaro (edition Web) 21/02 2012-02-22 http://www.lefigaro.fr/sciences/2012/02/21/01008-20120221ARTFIG00547-des-scientifiques-se-rebellent-contre-le-monde-de-l-edition.php
  1. Ware M & Mabe M 2009, The STM report: “an overview of scientific and scholarly journals publishing”. Mark Ware Consulting http://www.stm-assoc.org/2009_10_13_MWC_STM_Report.pdf
1 Nous reprenons ici la convention usuelle dans les écrits scientifiques de citer nos sources en donnant le nom des auteurs et l’année de leur publication. Ceci renvoie à la référence détaillée à la fin de cet article, permettant à ceux qui souhaitent pouvoir se référer aux sources de le faire

2 c’est la même évolution technologique qui explique la multiplication des revues de plus en plus ciblées dans les linéaires des supermarchés et la possibilité d’avoir pour presque rien un calendrier avec vos photos pour le Nouvel An.

3 Agronomy for Sustainable Development, (anciennement Agronomie), Annals of Forest Science (anciennement Annales des Sciences Forestières), Apidologie, et Dairy Science and Technology (anciennement Le Lait), sont désormais éditées chez Springer,dans le cadre d’un contrat de délégation de service public, dont le montant avoisinerait 2 millions d’euros, http://ted.europa.eu/udl?uri=TED:NOTICE:359772-2010:TEXT:FR:HTML&src=0. Le contrat contient toutefois le droit pour l’Inra de diffuser librement les pdfs des articles sur les sites institutionnels après 12 mois d’embargo.

4 données du Groupement Français des Industriels de l’Information http://www.gfii.fr/fr

5 Nous ne traduisons volontairement pas « copyright » en « droit d’auteurs » car les traditions juridiques anglo-saxones et françaises sur la question des droits attachés à l’auteur et à l’œuvre sont différents : pour une introduction très claire de ces différences, voir le site de la Société des Auteurs et Compositeurs Dramatiques http://www.sacd.fr/Droit-d-auteur-et-copyright.201.0.html , et http://www.sacd.fr/De-1777-a-nos-jours.32.0.html

6 Pour une autre illustration du « business model » de l’édition scientifique basée cette fois sur le monde des jeux vidéo, voir le blog de Scott Aaronson du MIT http://www.scottaaronson.com/writings/journal.pdf

7 Cette pratique du copyright total commence toutefois à se réduire sous la pression des scientifiques à un copyright avec embargo pendant une durée limitée, mais elle reste majoritaire chez les grands éditeurs (Vajou et al. 2009)

8 On se souvient par exemple du scandale récent des écoutes illégales du tabloïde britannique News of the World, qui a défrayé la chronique l’année dernière et mis en lumière les pratiques du groupe Murdoch.

10 Dans sa formulation originale en Globish, cela donne “The niche nature of the market and the rapid growth in the budgets of academic libraries have combined to make scientific publishing the fastest growing sub-sector of the media industry over the last 15 year” D’après le rapport du Comité sur l’IST du Ministère de la Recherche et de l’enseignement supérieur, ces taux de croissance annuelle était de l’ordre de 8%, avec une croissance à 2 chiffres pour la partie édition électronique.

11 C’est ce qu’on appelait naguère la participation, une forme de stock option du pauvre ; car bien sûr le chercheur ou le technicien de la recherche ne pourra s’acheter qu’une très faible partie de ces actions, et restera un petit porteur vis-à-vis des grandes fortunes qui continueront du coup à s’accaparer l’essentiel du bénéfice (en volume)

12 Le nombre de publications scientifiques est multiplié par 100 tous les 100 ans
14 Même si des alternatives s’organisent, elles pèsent peu à ce jour, et certaines sont le fait d’entreprises tout aussi redoutables : Google par exemple via Google Scholar ou Elsevier via Scopus

15 Nous reprenons ici cette dénomination, qui reprend celle d’un syndicat du CNRS, pour désigner tous les salariés qui travaillent dans les institutions de recherches, et vivent de ce travail.

16 D’autant plus que l’obtention de crédits publics pour les projets de recherche auprès des agences de financement est facilitée par une liste fournie de publications, et que le rémunération même des chercheurs peut en dépendre via l’avancement de la carrière (variables selon les systèmes de gestion et d’avancement des chercheurs) voire de … prime d’excellence scientifique (PES) (attention toutefois à ne pas confondre, cette transformation incitative de la reconnaissance symbolique en espèces sonnantes et trébuchantes ne se fait bien sûr pas sur les deniers des sociétés de l’édition, mais bien sur l’argent public)

17 Ainsi l’organisme mis en place par le gouvernement français pour produire des indicateurs sur la recherche (l Observatoire des Sciences et Technique http://www.obs-ost.fr/) reprend le sigle d’OST généralement attaché à l’Organisation Scientifique du Travail, fondée par F. W. Taylor (1856-1915). Connaissant la culture d’histoire politico-économique de nos Enarques, cette coïncidence ne peut être fortuite, et est sûrement une forme de « private joke ».

18 à ceci prêt que le statut de fonctionnaire les protège en partie, mais ce point est en train d’être contourné par la généralisation –dans ce domaine comme partout – des CDD et autres statuts intérimaires

20 Les récents scandales sur la viande de cheval ont montré à quel degré d’intégration et de spéculation (« trading ») était arrivé la filière de la viande

21 Dans le cas du monde de la science cette rétribution en monnaie symbolique, peu échangeable hors du champ de la science (sauf à le compenser en allant se vendre sur les grands médias télévisés ou sur le Mercato scientifique), évoque aussi un peu l’étape où les ouvriers des usines étaient payés en billets qui n’avaient cours qu’au sein de l’entreprise, et ne permettait des achats que dans les magasins de la même usine. Mais ici encore le modèle économique de la science est plus subtil, puisque l’achat des publications se fait lui en argent courant. .

23 Nous avons choisi volontairement ici des dirigeants « ordinaires ». On pourrait aussi citer des cas qui ont plus décrié la chronique, comme le cas du sulfureux Robert Maxwell, ancien magnat de la presse anglo-saxonne et partenaire de Bouygue dans la privatisation de TF1, qui avait commencé son ascension avec le groupe d’édition scientifique Pergamon Press, pour devenir un symbole des malversations financières et des relations troubles avec des services secrets. http://fr.wikipedia.org/wiki/Robert_Maxwell . Mais le caractère exceptionnel de ces cas affaiblirait le propos, même s’il illustre peut être jusqu’où le système peut dériver.

24 Beaucoup d’université dans les pays anglo-saxons sont des organisations à but non lucratif (non-profit organizations)

25 Les plus grands producteurs d’analyse sur la mesure de la production scientifique et les effets de modes de management sont en effet la Commission Européenne, la National Science Fondation américaine, et l’OCDE

26 http://images.webofknowledge.com/WOK45/help/WOK/h_researcherid.html , voir aussi http://libguides.babson.edu/content.php?pid=17297&sid=117702

27 Situation qui se complique encore pour les chercheuses si éventuellement elles changent de nom lorsqu’elles se marient

28 Tâche qui n’est pas forcément anecdotique quand on sait que le management actuel s’accompagne i) de fréquentes restructurations à tous les niveaux (ex en France la création des instituts au CNRS par le gouvernement Fillon, mais aussi remodelage très rapide du contour des unités de recherches en encore plus des équipes, au rythme de leur notation par les agences ) et ii) de la multiplication des structures englobantes ou de passerelles (ex les Pôles de Recherches et d’Enseignement Supérieurs, Alliances, Agreenium entre l’INRA et le CIRAD …mais aussi les pôles de Compétitivités entre recherche et entreprises privées ….) , l’idée étant de les multiplier pour laisser aux évaluations (et donc comme nous l’avons dit, finalement aux marchés) le soin de faire la sélection et de remodeler ainsi toute l’organisation de le Recherche.

31 Journaux open-access publiés par la Public Library of Science of the United States of America
32 The « cost of knowledge » lance par mathématicien britannique Timothy Gowers, détenteur de la médaille Fields, équivalent du prix Nobel en mathématiques http://thecostofknowledge.com/ signée par près de 7000 chercheurs à ce jour et http://www-fourier.ujf-grenoble.fr/petitions/index.php?petition=3

33 L’Open Access est un modèle économique alternatif, dans lequel les frais de publication sont supportés lors de la publication, l’accès étant ensuite gratuit. Cela résout immédiatement la discrimination par la fortune à la connaissance scientifique. Une question cruciale est bien sûr la juste évaluation au prix coutant des frais d’édition et de dissémination. Ce n’est pas une question simple (mais des exemples de réussite existent), et on a vu en tout cas que les Marchés ne pouvaient pas la résoudre. Par contre les Majors de l’édition ont bien vu le danger et elles ont crée un OpenAcess « marron », incorporant leur taux de bénéfice (majorés de leur perspectives de croissance) dans les frais. Donc attention à distinguer l’Open Access équitable de sa contrefaçon mercantile.

Voir aussi Libre accès, et Cabut et Larousserie (2013).

34 l’éditeur BioMedCentral , qui avait fondé son modèle économique sur le paiement par l’auteur et le libre accès au lecteur via les licences Creative Commons a toutefois été racheté récemment par Springer, ce qui démontre que cette bataille reste indécise.

35 Les licences Creative Commons ont été crées à partir du constat selon lequel les lois actuelles sur le copyright étaient un frein à la diffusion de la culture et traduisent en droit l’idée que la propriété intellectuelle est fondamentalement différente de la propriété physique. http://fr.wikipedia.org/wiki/Licence_Creative_Commons

42 Notons que même si elle est très importante, la dîme des Majors de l’édition n’est pas le seul détournement de l’argent public destiné à la recherche scientifique par la finance ; les différents « crédits impôts recherches » qui font distribuer l’argent public via des entreprises privées, en leur permettant en sus une optimisation fiscale, ou encore les aspects liés aux brevetage du vivant sont aussi à prendre en considération , mais cela demanderait un travail substantiel et nous renvoyons le lecteur à l’abondante littérature sur ces sujets.

43 Ceci est la version revue et corrigée sur quelques points de détails d’un premier texte publié le 20 mars 2013