Dossier étudiant 2016 – Protocole expérimental du Reiki, et un peu d'histoire

Voici un très intéressant travail sur le Reiki réalisé par les étudiant-es de Licence de l’Université Grenoble-Alpes en mai 2016. Les tests se sont déroulés dans les bureaux du CorteX. Toute la rédaction est de leur fait (quand c’était nécessaire, j’ai fait des notes, en italiques, notées NdRM, notes de Richard Monvoisin). A la fin, j’ai indiqué l’extrait de notre ouvrage Tout ce… qui concerne le Reiki.

[Toc]

Très brièvement, qu’appelle-t-on le « Reiki » ?

Le Reiki est une technique de soin visant à soigner des zones pathologiques par « apposition des mains ». Cette dernière vient du Japon.
Elle date du début du 20eme siècle. Le Reiki se définit comme étant une « énergie universelle de vie » qui se transmettrait par les mains dans un but de guérison. Pour en devenir praticien, il suffirait de 6 à 7 jours de formations aux côtés d’un thérapeute « confirmé » (qui maîtrise cette pratique).
Il existe des écoles de Reiki, mais le Reiki ne fait l’objet d’aucunes reconnaissances légales, c’est donc une pratique non conventionnée.  Chacun peut donc se déclarer « maître Reiki ».

Notre dossier ci dessous, a pour simple but de vérifier l’existence de cette « énergie universelle », et ainsi de pouvoir répondre à la question suivante : quelle est la validité scientifique du Reiki ?
Pour ce faire, nous avons choisi de tester scientifiquement cette pratique, à l’aide d’une expérience, dont voici le protocole expérimental.

Protocole expérimental : Reiki

Introduction

Dans le cadre du cours autodéfense intellectuelle de notre professeur Richard MONVOISIN (2016) (NdRM : je ne suis pas Professeur, c’est un titre universitaire bien précis que je n’ai pas), notre équipe s’est intéressée au Reiki, sa pratique mais surtout sa validité scientifique.
Alexandre GAÏD-BONNET, membre de celle-ci en est un praticien, nous allons donc avec celui-ci mettre en place un protocole expérimental visant à tester scientifiquement cette pratique.
Alexandre ressent lors de ses consultations, de la chaleur au niveau de ses mains, qui s’avère être plus ou moins intense en fonction des personnes et des zones perçues. Il ressent une « énergie » chez chacun.
Dans le cadre de sa pratique de soin, ce phénomène présente un « trou », un « creux » lorsque ses mains approchent une zone pathologique.

Élaboration du protocole

Le professionnel dit être capable de ressentir la présence de quelqu’un grâce à son énergie.
Alexandre nous affirme percevoir un signal les yeux fermés à travers les vêtements, lorsqu’il est placé à 40 cm d’un sujet en position debout.
L’équipe convient donc de le laisser choisir la personne qu’il ressent le mieux (sujet C défini plus bas).
L’énergie ressentie ne laisse pas de traces à l’endroit où se trouvait le sujet, une fois celui-ci parti.

Nous posons alors les hypothèses suivantes.
Hypothèse théorique : le professionnel est capable de déceler la présence ou l’absence d’un individu grâce à son énergie uniquement.
Hypothèse opérationnelle : le professionnel est capable de déceler la présence ou l’absence d’un individu face à lui sans aucunes conditions restrictives et derrière un paravent, muni d’un casque antibruit.

Protocole expérimental

Matériel :
– 2 casques antibruit ;
– une toile opaque ;
– du gros scotch ;
– une lampe de chevet ;
– 4 paires de bouchons d’oreilles ;
– un masque de nuit ;
– un dé.

Le nombre de passages est de 100.
Nous prenons un seuil α=0.01. (NdRM : nos jeunes collègues ont mis le calcul plus bas – ici, ils indiquent le risque de première espèce). Le nombre de réussites doit être supérieur à 65 pour être une réussite.                                 

Variable indépendante : présence réelle vs. absence de l’individu
Variable dépendante : détection de la présence du sujet vs. absence

Alexandre est d’accord pour rendre l’expérience accessible au public.

Test en « ‘blanc »

cortex_reiki_2016_test
Le praticien de Reiki faisant le test

Début avril (2016), les membres du groupe se sont réunis chez Sylvain pour se familiariser avec le protocole et le finaliser.
Premièrement Alexandre a testé chacun des membres et choisi celui dont l’énergie est la plus perceptible. Il choisit le sujet C.
S’en est suivi un tirage au sort qui détermina le rôle de chacun dans l’expérience (Alexandre étant indifférent concernant la personne qui sera à ses côtés lors de l’expérience).
Sylvain et Yoann sont quant à eux chargés de la randomisation des passages (présence vs. absence du sujet).

Individu A : le professionnel (Alexandre)
Individu B : indique quand le professionnel peut commencer sa tache et note les indications de celui-ci (absence vs. présence du sujet)

Sylvain et Yoann procèdent à la randomisation des passages à l’aide d’un dé. Ils repartissent sur deux exemplaires une série de 0 (absence du sujet) et de 1 (présence du sujet ). Le tout constituant 20 passages.

L’individu se place en face du sujet qui lui-même se trouve devant le professionnel.
Ce dernier a mis une écharpe autour de ses yeux, des bouchons d’oreilles et un casque de musique.
Sylvain et Yoann donnent un exemplaire de la randomisation à l’individu D puis s’isolent.
Ce dernier indique au sujet quand se placer devant le professionnel. Une fois le sujet en place l’individu D tape un coup sur un mur pour indiquer à l’individu B que le sujet est prêt. L’individu B place le professionnel dans l’axe du sujet, celui-ci lève son pouce s’il sent la présence du sujet et forme un zéro avec son pouce s’il n’en sent pas, puis se retire. Le professionnel dispose d’un temps illimité. L’individu B note les indications du professionnel.

L’individu D prend connaissance du signal émis par le professionnel, lance un chronomètre de 10 s, puis fait signe au sujet de se placer ou non (pouce levé : placement vs. zéro avec la main: ne se place pas).
Après les 10 s, il retape un coup sur le mur.
L’expérience est réitérée 19 fois.
Puis, on vérifie que les comptages des deux parties congruent.

Résultats du test en « blanc »

(NdRM : est appelé ici test en blanc le test de réglage, en quelque sorte la répétition générale).

(Suivi à la lettre de la procédure présente dans le protocole expérimental sur le magnétisme de l’Observatoire zététique, cf. bibliographie)

Le nombre de passages valides est de 19/20 : N=19
Le professionnel avoua avoir effleuré les cheveux du sujet lors d’un passage.
Nous calculons alors le nombre d’essais minimum réussis  pour pouvoir valider l’hypothèse.

La probabilité de succès pour chaque essai est de 0.5. « La fourchette dans laquelle se trouve plus de 99% des essais sont centrées autour de M=Np (nombre de résultats attendus en moyenne) plus ou moins un intervalle I donné par la formule suivante :   I=3√[N*p*(1-p)]  On obtient alors : M=9.5 et I=6.54

La nouvelle fourchette est donc :
M-I<M<M+I soit 2,96<9.5≤16.04

Le résultat doit alors être supérieur ou égal à 16 pour être statistiquement recevable.                           

Lors du dépouillement des résultats, nous avons obtenu :

  • essais valides : 19
  • essais réussis : 11
  • essais échoués : 8

Le résultat du test-blanc n’est pas bon : c’est un échec. (NdRM : on ne peut cependant rien en tirer en soi, puisque c’est un test en blanc, émaillé de détails rédhibitoires).

La personne émettrice et sa randomisatrice
La personne émettrice et sa randomisatrice

Expérience finale

Dans les locaux du CorteX, nous prenons les mêmes dispositions que lors du test blanc, et répartissons les rôles de la même manière. Cependant, nous contrôlons certaines variables supplémentaires.

Variables contrôles :
– on dépose une toile opaque au niveau de l’encadrement de la porte, le sujet et le professionnel et leurs assistants s’y placent de part et d’autre de celle-ci.
– L’individu D et le sujet sont séparés de Sylvain et Yoann qui sont dans la pièce à côté, porte fermée.          
Après la randomisation, ils font passer le tirage par la fente de celle-ci a l’individu D.
– Le professionnel porte un masque de nuit (à la place de l’écharpe)
– Les individus B et D, le sujet et le professionnel portent des bouchons d’oreilles.
– L’individu B et le professionnel portent des casques antibruit par dessus.
– L’individu B indique au sujet et à l’individu D que le professionnel est prêt en levant son pouce par dessus la toile.
– Le signal qui indique que le sujet est en place est ici une lampe de chevet se trouvant dans la pièce dans laquelle sont le professionnel et son associé. Le fil de celle-ci passant sous la toile permettant à l’interrupteur de se trouver du côté de l’individu D et de son sujet.
– Les membres de l’équipe n’ont aucun moyen de communication virtuelle (téléphones, ordinateurs…)

Trois pauses sont faites à 25, 50 ; et 75 passages.
A la pause qui suivit le 50eme tirage, le professionnel et l’individu D sortirent de leur pièce, nous conduisant à une nouvelle randomisation pour les 50 derniers passages.

Résultats du test final

Indication d'un signal non ambigu : une lampe (qu'elle soit "à sel" est contingent, c'est la seule lampe de chevet du bureau)
Indication d’un signal non ambigu : une lampe (qu’elle soit « à sel » est contingent, c’est la seule lampe de chevet du bureau)

(Suivi à la lettre de la procédure présente dans le protocole expérimental sur le magnétisme de l’Observatoire zététique, cf. bibliographie)

Le nombre de passages valides est de 100/100 : N=100
Nous calculons alors le nombre d’essais minimum réussis  pour pouvoir valider l’hypothèse.

La probabilité de succès pour chaque essai est de 0.5.

« La fourchette dans laquelle se trouve plus de 99% des essais sont centrées autour de M=Np (nombre de résultats attendus en moyenne) plus ou moins un intervalle I donné par la formule suivante :   I=3√[N*p*(1-p)] »

On obtient alors : M=50 et I=15

La nouvelle fourchette est donc :
M-I<M<M+I soit : 35<50≤65

Le résultat doit alors être supérieur ou égal à 65 pour être statistiquement recevable.

Après dépouillement nous avons :

  • essais valides : 100 ;
  • essais réussis : 51 ;
  • essais échoués : 49.

Le résultat de l’expérience conclue à un échec.                                           

Conclusion

Au terme de cette expérience, le résultat est décevant.
Nous sommes de tout cœur avec Alexandre pour qui l’expérience se solde d’une double déception : en plus de l’échec de l’expérience il doit faire face au fait que ses soins ne présentent pas plus d’effet qu’un placebo (NdRM : ce point est inexact : les étudiant-es n’ont montré que le fait que le sujet ne pouvait distinguer par Reiki la présence ou l’absence de l’émetteur, pas que ses soins étaient placebo. En outre, contrairement à ce que nous avons bien étudié en cours, l’effet placebo est une notion complexe qu’il vaut mieux subdiviser en différents effets contextuels).  Il fait cependant preuve d’un grand fair-play.
Avant l’expérience il nous affirmait qu’il saurait accepter le résultat quel qu’il soit, et ce fut le cas. Nous admirons tous son attitude.

Limites de l’expérience

  • Il n’a pas été possible pour nous d’expérimenter le Reiki sur des patients faute de moyens et de temps. Nous incitons donc vivement d’autres chercheurs à le faire.
  • Bien que l’expérience ait été effectuée en suivant un rigoureux protocole expérimental, elle n’a été faite qu’une fois. Peut-être avons nous omis certaines variables/détails/biais expérimentaux. Nous incitons donc d’autres chercheurs à la reproduire avec de nouveaux locaux, de nouveaux sujets, professionnels.. et même dans d’autres contextes socioculturels.
  • Nous avons tenté de contacter mercredi 4 mai 2016 un professionnel du domaine, le chercheur et kinésithérapeute Nicolas PINSAULT, afin de prendre connaissance de son point de vue sur cette pratique. Ce dernier, sûrement très pris par son travail, (NdRM : il faut dire que vous l’avez contacté à la dernière minute !) nous a affirmé « avoir trop peu travaillé la question pour nous donner un avis éclairé ». Nous le remercions tout de même d’avoir pris le temps de nous répondre.

Bibliographie (NdRM : assez maigrelette, il faut le dire – mais devant un si joli protocole, on ne leur en tiendra pas rigueur) :

Une partie de l'équipe, avec quelques victuailles
Une partie de l’équipe, avec quelques victuailles

DO Thi-My-Phuong : L1 biologie
SASSE Sylvain : L1 Science de la Vie et de la Terre
BOUAÏCHA Sonia : L2 psychologie
BOUCARD Yoann : L1 biologie
BOUVIER Marie : L1 biologie
GAÏD-BONNET Alexandre : L1 chimie-biologie

Extrait de Pinsault N., Monvoisin R., « Tout ce que vous n’avez jamais voulu savoir sur les thérapies manuelles« , Presses Universitaires de Grenoble,pp. 98-99

Reiki (1922)
[Fondateur] Mikao Usui (Japon) (1865-1926), moine bouddhiste.

L’histoire du fondateur est fortement controversée. Il est dit que, fréquentant un temple bouddhiste Tendaï (tradition du Grand Véhicule) au nord de Kyõto, Mikao Usui étudia d’abord le Kiko, version japonaise du Qi Gong (« exercice de Qi », en mandarin), gymnastique traditionnelle chinoise proposant une méthode de respiration fondée sur la maîtrise du Qi, l’énergie vitale alléguée. Sous l’influence d’un « maître », Watanabe Kioshi Itami, il aurait changé d’école bouddhiste en 1894, passant de Tendaï à Shingon (un des bouddhismes tantriques, la grande différence tenant dans la possibilité d’atteindre l’état du bouddha dans cette vie-ci, et non dans une autre).
On a prêté à Usui des études de psychologie (ce qui est peu probable pour l’époque), de médecine (ce que nous n’avons pu vérifier) et un doctorat en théologie de l’université de Chicago, mais l’unique source, The Reiki handbook (Arnold & Nevius, 1992), est pour le moins douteuse (son coauteur étant Larry E. Arnold, bien connu entre autres pour avoir développé des thèses paranormales fantaisistes sur les auto-combustions humaines « spontanées »).
Après vérification, comme l’indique le site ihReiki.com dans son article Historical Reiki inconsistencies, personne de ce nom n’étudia à ladite université dans cette période. Bref, Usui, en proie à des difficultés financières, aurait décidé d’embrasser la carrière monastique et c’est en 1922 qu’il fit une expérience de mort imminente (« visions » ou « sensations » consécutives à une mort clinique ou à un coma avancé), ainsi qu’un satori (une illumination) pendant une retraite jeûnée sur le Mont Kuruma-yama. Il y « reçut » le Reiki. Il ouvrit alors un, puis deux centres, et créa son enseignement.

Mais cette histoire est douteuse et remaniée plusieurs fois. Des héritiers spirituels, en particulier la maître Reiki Hawayo Takata (1900-1980), créèrent de toutes pièces des détails, comme une prétendue inspiration de Usui par le personnage de Jésus, afin de
mieux exporter la méthode en « Occident ». Pire encore, des faux documents prêtés à Usui lui-même étaient en fait l’œuvre d’un faussaire, par ailleurs faux psychologue et faux enseignant de Reiki, le Lama Yeshé, qui s’avéra être… un faux Lama, Richard Blackwell.
Les fraudes et inventions de Blackwell ont dupé et dupent encore un certain nombre de praticiens Reiki, ce qui lui a valu les foudres d’une grande part de la communauté. Blackwell rebondit et fit une résolution de dissonance cognitive spectaculaire en se déclarant en ‘‘channeling’’ avec Usui lui-même. Puis il affirma être poursuivi par la CIA, avant de disparaître vers la fin des années 2000.

Mode de découverte : une épiphanie.
Scientificité de la découverte : aucune publication scientifique publiée du fondateur.
Principe théorique non étayé : l’imposition des mains apporterait des soins dits « énergétiques ».

Comment évaluer l'esprit critique ? Quelques pistes.

L’esprit critique (EC) 1 est l’objet qui rassemble les membres et contributrices.teurs du Cortecs. Cet été j’ai voulu savoir ce qui se disait sur le sujet dans la littérature scientifique internationale2. Les mots clés « critical thinking » donnant plus de 15 000 résultats rien que dans le moteur de recherche d’ERIC3, j’ai ciblé mes recherches plus spécifiquement sur les moyens d’évaluer l’EC d’un individu ou d’une population. La finalité n’étant pas la classification des personnes en fonction de leur niveau d’EC mais plutôt l’évaluation de nos enseignements qui ont souvent pour volonté de développer l’EC.

[toc]

Tests évaluant l’EC

J’ai d’abord identifié les travaux ayant effectué des synthèses sur les différents outils existants  4. Une revue de 1997 identifiait déjà une trentaine de tests différents 5. J’ai ensuite identifié les tests les plus fréquemment cités et utilisés en lisant ces publications, leurs bibliographies, et les études auxquelles elles renvoient. Ils sont présentés dans le tableau ci-dessous (les tests apparaissent selon l’ordre chronologique selon lequel je les ai trouvés).

La liste des tests est bien loin d’être exhaustive ; je m’en suis tenue à présenter ceux pour lesquels des informations a minima détaillées étaient accessibles. La plupart des tests identifiés sont en langue anglo-américaine (ceux disponibles en langue française sont surlignés en gris clair). Le plus souvent ces tests ne sont pas en libre accès et leur commercialisation apparaît comme une entreprise bien lucrative au vu des tarifs accolés (les tests accessibles gratuitement sont surlignés en gris foncé). Si les tests sont majoritairement destinés à évaluer le niveau d’esprit critique d’étudiant.e.s (particulièrement des étudiant.e.s en santé), ils sont aussi souvent utilisés dans les ressources humaines et plus rarement destinés à évaluer la qualité des enseignements dispensés (par l’intermédiaire du « niveau » en esprit critique des étudiant.e.s). Leur qualité métrologique est rarement évaluée de manière complète. Presque toujours, seule la cohérence interne est évaluée, c’est-à-dire la corrélation entre les réponses des questions portant sur le même sujet du test.

 

Définition

Contenu

Validité et fiabilité

Population visée

Spécificités

California Critical Thinking Disposition Inventory (CCTDI)

Facione & Facione

1986-1990

« We understand critical thinking to be purposeful, self-regulatory judgment which results in interpretation, analysis, evaluation, and inference, as well as explanation of the evidential, conceptual, methodological, criteriological, or contextual considerations upon which that judgment is based. »

(Rapport Delphi)

– QCM (Questionnaire à choix multiples), 75 questions ;

– degré d’accord-désaccord avec différentes affirmations demandées ;

– 7 dispositions étudiées.

Étudiées

Étudiants du secondaire et plus, professionnels

– Commercialisé (environ 7 $ US/étudiant.e) ;

– temps de passation : 30 min max ;

– existe en 19 langues dont le français.

California Critical Thinking Skills Test

Facione

« We understand critical thinking to be purposeful, self-regulatory judgment which results in interpretation, analysis, evaluation, and inference, as well as explanation of the evidential, conceptual, methodological, criteriological, or contextual considerations upon which that judgment is based. »

(Rapport Delphi)

– QCM, 34 questions ;

– 5 dimensions étudiées.

Étudiées

Étudiants du collège (états-unis)

– Commercialisé (environ 7$ US/test) ;

– temps de passation : environ 50 min.

Health Science Reasonning Tests

« We understand critical thinking to be purposeful, self-regulatory judgment which results in interpretation, analysis, evaluation, and inference, as well as explanation of the evidential, conceptual, methodological, criteriological, or contextual considerations upon which that judgment is based. »

(Rapport Delphi)

– QCM, 33 questions ;

– 7 dispositions étudiées.

Étudiées

CCTDI pour les professionnels et étudiants en santé

– Commercialisé ;

– temps de passation : 30 à 50 min.

Halpern Critical Thinking Assessment (HCTA)

Halpern

années 2000

« We understand critical thinking to be purposeful, self-regulatory judgment which results in interpretation, analysis, evaluation, and inference, as well as explanation of the evidential, conceptual, methodological, criteriological, or contextual considerations upon which that judgment is based. »

(Rapport Delphi)

– QCM ;

– 20 scénarios de la vie quotidienne ;

– 5 dimensions étudiées.

Étudiées

Plus de 15 ans.

Secteurs de l’éducation, de la psychologie, des ressources humaines.

– Commercialisé ;

– temps de passation : 60 à 80 min.

Watson Glaser Critical Thinking Appraisal (WGCTA) ou The Gold Standard Critical Thinking Test

Watson et Glaser

1925-1980-2010

« (…) the raw material that underlies fundamental workplace competencies, such as problem solving, decision making, planning, and risk management. »

(http://www.thinkwatson.com)

– QCM, 40 questions ;

– 5 dimensions étudiées.

Étudiées

– Recrutement des managers et cadres ;
– détection de potentiels ;
– gestion des carrières.

– Commercialisé (environ 12$ US / étudiant) ;

– temps de passation : 30 à 50min ;

– existe en 9 langues dont le français.

Holistic Critical Thinking Scoring Rubric

Facione et Facione.

1994

« We understand critical thinking to be purposeful, self-regulatory judgment which results in interpretation, analysis, evaluation, and inference, as well as explanation of the evidential, conceptual, methodological, criteriological, or contextual considerations upon which that judgment is based. »

(Rapport Delphi)

Permet d’évaluer des documents produits par des élèves en leur attribuant un score allant de 1 à 5 en fonction du contenu.

Non étudiées

Élèves et étudiant.e.s

– En accès libre ici ;

– existe en 6 langues mais pas en français.

International Critical Thinking Test (ICTET)

Paul et Elder,

Foundation for Critical Thinking

«  Critical thinking is that mode of thinking – about any subject, content, or problem — in which the thinker improves the quality of his or her thinking by skillfully taking charge of the structures inherent in thinking and imposing intellectual standards upon them. »

(Paul and Elder, 2001)

Questions ouvertes sur un texte.

Étudiées

Étudiant.e.s

Commercialisé : 1000$ US la licence.

Collegiate Assessment of academic Proficiency, module Critical thinking (ACT CAPP Critical thinking)

« (…) measures students’ skills in clarifying, analyzing, evaluating, and extending arguments. »

(http://www.act.org/)

– QCM de 32 questions à partir de 4 textes ;

– 3 dimensions étudiées (score global).

Étudiées

Utilisé par de nombreuses universités états-uniennes pour évaluer l’efficacité de leurs programmes d’éducations généraux.

– Commercialisé ;

– temps de passation : 40 min.

Critical Thinking assessment test (CAT)

années 2000

Tennessee Technological University

?

– QCM et questions ouvertes, 15 questions ;

– 4 dimensions étudiées.

Étudiées

Étudiant.e.s

– Commercialisé (9,95$ US/test, minimum 50 tests + participation annuelle de 200$) ;

– temps de passation : 30/45 min.

Critical Thinking Test

«  (…) measure an individual’s ability to make analyse, conceptualise and reason effectively. »

(http://www.act.org/)

– QCM, 20 questions ;

– porte sur des syllogismes uniquement.

Non étudiées

Étudiants du supérieur

Gratuit, en ligne, avec réponses ici

Cornell Critical Thinking Test Level

2005

Ennis et Millman

Niveau X et niveau Z

« Critical thinking is reasonable reflective thinking that is focused on deciding what to believe or do. »

(Ennis, 1962)

– version X : 76 items de QCM en 4 sections ;

– version Z : 52 items de QCM en 7 scetions.

Étudiées

– Version X : élèves de 9 à 18 ans ;

– version Z : élèves de 12 à 18 ans et adultes.

– Traduit en français dans le cadre du travail de recherche de Boisvert, 2002 ;

– commercialisé : 3$ US par test pour 10 tests, 500 $ pour 1000 tests ;

– temps de passation de 90 min pour la version Z, 50 min pour la version X.

Ennis-Weir Critical Thinking Essay Test

Ennis et Weir

1985

« Critical thinking is reasonable reflective thinking that is focused on deciding what to believe or do. »

(Ennis, 1962)

Lecture d’une lettre argumentée (concernant la nécessité de restreindre le stationnement automobile). Évaluation des arguments y figurant (9, un par paragraphe). L’évauluation de chaque argument est notée (-1 à 3).

Évaluées

Étudiants (high school et college)

Pour l’enseignement et la recherche.

–  Traduit en français dans le cadre du travail de recherche de Boisvert, 2002 ;

– temps de passation : 40 min.

Évaluation de l’apprentissage au niveau collégial

(CLA et CLA+)

Council for Aid to Education

2002-2012

« Poser des questions pertinentes, déceler les problèmes et les définir, trouver des arguments de part et d’autre dans un débat, chercher des données pertinentes et s’en servir, puis arriver à la conclusion après un jugement soigneusement raisonné. »

(Bok, 2006)

– 6 dimensions étudiées ;

– à partir d’une sélection de documents divers (articles, vidéos, sites web, etc.), répondre à des questions ouvertes et fermées.

Étudiées

Étudiants universitaire de première à quatrième année.

– 35 $ US / étudiant.e. (minimum 100 tests) ;

– potentiellement le test choisi au niveau national aux États-Unis ;

– ressources ici et exemple ;

– temps de passation : 90 min puis 30 min.

Illinois Critical Thinking Essay Tests

Finken et Ennis

1993

« Critical thinking is reasonable reflective thinking that is focused on deciding what to believe or do. »

(Ennis, 1962)

Lire un court texte présentant deux positions sur le visionnage libre ou non par des jeunes de clips vidéos et rédiger un texte argumenté.

Non étudiées

Étudiants

En libre accès ici

General Analytical Aptitude Test (GAAT) – Critical Thinking

« L’habilité de communiquer effectivement, la facilité à résoudre des problèmes, analyser des arguments et prendre des décisions objectives. »

(http://www.centraltest.fr)

– 30 questions ;

– évaluation des arguments, analyse critique, raisonnement déductif et raisonnement inductif.

Non étudiées

– Ressources humaines ;

– cadres, managers, jeunes diplômés, étudiants des grandes écoles.

– Commercialisé ;

– existe en français ;

– temps de passation : 4 0min.

Réflexions sur l’évaluation de l’EC

Étant donné la diversité des tests existants, j’ai ensuite cherché, par des recherches moins formalisées, des écrits plus généraux sur l’évaluation de l’esprit critique. J’ai identifié un auteur contemporain, Kevin Possin, professeur de philosophie et d’esprit critique aux États-Unis, qui écrit régulièrement sur le sujet, en analysant notamment de manière critique les tests existants. Robert Ennis, auteur et co-auteur de nombreux tests d’EC dont certains sont en accès libre, a également écrit sur le sujet. En langue française, on peut se tourner vers certains textes de Jacques Boisvert, dont nous avons déjà cité les travaux ici ainsi que de Mathieu Gagnon, professeur en en sciences de l’éducation au Québec.

Aux États-Unis, une commission gouvernementale chargée d’évaluer une stratégie pour réformer le système d’éducation du post-secondaire (l’équivalent de l’après-bac par chez nous) a recommandé de généraliser l’utilisation par les universités de tests d’esprit critique, à condition qu’ils soient transparents et comparables d’une université à l’autre. Certain.e.s pensent qu’il serait possible de choisir ou créer un test unique permettant d’évaluer l’EC au niveau national tandis que d’autres arguent du fait qu’il est plus judicieux d’avoir des outils spécifiques selon l’enseignement dispensé, la compétence visée et la discipline concernée 6.

Concernant la forme des outils d’évaluation, Possin 7 et Gagnon 8 en énumèrent un certain nombre en les commentant de manière critique. On peut citer principalement les questionnaires à choix multiples, les sondages auprès des élèves ou étudiant.e.s du type « avez-vous appris quelque-chose », la réalisation de travaux aux format écrit ou audio-visuel, le commentaire d’essais argumentés, les entretiens, etc.

Qu’en retenir pour les enseignant.e.s d’EC

Pour concevoir un cours, et éventuellement l’évaluer, on pourra :

  • réfléchir aux compétences précises visées : apporter des connaissances ? Apprendre à repérer des sophismes, un argumentaire fallacieux ? Améliorer les capacités argumentatives ? Monter un protocole expérimental ? Rechercher des informations fiables ? Évaluer la qualité des sources d’information ? etc.
  • réfléchir au(x) domaine(s) d’application de ces compétences pour le public qui nous intéresse : la biologie ? Les sciences politiques ? La santé ? La vie quotidienne ? Les médias ?
  • s’inspirer des tests déjà existants (voir tableau précédent) ainsi que des exercices et examens finaux disponibles sur notre site à cette adresse ;
  • imaginer d’autres formes d’évaluation en s’appuyant sur les tests indiquant le degré d’adhésion aux phénomènes dits paranormaux ou envers d’autres croyances (efficacité spécifique des médecines alternatives, scénarios conspirationnistes etc.).
cortex_ape_skull

Quand la pensée critique rencontre la psychologie sociale – mémoire de Romain Veillé

Romain Veillé, étudiant à l’Université de Caen, s’est intéressé dans son mémoire de Master 1 de psychologie sociale à la façon dont varie la persuasion d’individus en fonction des types d’arguments auxquels ils sont exposés. Il a pour cela évalué l’attitude d’une centaine de lycéen.ne.s vis-à-vis des organismes génétiquement modifiés (OGM) avant et après les avoir soumis à différentes interventions, comprenant la lecture et l’analyse de textes remplis d’arguments fallacieux. En plus de réaliser une intéressante synthèse des études expérimentales antérieures, il présente le matériel pédagogique utilisé auprès des élèves, qui peut être ré-utilisé. Pour en savoir plus, on lira le mémoire de Romain, qu’il met à disposition ici. Bonne lecture !

Audio – la fasciathérapie "méthode Danis Bois", par Nelly Darbois

Il y a quelques années, nous avions mis en ligne le mémoire « La fasciathérapie « Méthode Danis Bois » : niveau de preuve d’une pratique de soin non conventionnelle » de notre collègue Nelly Darbois. Cela avait provoqué de rocambolesques remouds, narrés dans L’insubmersible canard de bain* : la fasciathérapie « méthode Danis Bois ». Pour le ballado Scepticisme scientifique, Nelly revient sur cette affaire, en expliquant à son hôte Jérémy Royaux la genèse et l’évolution de ce dossier. Bonne écoute !

Télécharger ici

Rapport CORTECS CNOMK : l'ostéopathie crânienne à l'épreuve des faits

En 2014, nous avions réalisé un rapport à la demande du Conseil national de l’ordre des kinésithérapeutes (CNOMK) portant sur le niveau scientifique de la biokinergie. Nous avons par la suite de nouveau été sollicités par le CNOMK afin d’évaluer le niveau scientifique de l’ostéopathie. Devant l’ampleur de la tâche, et  de par les ramifications souvent mal définies de cette pratique, nous nous sommes penché.e.s dans un premier temps sur l’évaluation de l’ostéopathie dite « crânienne » : Rapport CORTECS – Ostéopathie crânienne. Voici un résumé de ce  document de 286 pages pour lequel nous nous sommes efforcé.e.s de décrire le plus précisément et rigoureusement possible les méthodologies de recherche et d’analyse déployées. Pour plus de détails techniques, se rapporter directement au rapport. Des remarques, des questions ? Nous vous invitons à lire la partie QFP à la fin de cet article. 

[toc]

Résumé

Dans les années qui suivirent l’ouverture des premières formations en ostéopathie par Andrew Taylor Still en 1892, certains praticiens élaborèrent à leur tour des enseignements et furent à l’origine de nouveaux concepts et courants ostéopathiques, dont on retrouve trace dans le paysage ostéopathique actuel, notamment dans les contenus des programmes de formation en France et dans le monde. L’ostéopathie crânienne est le nom d’un de ces courants, donné par son fondateur, William Garner Sutherland (1873-1954). C’est dans les années 1920 qu’il commença à élaborer les concepts et techniques crâniens à partir de l’observation minutieuse des os du crâne et de la face de son squelette Mike, de l’œuvre d’Andrew Taylor Still, et notamment l’importance que celui-ci accordait au rôle du liquide céphalo-rachidien (LCR) ; mais le choc vint de la contemplation d’un crâne de la collection de Still et de l’analogie qu’il fît entre la forme de l’os sphénoïde et celle des ouïes de poissons, « indiquant une mobilité pour un mécanisme respiratoire ».

William Garner Sutherland (1873-1954), fondateur de l'ostéopathie crânienne (Source : Wikipedia, image libre de droit)
William Garner Sutherland (1873-1954), fondateur de l’ostéopathie crânienne. ( Source : Wikipédia )

De là naquît le concept central de l’ostéopathie crânienne, repris par tous les principaux continuateurs de Sutherland (Viola Frymann, Harold Magoun, John Upledger etc.) : le mouvement respiratoire primaire. Actuellement, deux grandes approches conceptuelles des pratiques crâniennes se distinguent, tant à l’échelle française qu’internationale et s’inscrivent dans la continuité des enseignements de Sutherland :

– une approche que l’on pourrait qualifier de « biomécanique » et qui tend à valider scientifiquement ses concepts ;

– une approche qui se qualifie elle-même de « biodynamique » et qui ne tend pas ou très peu à valider scientifiquement ses concepts et fait régulièrement appel à des concepts mystiques, tels que celui de souffle de vie initialement décrit par Sutherland.

Sutures d'un crâne humain qui rendraient possible une mobilité intrinsèque, interne, inhérente à l'intérieur du crâne, qui créerait des mouvements infimes, mais détectables, entre les différents os.
Sutures d’un crâne humain qui rendraient possible une mobilité intrinsèque, interne, inhérente à l’intérieur du crâne, et qui créeraient des mouvements infimes, mais détectables, entre les différents os.

À partir de la lecture des textes des fondateurs et des continuateurs de l’ostéopathie crânienne, puis de la fréquentation des documents issus des principales institutions enseignant ou promouvant la discipline, et enfin de l’analyse de notre synthèse sur les différents concepts du champ crânien, le tout, enfin, assorti des revues de littérature antérieures portant sur ce sujet, nous avons dégagé les hypothèses relevant de l’anatomie, de la biomécanique, de la physiopathologie et de la physiologie humaine sur lesquelles reposent ces pratiques. Aucune des hypothèses qui font la spécificité des fondements physiopathologiques de l’ostéopathie crânienne n’est vérifiée. Les hypothèses dont la vérifiabilité est totalement ou partiellement avérée à l’issue de nos revues de littérature systématique sont en fait des hypothèses non spécifiquement ostéopathiques – c’est le cas par exemple de la circulation du LCR dans l’encéphale.

À l’issue de notre revue systématique de littérature sur les procédures d’évaluation issues de l’ostéopathie crânienne, nous n’avons trouvé aucune preuve en faveur des reproductibilités intra et inter-observateurs de ces procédures. La majorité des études existantes et disponibles échouent à mettre en évidence ces reproductibilités pour tous les paramètres considérés et ce malgré des risques de biais souvent favorables à l’émergence de résultats positifs.

À la clôture de notre revue de littérature sur ce thème, nos résultats montrent que les preuves méthodologiquement valables et favorables à une efficacité spécifique des  techniques et des stratégies issues de l’ostéopathie crânienne sont pratiquement inexistantes. Ces résultats convergent avec toutes les revues de littérature déjà menées sur le sujet.

En définitive, les résultats de nos différentes revues et analyses de la littérature scientifique indiquent clairement que les thérapies s’y rapportant sont à ce jour dépourvues de fondement scientifique. On aurait pu le subodorer dès leur invention, puisque très rares sont les concepteurs de « théories » cranio-sacrées ayant pris le soin élémentaire d’étayer leur pratique d’un quelconque élément de preuve. Cela montre une évidente défaillance épistémologique des fondateurs, mais également des continuateurs qui ont continué d’empiler des briques plus ou moins mal façonnées sur un marécage sans point d’appui.

Souscrivant à l’Onus probandi, un thérapeute quelque peu scientifique aurait assurément pu, à l’instar de Christopher Hitchens, réfuter sans preuve ce qui était affirmé sans preuve. Avec le soutien du CNOMK, nous avons accepté de faire le travail laborieux qui revenait logiquement aux prétendants. De fait, alors que nous pensions qu’il n’y avait pas a priori de raison scientifique de défendre cette discipline, désormais nous le savons. N’étant pas prescripteurs de recommandations, nous nous sommes limités à une analyse impartiale, et c’est cette analyse qui mène à l’énoncé suivant : rien n’encourage aujourd’hui à la mise en place de ces thérapies dans le cadre d’une prise en charge raisonnée de patients.

QFP (questions fréquemment posées)

Ce rapport a été relayé sur différents sites et réseaux sociaux, certains d’entre-eux permettant l’édition de commentaires. Nous ne sommes pas en mesure de lire et répondre à tous ces commentaires mais nous répondrons bien volontiers aux remarques et questions qui :

– concernent strictement le contenu de ce rapport (l’évaluation scientifique de l’ostéopathie crânienne) ;

– nous parviennent directement ( contact@cortecs.org ) ;

– ont un ton courtois et ne font pas d’attaque à la personne ;

– sont étayées avec des références précises et accessibles ;

– ne sont pas déjà traitées dans le rapport.

Biais de publication et effet tiroir (qui certes, n’est pas commode)

Un biais de publication désigne le fait que les chercheurs (pour leurs CV) et les revues scientifiques (pour leur marketing)9 ont bien plus tendance à publier des expériences ayant obtenu un résultat positif que des expériences ayant obtenu un résultat négatif. Ce biais de publication entraîne un effet tiroir, les résultats négatifs restant « au fond du tiroir ». Cela crée une perception des résultats scientifiques un peu plus « belle » qu’elle ne l’est réellement, et crée parfois ce que l’on appelle des faux positifs.

Même lorsqu’elle ne cherche pas à tout prix le scoop, une revue est dans tous les cas peu encline à publier des résultats non significatifs d’un point de vue statistique 10. Que la revue, malgré une méthodologie irréprochable, ne publie pas les résultats contredisant l’hypothèse initiale (hypothèse qui postule généralement que le traitement testé a un effet) s’appelle le biais de publication 11. Compte tenu des efforts et du temps nécessaire à la publication d’un article par un scientifique, ce dernier peut, devant le biais de  publication, s’autocensurer, et préférer laisser ses recherches au fond du tiroir, sans chercher à les publier. C’est ce biais de pré-publication qu’on appelle l’effet tiroir, ou file drawer effect, nom donné par le psychologue Robert Rosenthal en 1979 12

Cet effet, fort peu documenté, tient sa première étude de Brian Martinson et ses collègues, chercheurs à la Health Partners Research Foundation, qui menèrent en juin 2005 une étude pour le journal scientifique Nature. L’équipe de Martinson envoya une enquête anonyme à des milliers de scientifiques financés par les National Institutes of Health : 6% des répondants reconnurent avoir « rejeté des données parce qu’elles contredisaient leur recherche antérieure », et plus de 15 % ont reconnu avoir fait fi d’observations parce qu’ils avaient « la conviction profonde » qu’elles étaient inexactes, ce qui fit conclure aux auteurs :

« Notre approche permet certainement de songer à l’existence d’un biais de non-réponse. Les scientifiques qui s’en sont montrés coupables étaient peut-être susceptibles de répondre moins souvent que les autres à notre enquête, sans doute parce qu’ils craignaient d’être découverts et sanctionnés. Ce fait, combiné avec celui qu’il y a probablement eu sous-déclaration des écarts de conduite parmi les répondants, tend à montrer que nos estimations des comportements délinquants demeurent prudentes »13

L’effet tiroir est particulièrement sensible dans le cadre de la médecine en général et de la rééducation en particulier puisque les professionnels, n’ayant que peu de temps à consacrer à la consultation des données scientifiques, concentrent généralement leurs efforts sur la lecture des revues systématiques ou des méta-analyses de la littérature (c’est-à-dire un article faisant la synthèse du sujet). Le problème réside dans le fait que ces articles se basent sur les données disponibles, donc publiées, donc plutôt orientées dans le sens d’un effet significatif. Rappelons par acquit de conscience que la significativité statistique ne dit absolument rien de la validité méthodologique d’une étude.

Therapies_manuelles_PUG

Extrait de Pinsault N., Monvoisin R., Tout ce que vous n’avez jamais voulu savoir sur les thérapies manuelles, PUG, 2014

Illustration : dans la Tête au carré sur France Inter du 17 juin 2014, une chroniqueuse revient sur la fameuse étude suisse de Cajochen et al.14 liant causalement pleine lune et sommeil, montrant que non seulement l’étude n’est pas reproduite, mais surtout que plusieurs études non publiées ont montré des résultats négatifs.

Télécharger

On entend bien le pauvre Mathieu Vidard, pas très au point en épistémologie, (voir par exemple ici) y voir « tout et son contraire », alors qu’il s’agit justement d’un biais de publication dans lequel la plupart (pas tous) de ses chroniqueurs tombent, sous prétexte de scoops. La chroniqueuse, qui un an plus tôt avait annoncé le résultat fracassant sans l’ombre d’un doute, ne prend certes pas la peine de s’excuser, mais elle fait tout de même un correctif que bien peu de journalistes concèdent.

RM, NP

Une bonne poignée de mini-conférences CORTECS

Depuis août 2012, le centre névralgique du CORTECS est hébergé dans la bibliothèque des sciences de l’université de Grenoble (appelé aussi SICD1). L’occasion était belle pour agiter un peu l’auditorium qui trône au milieu. Sous la maîtrise technique de Jean-Michel Mermet, nous avons procédé depuis septembre 2012 à plusieurs conférences thématiques critiques, d’un format très court (30mn + questions), qui sont toutes disponibles, soit sur le site des Ateliers de l’information là-bas, soit ci-dessous, en cliquant sur celle qui vous intéresse.


[TOC]

Zététique et autodéfense intellectuelle, par Richard Monvoisin

(14 octobre 2012) Durée avec les questions : 51 min. Télécharger (format .m4v, 605Mo). Télécharger le support.

Tester l’extraordinaire : 2 cas expliqués, par Richard Monvoisin

(22 novembre 2012). Durée avec les questions : 50 min.

Le placebo et ses facettes, par Nicolas Pinsault

(28 novembre 2012). Durée avec les questions : 55min. Télécharger (format .m4v, 438Mo) Télécharger le support.

Choisir un thérapeute – des outils pour nous aider, par Nicolas Pinsault

(30 janvier 2013) Ostéopathie, kinésithérapie, chiropractie, kinésiologie, micro-kinésithérapie… L’offre de thérapies disponible pour prendre en charge nos maux quotidiens est pléthorique. Comment choisir ? Sur quels critères ? Durée avec les questions : 61min. Télécharger (format .m4v, 478Mo) Télécharger le support.

Dérives sectaires & esprit critique, par Richard Monvoisin

(6 février 2013). Les dérives sectaires font sourire, jusqu’à ce qu’un de nos proches se retrouve engoncé dans une de ces mécaniques aliénantes. Nous verrons comment fonctionnent ces aliénations mentales, quels sont les terrains les plus propices à leurs développement et quelques outils de préventions simples. Durée avec les questions : 58mn. Télécharger (format .m4v, 685Mo) Télécharger le support.

Analyse scientifique de l’homéopathie, par Richard Monvoisin

(20 février 2013). Homéopathie, pour ? Contre ? Pour ou contre quoi, au fait ? Pour ou contre son enseignement, son remboursement, sa théorie sous-jacente, le retrait de certains produits ? Aborder ce sujet en 30 minutes est un sacré pari. Durée avec les questions : 54 min. Télécharger (format .m4v, 730Mo) Télécharger le support.

Critique du système de publication scientifique, par Nicolas Pinsault

(6 mars 2013). Le processus de publication scientifique par le biais d’une validation par les pairs est construit pour s’assurer de la qualité des informations publiées. Qu’en est-il vraiment ? Où sont les failles du processus ? Durée avec les questions : 48min. Télécharger (format .m4v, 214Mo) Télécharger le support.

La psychogénéalogie et ses dérives, par Nicolas Gaillard

(10 avril 2013). Cette méthode de psychothérapie consiste à rechercher dans le vécu de nos ancêtres les sources de nos troubles psychologiques et maladies. Avec ses calculs mathématiques, son vocabulaire psychologique et ses « succès » thérapeutiques, elle se pare de scientificité. Pourtant, derrière cette apparence, une analyse critique s’impose. Durée avec les questions : 52 min. Télécharger (format .m4v, 418Mo) Télécharger le support.

Les argumentocs – sophismes et rhétoriques fallacieuses, par Nicolas Gaillard

(20 juin 2013). Marre des discours pompeux, des phrases fumeuses, des joutes oratoires moisies ? Ad hitlerum, ad populum, faux dilemmes et technique de l’homme de paille… Venez apprendre à reconnaître à 10 kilomètres une escroquerie rhétorique ! Durée avec les questions : 54 min. Télécharger (format .m4v, 429Mo) Télécharger le support.

Mésusages mathématiques dans les médias, par Guillemette Reviron

(11 septembre 2013). Chiffres de la délinquance, du chômage, de la fraude aux allocations, de l’immigration, des dépenses publiques, de la croissance, du moral des ménages, du CAC 40, de la consommation : les recours aux chiffres dans les médias sont particulièrement courants. Face à ces avalanches de chiffres, le public adopte souvent deux attitudes contradictoires : d’une part un grand respect des données chiffrées (qui deviennent ainsi un argument d’autorité très performant), d’autre part une « mathophobie » très présente. Ces réactions peuvent inciter à baisser les bras et à renoncer à comprendre ce qui se dit et surtout ce qui ne se dit pas. Ne reste alors que les impressions créées par les chiffres énoncés. L’objectif de cette conférence est de présenter des outils simples, accessibles à tous, pour démystifier les chiffres et surtout pour apprendre à oser les questionner. Durée avec les questions : 42min. Télécharger (format .m4v, 490Mo) Télécharger le support.

Psycho-pop, psychologies de comptoir et leurs dérives, par Nicolas Gaillard

(18 septembre 2013). La gamme de concepts de psychologie humaine que l’on retrouve exposés dans les ouvrages ou les médias dits « grand public » s’avèrent souvent plus proches de la pseudo-science que de la véritable vulgarisation scientifique. En entrant dans le langage quotidien, cette psychologie « populaire » semble offrir les clés d’interprétation de notre environnement : éducation, vie de couple, relations familiales, réussite personnelle et professionnelle, etc. Mais Comment se prémunir face à des concepts nébuleux propices aux interprétations les plus fantaisistes et aux conséquences parfois dramatiques ? Comment s’y retrouver dans le monde du « psy » et éviter ses travers ? Nous aborderons quelques outils d’autodéfense intellectuelle utiles pour maintenir notre vigilance critique dans ce domaine. Durée avec les questions : 46 min. Télécharger (format .m4v, 412Mo) Télécharger le support.

Les historiens de garde : pourquoi Lórant Deutsch et son Métronome posent problème, par Guillaume Guidon

(2 octobre 2013). A travers l’exemple de Lórant Deutsch et de son désormais célèbre « Métronome », déjà vendu à plus de deux millions d’exemplaires, l’objectif de cette séance est de s’interroger sur les usages et l’écriture de l’histoire. Comment ces dernières années, à contre-courant total de l’évolution des sciences humaines et de la recherche historique, certains « historiens » improvisés comme Lórant Deutsch en reviennent à l’écriture d’une histoire nationale, patriotique, faite par les « grands hommes » ? Comment la méthode historique qui se veut scientifique est complétement balayée par ces auteurs ? Comment ces « historiens de garde » parviennent à toucher un auditorat large grâce à des relais médiatiques puissants ? Voici quelques unes des questions auxquelles nous tacherons de répondre. Durée avec les questions : 52 min. Télécharger (format .m4v, 434Mo) Télécharger le support.

L’identité européenne et la fabrique des Européens : décryptage d’une construction politique, par Clara Egger, IEP

(9 octobre 2013). L’ identité en science politique fait référence aux valeurs et aux modes de vie communs mais aussi au processus d’attachement des citoyens à la communauté politique. Après avoir construit l’Europe, voilà qu’on s’efforce de construire les Européens. Oui mais voilà on ne s’attache pas facilement à une Union Européenne perçue comme lointaine, froide et technocratique. Dans ce contexte tous les moyens sont bons : recours à l’imaginaire politique, aux mythes, et, pourquoi pas à la peur. Décryptage. Durée avec les questions : 39min. Télécharger  (format .m4v, 335Mo ) Télécharger le support.

L’art de corrompre les futurs médecins. Exemple vécu, par Jessica Guibert

(16 octobre 2013). Itinéraire d’une étudiante en médecine parmi les diverses sollicitations des laboratoires pharmaceutiques… Comment les industries de santé cherchent-elles à influencer les futurs médecins ? Peuvent-ils échapper à cette stratégie de promotion ? Durée avec les questions : 47min. Télécharger  (format .m4v, 398.14Mo ) Télécharger le support.

Idées reçues et récupérations idéologiques de la théorie de l’évolution, par Julien Peccoud

(23 octobre 2013). Bien que traitée dans les programmes de l’Éducation Nationale, la théorie de l’évolution est souvent surinterprétée ou mal comprise. Son enseignement reste difficile car nécessite une attention toute particulière sur les analogies et les termes utilisés afin de ne pas entretenir des conceptions fallacieuses, déjà bien trop présentes dans les médias. Mieux connaître les facettes de cette théorie permet de se prémunir face aux interprétations classiques (anthropocentrisme, finalisme, complexité irréductible) qui font le lit des créationnismes de toutes sortes. Durée avec les questions : 39min. Télécharger  (format .m4v, 457.11Mo ) Télécharger le support.

Comment lire et comprendre des articles scientifiques ?, par Nicolas Pinsault

(13 novembre 2013) Un point commun des crèmes anti-rides, shampoings contre la perte des cheveux, thérapies manuelles révolutionnaires pour faire disparaitre les migraines est souvent le critère d’efficacité « scientifiquement prouvé » dont ils se parent. Mais comment savoir si la méthode utilisée est bonne pour évaluer une efficacité ? Durée avec les questions : 41min. Télécharger  (format .m4v, 443Mo ) Télécharger le support.

Les rouages de la propagande de guerre : des Sudètes (1938) à la Syrie (2013), par Clara Egger & Richard Monvoisin

(20 novembre 2013) La propagande est un ensemble de moyens psychologiques développés pour influencer la perception publique des événements ou des enjeux, de façon à endoctriner ou embrigader une population et la faire agir et penser d’une manière prédéfinie. La propagande de guerre a ceci de particulier qu’elle est extrêmement simple à décrypter, et pourtant efficace, même en France. Petit survol. Durée avec les questions : 1h06min. Télécharger  (format .m4v, 548Mo ) Télécharger le support.

Mieux comprendre la croyance aux conspirations, par Anthony Lantian

(27 novembre 2013) Pour quelles raisons certaines personnes ont-elles tendance à voir derrière les faits d’actualités les signes d’une vaste conspiration mondiale ? Cette présentation aura pour objectif de donner un aperçu de ce que les recherches en psychologie sociale peuvent nous apprendre au sujet des croyances aux théories de la conspiration. Durée avec les questions : 59min. Télécharger  (format .m4v, 508Mo ) Télécharger le support.

Qu’est-ce qu’une imposture intellectuelle ?, par Denis Caroti

( 24 janvier 2014). L’utilisation d’un jargon scientifique pour impressionner le quidam n’est pas l’apanage des charlatans : l’usage plus subtil de concepts mathématiques ou physiques pointus, notamment pour alimenter des analogies et extrapolations abusives, se retrouvent dans les textes de nombreux auteurs bien connus. Dénoncées par Alan Sokal et Jean Bricmont il y a plus de dix ans, ces « impostures intellectuelles » surfent sur la vague d’un relativisme à la mode, pour lequel l’objectivité est une simple convention sociale. Comment pouvons-nous les déceler et les désamorcer ? Durée avec les questions : 35min. Télécharger  (format .m4v, 295Mo ) Télécharger le support.

Est-il utile de dormir ?, par Patrick Lévy, président de l’UJF

(26 janvier 2014). 1/ Dans les sociétés modernes, la privation de sommeil semble être le prix à payer de l’évolution des modes de vie et de travail ; 2/ dans le même temps, la recherche a mieux cerné pourquoi nous dormons et quelle est la fonction du sommeil pour l’équilibre général de notre organisme ; 3/ c’est cette contradiction qui doit être explorée dans ces différentes dimensions. Durée avec les questions : 46min. Télécharger  (format .m4v, 389Mo ) Télécharger le support.

Il faut sauver la neutralité d’Internet ! par Silvie Renzetti, bibliothécaire SICD1

(19 mars 201). La neutralité de l’Internet est une question technique qui met en jeu des opérateurs économiques puissants et implique des enjeux politiques forts, c’est pourquoi au-delà du débat d’experts, il serait tout à fait imprudent de se désintéresser d’un tel sujet. Cet exposé tente de comprendre quels sont les termes, les acteurs et les conséquences de cette question débattue depuis des années. Durée avec les questions : 42min. Télécharger  (format .m4v, 351Mo ) Télécharger le support.

Les créationnismes et l’intrusion de valeurs en sciences, par Julien Peccoud

(26 mars 2014). Le créationnisme nait avec les textes sacrés mais le débat autour de la question des origines et de l’évolution de la vie a émergé avec l’avènement des pensées évolutionnistes et plus précisément de la théorie de l’évolution de Charles Darwin. Ces courants créationnistes, très divers, se réclament originellement des écritures saintes mais s’en éloignent dans des courants plus récents. Pour autant, les procédés rhétoriques restent équivalents, unifiés dans des schèmes de pensée communs. Afin de se faire un avis objectif, il est donc important de pouvoir identifier les origines, les pensées et les liens que ces différents courants entretiennent ainsi que de discerner leurs arguments fallacieux à l’encontre de la théorie de l’évolution. Durée avec les questions : 46min. Télécharger  (format .m4v, 383Mo ) Télécharger le support.

L’Intelligent Design : la face pseudo-scientifique du créationnisme, par Julien Peccoud

(2 avril 2014). L’intelligent design (ID) est un courant proposant une alternative souvent séduisante à la théorie de l’évolution. Les arguments sont très divers et les tenants de l’ID peuvent se réclamer d’un évolutionnisme mais révoquent la notion de hasard en proposant que des « forces » transcendantes puissent guider ou être à l’origine de cette évolution. Le but de cette conférence sera de contrer quelques arguments de l’ID sur le champ de la biologie évolutive mais surtout d’analyser sa légitimité dans le champs de la science et en quoi l’ID reste un créationnisme, une porte d’entrée aux intrusions spirituelles et aux valeurs en sciences ainsi qu’une stratégie politique. Durée avec les questions : 46min. Télécharger  (format .m4v, 392Mo ) Télécharger le support.

Peur sur la ville : les islamistes, Al Qaïda et le djihad global, par Clara Egger, Collectif CorteX

(9 avril 2014) « Internationale terroriste », « arc de crise djihadiste » sont autant de pseudo-concepts créés depuis le 11 Septembre 2001 pour analyser les relations internationales sous le prisme d’un affrontement entre l’ « Occident » et l’ « Islam ». A l’image de la prise d’otage à Nairobi en septembre dernier, chaque événement est utilisé pour confirmer la thèse d’un terrorisme islamiste susceptible de frapper partout, n’importe quand au nom du djihad global. Mais qu’y a-t-il derrière le concept d’« islamisme » ? Peut-on réduire l’ensemble des mouvements se revendiquant de cette idéologie à ce mot-valise ? Le 11 Septembre a-t-il véritablement changé la donne de la politique internationale ? Durée avec les questions : 38min. Télécharger  (format .m4v, 323Mo ) Télécharger le support.

La trépidante histoire du droit d’auteur (1) « le piratage c’est du vol », et autres phrases chocs, par l’Association Grésille

(16 avril 2014). Une courte vidéo annonçant que « le piratage, c’est du vol » est imposée à tous les spectateurs de DVD achetés dans le commerce. Pourtant, ces six mots contiennent un nombre de contre-vérités assez impressionnant. Dans cet atelier, nous décortiquerons cette phrase, ainsi que quelques autres à propos du droit d’auteur et d’Internet. Internet signe-t-il la mort de l’industrie du disque ? Internet est-il une zone de non-droit ? Le droit d’auteur encourage-t-il la création artistique ? Le piratage nuit-il à la création artistique ? Durée avec les questions : 37min. Télécharger  (format .m4v, 311Mo ) Télécharger le support.

La trépidante histoire du droit d’auteur (2) La crise, par l’Association Grésille

(23 avril 2014). Le droit d’auteur est forcé de changer. Ses conditions d’existence ne tiennent plus : il est remis en cause par la possibilité de s’abstraire du support physique des œuvres, et de copier celles-ci pour un coût négligeable. L’industrie du divertissement l’a bien compris et déploie une énergie importante pour contrôler la distribution culturelle sur ce nouveau média. Si Internet et l’informatique révolutionnent la création, ils fournissent aussi aux industries du divertissements des moyens de contrôle pour préserver leur position et s’opposer à cette révolution. Dans cet atelier, nous aborderons cette crise et l’évolution de la création culturelle qui en résulte.
Durée avec les questions : 42min. Télécharger (format .m4v, 344Mo ) Télécharger le support.

La « théorie » du genre, par Guillemette Reviron

(28 mai 2014). Depuis son entrée dans les programmes des classes de 1ères L et ES en 2011, ladite « théorie du genre » a suscité de vives inquiétudes et de fortes oppositions (lettre de députés demandant son retrait des programmes scolaires, veilles de parents d’élèves dans les écoles, tracts distribués devant les écoles, journée de retrait de l’école). La médiatisation de cette protestation a fortement contribué à entretenir de grandes confusions sur la notion de genre, véhiculant notamment l’idée que la « théorie du genre » a pour objectif de gommer les différences entre les sexes. Or, contrairement à ce qui fut souvent affirmé, les études sur le genre ne nient pas les différences entre les sexes : elles mesurent les différences non biologiques entre les sexes, mettent en évidence les processus qui les perpétuent et étudient les rapport de domination entre les sexes qui en résultent. Durée avec les questions : 62min. Télécharger (format .m4v, 503Mo ) Télécharger le support

Le freudisme : un conte scientifique ? Par Jacques Van Rillaer

(09 oct. 2014). Partant du commentaire fait par Krafft-Ebing d’une conférence de Freud : « cela ressemble à un conte scientifique », on montrera que Freud, qui croyait que sa place était à côté de Copernic et Darwin, est à placer à côté de Charles Perrault et les frères Grimm, les auteurs de contes. Durée avec les questions : 57min. Télécharger (format .m4v, 498.8Mo )

Peur sur la ville : les islamistes, Al Qaïda et le djihad global (2), par Clara Egger.

(2 dec. 2014). Durée avec les questions : 45min. Télécharger (format .m4v, 503Mo ) Télécharger le support

Les neuromythes, par Nelly Darbois

(26 mai 2015). Dans le milieu de l’éducation comme de la santé, le recours à des concepts découlant des neurosciences est fréquent, souvent pour donner du crédit à des méthodes pédagogiques ou des thérapies et ainsi en légitimer l’usage. Il existe dans ces domaines ce qu’on appelle parfois des neuromythes : des concepts ou théories fausses ou non vérifiées sur le fonctionnement cérébral, découlant parfois d’une erreur de compréhension d’un fait scientifiquement établi. En parallèle de cela, nous avons tendance à accorder plus de crédit à une idée qui se réclame des neurosciences, qui utilise son langage ou ses images. Nous expliciterons quelques-uns de ces neuromythes et leur potentielles dérives. Durée avec les questions : 46min. Télécharger (format .m4v, 389Mo ). Télécharger le support

Le coût de la connaissance – Boycott d'Elsevier

Dans les années 1580, un certain Lodewiejk Elzevir (1542–1617), typographe de Louvain, monta à Leyde une entreprise de publication et de vente de livres, en particulier des classiques latins mais aussi des livres plus engagés, dont ceux d’Erasme ou Galilée. La boîte ferma en 1712, mais c’est en hommage à cette vieille maison qu’en 1880, à Amsterdam, naquit Elsevier sous sa forme moderne… et tentaculaire. L’entreprise a tellement grandi en un siècle que la marque couvre désormais une importante part de la publication scientifique dans le monde. Propriétaire de la revue Cell, du Lancet, de collections de livres comme Gray’s anatomy, elle publie 250 000 articles par an, dans 2000 journaux. En 1993, Reed International PLC et Elsevier PLC fusionnent et forment ce qui est actuellement le deuxième diplodocus de l’édition au monde. Les profits, eux aussi, sont colossaux (plus précisément, l’EBITDA [0] est de l’ordre de 36% sur un chiffre d’affaire de 4,3 milliards de dollars en 2010, ce qui représente plus de 1,5 milliards de dollars), avec une pratique de prix d’accès à leur catalogue agressive et, pour tout dire, assez choquante. Pour avoir un ordre d’idée, certaines bibliothèques payent pour l’abonnement aux revues d’Elsevier près de 40 000 dollars [1].
La situation se résume grosso modo ainsi :
Une personne produisant un savoir, généralement avec de l’argent public, doit publier coûte que coûte pour survivre dans son métier. Or publier signifie apporter son travail à une revue. Vend-elle son travail ? Non, elle l’offre. Et pour être précis elle paye même pour soumettre son article (sans assurance d’être acceptée). Qu’a-t-elle en échange ? Du capital symbolique sur le marché du travail, car la publication est intégrée dans le Curriculum Vitae du chercheur. Qui va accepter ou non l’article ? Des collègues plus ou moins lointains de la personne, spécialistes du sujet, que la maison recrute mais ne paye pas (car là encore, être relecteur se vend bien sur un CV). Que fait ensuite la revue ? Elle revend les articles aux universités, à un prix exorbitant [2].
Comme on ne manquera pas de le remarquer, il s’agit, dans cette marchandisation du savoir, d’un quintuple effet kiss cool, ou d’une quintuple tonte gratis :
– le contribuable paye par ses impôts une recherche (bruit de machine à sous)
– que le chercheur publiera en payant [3] (bruit de machine à sous), 
– que d’autres chercheurs devront relire gratuitement (bruit de machine à sous,
– car c’est sur du temps de travail du chercheur payé par le contribuable) 
– que les universités doivent racheter à prix d’or un couteau sous la gorge, (bruit de machine à sous) perdant à peu près la moitié du budget fonctionnement des bibliothèques universitaires, et excluant d’office les universités les moins riches

Tout ceci a des répercussions sur les frais de scolarité des étudiants, voués probablement à devenir chercheurs, qui devront publier, etc.
Arrive soudain que souffle le vent de la contestation.

CorteX_Logo_Elsevier CorteX_Logo_boycott_Elsevier_Daniel Mietchen
Logo d’ElsevierUn vieux sage, près d’un orme servant de tuteur à une vigne, allégorie du rôle symbiotique « éditeur/chercheur ». Non solus signifie « pas seul » Logo Boycott Elsevier (parmi d’autres créé par Michael Leisen)Le vieux sage se tourne cette fois vers la planète de PLoS, Public Library of Science, pour un accès libre, et laisse l’arbre mort seul.
 
 

De fait, des chercheurs se sont fâchés. Des mathématiciens, d’abord, souvent il faut bien le dire, à l’avant-garde contestataire en science.

CorteX_The-Cost-of-Knowledge-petLeur vase déborda lorsqu’en décembre 2011 fut présenté au Congrès états-unien un projet de loi sur les travaux de recherche interdisant aux agences fédérales d’exiger le libre accès à des résultats scientifiques, et ce même lorsque ces recherches sont financées par l’Etat fédéral états-unien. C’en était trop. Le 21 janvier 2012, le matheux Timothy Gowers, médaille Fields en 1998, annonça publiquement son boycott d’Elsevier. Un article du Guardian [4] puis du New York Times [5] relatèrent la chose, et trente-quatre autres mathématiciens suivirent. Une pétition naquit, intitulée The Cost of knowledge (« le coût de la connaissance ») enjoignant à ne pas soumettre d’articles à des revues de l’entreprise, ne pas se réferer à des articles d’Elsevier et ne participer d’aucune manière à ses éditions.

The Cost of knowledge a été signée par désormais plus de 10 000 chercheurs académiques. L’Université française P. & M.CorteX_The_Cost_of_Knowledge Curie a relayé le boycott, elle qui dépense 1,02 millions d’euros pour ces abonnements. Puis l’Université de Harvard a suivi car bien qu’elle soit la deuxième institution à but non lucratif la plus riche dans le monde, ses comptes sont gravement amputés par les abonnements aux revues académiques : il semble que le prix des abonnements lui coûte chaque année en moyenne 3,75 millions de dollars. Le directeur de la bibliothèque, Robert Darnton, a déclaré dans le Guardian :

 « J’espère que d’autres universités vont faire des actions similaires. On est tous confrontés au même paradoxe. Nous faisons les recherches, écrivons les articles, œuvrons au référencement des articles par d’autres chercheurs, le tout gratuitement… Et ensuite nous rachetons le résultat de notre travail à des prix scandaleux. »

S’il était des étudiants Québecois en lutte qui se demandaient encore à quoi pouvaient servir des frais d’inscription croissants à l’université, ils ont là un élément de réponse.

A Grenoble ? Le laboratoire de mathématiques de l’Institut Fourier a, selon Le Monde, renégocié son contrat en février 2012 pour une durée de trois ans avec l’éditeur Springler. Chaque année, il dépense en moyenne 135 000 euros pour l’achat de ses revues, pour un budget total de fonctionnement d’environ 400 000 euros.

Au cours des négociations, l’Institut a lancé un appel pour tenter d’être en position de force face à l’éditeur. « Ce n’était pas un boycott », explique Benoît Kloeckner, de l’Institut Fourier de Grenoble (…)  :

 

« Les contrats sont pluriannuels donc il est impossible de se désabonner d’une revue et l’éditeur prévoit des augmentations des prix supérieurs au coût de la vie, de l’ordre de 3 à 4% à chaque négociation. » Son Institut a réussi à limiter la hausse à 2% mais « sur l’essentiel, le désabonnement, on n’a pas eu gain de cause ». (…) « les éditeurs sont en position de force car paraître dans ces revues participent à la réputation d’un chercheur. » [6]

Publicisation des coûts, privatisation des profits, mise en concurrence, cela nous rappelle d’autres modèles économiques.
Alors ? Les solutions sont « pirates ». La publication libre et gratuite s’impose lentement, sous forme de revues électroniques gratuites, de plates-formes d’archives ouvertes, arXiv ou Hal. Reste encore le problème de relecture par les pairs, qui n’est pas encore réglé. Une note publiée sur le site de Harvard et envoyée aux 2 100 professeurs et chercheurs les encourage à mettre à disposition, librement, en ligne leurs recherches.
Le corteX, dont les ressources pédagogiques sont libres, s’inscrit complètement dans cette démarche, depuis le début, et ne peut qu’encourager ses membres, son réseau et tous les chercheurs à publier librement, à construire le nouveau système de relecture de la publication libre, et à boycotter les poulpes comme Elsevier. CorteX_The_Cost_of_Knowledge_commitment
La charte se trouve ici.
Le choix de cette déclaration ne va pas sans douleur pour nous. Deux exemples : Nicolas Pinsault et moi-même avons un ouvrage sur le feu (un manuel critique pour kinésithérapeutes) que nous pensions éditer chez Masson. Or Masson, c’est Elsevier. Nous n’irons donc pas proposer notre manuscrit chez Masson. Quant aux revues d’Elsevier qui nous publiaient, nous allons devoir nous en éloigner un peu, souvent à regret. Certains de nos articles sont dans les tuyaux de Kiné la revue, hélas propriété d’Elsevier aussi. Il va être coûteux de ne plus écrire là-bas. Ceci étant, les revues auront tout loisir de citer nos publications une fois mises en ligne gracieusement par nos soins.

Richard Monvoisin

[0] L’EBITDA (Earnings before Interest, Taxes, Depreciation, and Amortization) est un indicateur classiquement utilisé pour mesurer la rentabilité d’une activité économique. Il est différent du résultat net de l’entreprise puisqu’il ne prend en compte ni les amortissements, ni les charges financières (comme le coût de la dette, par exemple), ni l’impôt sur les sociétés. Il permet notamment d’évaluer la marge générée par l’activité de l’entreprise indépendamment de sa structure de financement. Merci à Léonore et Baptiste pour ces renseignements généreux.
[1] A titre indicatif, les 127 établissements français dont les achats d’abonnements électroniques sont gérés par la structure centrale ABES (Agence Bibliographique de l’Enseignement Supérieur), le montant 2010 des abonnements Elsevier s’est élevé à 13,6 millions d’Euros (soit 69% du total des abonnements électroniques gérés). On lira les rapports d’activité annuels ici.
[2] Pour donner un ordre d’idée : si vous ou moi voulons obtenir par exemple, au hasard, l’article The DRESS syndrom : litterature review, de Cacoub & al,  dans The American Journal of Medicine Volume 124, Issue 7, juillet 2011, pages 588–597, il nous en coutera la bagatelle de 31,50 dollars US.
[3] Pour avoir un ordre d’idée, Nicolas Pinsault m’indique que par exemple pour Nanomedicine: Nanotechnology, Biology and Medicine, revue prise parmi les titres Elsevier, le coût de soumission (submission fee), non remboursable est de 100 US$ (voir ici). Mais les sommes peuvent grimper un peu, comme dans le domaine de la science économique. 175 US$ pour soumettre au Journal of Monetary Economics (Elsevier), 5 US$ de plus pour le Journal of Banking and Finance (Elsevier), et jusqu’à 400US$ pour le Journal of Financial Economics. Toujours Elsevier. (Source Laurent Linnemer).
[4] Alison Flood, Scientists sign petition to boycott academic publisher Elsevier, The Guardian, 2 février 2012.
[4] Thomas Lin, Mathematicians Organize Boycott of a Publisher, New York Times, 13 février 2012.
[5] Anne Benjamin, Harvard rejoint les universitaires pour un boycott des éditeurs, Le Monde, 25 avril 2012.


Le blog Rédaction Médicale et Scientifique réagit à notre article ici.

Nous avons pris note des remarques et souhaitons user d’un droit de réponse.

L’article nous fait un procès d’intention en affirmant que nous sommes des « donneurs de leçon ». A moins d’en apporter la preuve, nous n’avons jamais prétendu donner des leçons, plutôt apporter des informations critiques sur un sujet complexe.
Ecrire que « Se battre pour l’Open Access va dans le sens de l’histoire, mais se battre pour la qualité est tout aussi important » est un argument fallacieux (un homme de paille pour être précis) puisque l’auteur travestit notre propos (qui n’a jamais été de baisser la qualité des publications scientifiques, bien au contraire).
– L’auteur instille que « Cortex semble se rapprocher d’un groupuscule militant en médecine, le Formindep » : cette scénarisation rappelle plus une nébuleuse terroriste qu’un réseau intellectuel. Formindep et CorteX collaborent effectivement et en toute transparence. Il nous semble étrange que cela inquiète.
– Enfin, l’article fait état que « La pseudo sagesse des donneurs de leçons ne tient pas toujours avec l’expérience et le temps« . Sauf incompréhension de notre part, cette phrase n’a aucune portée autre que de prêter des intentions, saper les rares énergies vivaces, et entretenir le calme plat et la bonace sur des processus délétères.

L’équipe du CorteX 

Biologie – Livre Les jeux de l’amour, du hasard et de la mort, de Paul Galand

A paru en 2011, aux éditions Racine, Les jeux de l’amour, du hasard et de la mort. Comprement animal et évolution sous la plume alerte de Paul Galand de l’Université Libre de Bruxelles, docteur en sciences zoologiques et agrégé d’université.

 

Je viens de le lire, que dis-je, de le dévorer. Farci d’exemples aussi truculents que roucoulants, avec des anecdotes qui font exploser de rire toutes les dix pages, Paul Galand introduit avec finesse les processus évolutifs, circonscrits les erreurs classiques, illustre les mécanismes de tamis des comportements du vivant avec les exemples les plus invraisemblables qui soient, certains sordides à souhait.

Partant des gamètes, de la semence, des ovulations, P. Galand explore les différentes « manières » que les espèces ont « développées » pour « assurer » leur descendance – ou que leur génome respectif, pourrait-on dire, a « emprunté » pour « assurer » sa propre reproduction.

Version sans guillemets (et sans téléologisme)  : P. Galand explore les différents résultats des processus évolutifs qui ont donné lieu à des espèces relativement stables et encore en vie.

Avec prudence, il balise les termes de « leurre », « ruse », « stratégie » ou « intention », évitant ainsi la chausse-trappe d’un dessein « intelligent » dans des mécanismes qui n’en ont pas du tout besoin. Hormis le rôle du sourire du bébé, il n’y a par contre pas d’introduction vers les mécanismes purement humains, ou vers de la mémétique (1) introductive, et ça m’a un peu manqué.

C’est un livre qui n’est pas un bouquin de spécialiste, mais qui nécessite une lecture relativement attentive. Je l’ai dévoré. Il y a un cahier photos en couleurs dedans.

17  x 24 cm
320 pages  € 22,50
Éditions Racine : écrire à sandrine.thys@racine.be ou au 02/646 44 44.

Richard Monvoisin

(1) La mémétique est une discipline qui se propose d’utiliser le concept d’objet culturel, le mème, pour faire une lecture évolutive darwinienne de la culture

Épistémologie – Les concepts de la sociologie sont-ils d'une nature spéciale ? par Dominique Raynaud

Nous avons à Grenoble la chance d’avoir un sociologue, épistémologue des sciences sociales qui fait un travail remarquable de rigueur. Il s’appelle Dominique Raynaud, et il travaille à l’Université Pierre-Mendès-France. 
Comme nous, il souscrit à un monisme méthodologique, c’est-à-dire qu’il ne pense pas, contrairement à une opinion répandue, que les choses de la matière sensible et celles de la « matière » sociale méritent deux types de méthodes différentes. Pour faire simple, point de méthode différente, plus de sciences dites dures et d’autres dites molles, mais une seule manière de décrire au mieux la réalité à laquelle nous avons accès. Certains objets sont infiniment plus complexes à appréhender, plus « mous » et d’autres plus simples, mais la manière de dire des choses vérifiables dessus n’est qu’une.
Dominique Raynaud nous offre ici une contribution qui vaut son pesant d’or. Le texte ci-dessous est une version écourtée du chapitre 4 de son livre La sociologie et sa vocation scientifique, Paris, éditions Hermann (2006) et montre que la sociologie n’a pas de normes spéciales de scientificité.
Ce n’est pas un sujet facile, mais l’effort qu’il demande ne sera pas vain.

[toc]

Résumé

Pour les épistémologies dualistes ou régionalistes, la sociologie relève de normes spéciales de scientificité. La sociologie serait délimitée par le fait que ses concepts ne sont pas des « concepts analytiques » ou « taxinomiques », au sens des sciences naturelles, mais des « concepts idéaltypiques » ou des « désignateurs semi-rigides ».

L’analyse comparée montre deux choses.

(1) Les concepts analytiques et taxinomiques sont d’un usage régulier en sociologie.

(2) Les concepts idéaltypiques et les désignateurs semi-rigides ne sont pas l’apanage de la sociologie : on en trouve l’équivalent en physique et en astronomie.

Du coup, le statut particulier des concepts sociologiques n’est pas un critère adéquat pour doter la sociologie de normes épistémologiques propres.

Introduction

De manière à ce que les termes de la discussion soient clairs, je commencerai par poser quelques définitions utiles.

1° Un « concept taxinomique » est celui qui naît de la relation entre une espèce et un genre. Les critères dichotomique d’absence/présence d’un caractère sont en usage dans toutes les classifications, en particulier en zoologie et en botanique. Par différence, on peut identifier des « concepts typologiques » qui n’emploient pas des critères exclusifs mais inclusifs. C’est notamment le cas de l’idéaltype, un concept introduit par le fondateur de la sociologie moderne, Max Weber (1). Les exemples historiques de domination légitime ne se rattachent jamais à un seul des trois types de domination distingués par Max Weber (2).

2° Le terme de « concept analytique » se fonde sur la distinction proposée par Kant entre les jugements analytiques et les jugements synthétiques. Les jugements analytiques sont ceux qui sont universellement vrais, parce que leur valeur de vérité ne dépend pas de l’expérience. La « vitesse » est un concept analytique parce que la signification de ce concept est toute entière contenue dans sa définition : la vitesse est le rapport de l’espace parcouru par un mobile au temps mis pour le parcourir. Tout au contraire, les « concepts synthétiques », ou « phénoménaux », ont la particularité d’engager des qualités extérieures au concept.

3° Les « concepts quantitatifs »,  tels que distingués par Rudolf Carnap, constituent une espèce des précédents. Par exemple, la « vitesse » v CorteX_mobius_escher=  dx/dt, l’« accélération » γ = d²x/dt², la « force » F = mγ sont des concepts analytiques quantitatifs parce qu’ils résultent de la combinaison de grandeurs élémentaires mesurables (dans le cas de la vitesse : une certaine quantité d’espace dx et une certaine quantité de temps dt). Au contraire, les « concepts qualitatifs » ne supposent aucune mesure. C’est le cas des concepts de la topologie, comme ceux de « boule » ou d’« anneau de Möbius » (voir ci-contre, l’anneau de Möbius par le graveur Escher).

4° Le nom de « désignateur semi-rigide », introduit par Jean-Claude Passeron, fait directement référence aux « désignateurs rigides » du logicien Saül Kripke (3). On peut définir ces deux termes relativement l’un

à l’autre. Les désignateurs rigides se distinguent par la régionpropriété d’avoir le même référent dans tous les mondes possibles. Par exemple, l’« eau » est identique à elle-même dans tous les mondes où il y a de l’eau ; le nombre « π » est toujours identique à lui-même, etc. Par différence, Passeron nomme « désignateurs semi-rigides » ou « semi-noms propres » les « concepts indexés sur une série de cas singuliers ». Ainsi, le « féodalisme » ne se présente que dans certaines sociétés comme le Japon de l’ère Kamakura, la Chine des Royaumes combattants ou l’Europe médiévale.

En dépit de leur parenté, il faut bien voir qu’idéaltype et désignateur semi-rigide caractérisent deux réactions possibles au problème de l’inadéquation des concepts au réel. D’un côté, l’idéaltype accentue l’écart au réel. Max Weber précise : « par son contenu, cette construction a le caractère d’une utopie » ; « l’idéaltype est un tableau de pensée, il n’est pas la réalité historique ni surtout la réalité « authentique » ». Ainsi parle-t-on de « capitalisme » ou de « libre concurrence », quel que soit le contexte économique qui en constitue une approximation, en sachant qu’il s’agit d’une fiction visant moins l’adéquation au réel que la pureté logique. En ce sens, l’idéaltype « sort » de l’histoire. C’est ce qui justifie notamment le commentaire de Julien Freund : « la description que Weber fait de la bureaucratie est idéaltypique, ce qui signifie […] que les traits qu’il énumère [activité à plein temps, gestion rationnelle, subordination à une autorité, hiérarchie, spécialisation et technicité des fonctions] valent pour toute bureaucratie moderne, indépendamment des variations particulières et contingentes dans les divers pays ». Cependant, Weber particularise parfois l’idéaltype : c’est le cas lorsqu’il spécifie « christianisme » en « christianisme médiéval » ou « charisme » en « charisme anti-autoritaire bonapartiste ». L’idéaltype rentre alors dans l’histoire, ce qui fonde la lecture de Passeron. Car le désignateur semi-rigide, qui n’est pas une utopie, incite à accoler au concept ses traits contextuels les plus saillants. Pourquoi sommes-nous tentés de préciser « capitalisme spéculatif » ou « christianisme médiéval » au lieu de « capitalisme » et « christianisme » sinon pour ne pas désindexer ces concepts ? Face au problème de l’inadéquation du concept au réel, l’idéaltype s’oriente par excès (il accentue la différence) ; le désignateur semi-rigide par défaut (il réduit la différence).

Se pose ensuite la question des critères en fonction desquels distinguer les différentes espèces de concepts qui viennent d’être d’énumérées. Je propose les suivants :

1. Les concepts taxinomiques donnent naissance à des classifications ; les concepts idéaltypiques à des typologies. Les premières recourent à des critères dichotomiques ou exclusifs, les secondes à des critères inclusifs.

Par conséquent, elles peuvent être départagées sur la base du critère 1 :

dans une classification, un élément appartient à une classe et à une seule versus  dans une typologie, un élément peut appartenir à plusieurs types simultanément.

La graminée Avena stricta dépend du genre Avena à l’exclusion de tout autre genre ; le régime nazi dépend de la domination charismatique sous certains aspects mais de la domination légale-rationnelle à d’autres points de vue.

2. Concepts analytiques et phénoménaux se distinguent tout d’abord par leur propriété fondamentale (prédicat interne donné par définition versus prédicat externe). Les seconds ont une propriété distinctive qui tient à leur rapport à l’inadéquation des concepts au réel. Les idéaltypes consistent en tableaux abstraits épurés ; les désignateurs semi-rigides ont un caractère ad hoc prononcé, d’où suit le critère 2 :

les concepts analytiques sont toujours vrais versus les concepts phénoménaux ne sont que des approximations de la réalité — soit par orientation abstraite (idéaltype), soit par orientation adhociste (désignateurs semi-rigides).

La vitesse dx/dt permet de mesurer indifféremment la vitesse du son cS = 330 m.s–1 ou la vitesse de propagation d’une vibration dans l’acier cA ~ 5000 m.s–1. L’influence exercée par le mahâtma Gandhi lors de la « Marche du Sel » reste une approximation de la domination charismatique.

3. La définition des concepts quantitatifs suffit à les distinguer des concepts qualitatifs, ce qui conduit au critère 3:

les concepts quantitatifs supposent la réalisation d’une mesure (qui exige à son tour la définition de certains règles comme la transitivité, ou le choix d’une échelle de mesure) versus les concepts qualitatifs ne l’autorisent pas.

Citons, dans le domaine démographique, l’âge qui est un concept quantitatif (un enfant de 3 ans et demi), alors que le statut matrimonial (célibataire, marié, divorcé, veuf) est qualitatif : même si l’on peut envisager un « codage » des caractères, cela ne constitue en rien une « mesure » au sens scientifique du terme.

4. Désignateurs rigides ou semi-rigides se distinguent aisément par la propriété énoncée par Kripke, fondement du critère 4 :

les désignateurs rigides ont toujours le même référent versus les désignateurs semi-rigides ont un référent variable, indexé sur les différents contextes sociohistoriques.

Le nombre π = 3,14159265… est une constante dans tous les mondes possibles ; le capitalisme change de forme selon que l’on vise le « capitalisme productif » des années 1950 ou le « capitalisme spéculatif » des années 2000.

Deux versions de l’épistémologie sociologique

Nous avons défini les concepts utiles et les moyens de les distinguer. La question est de savoir si les sciences naturelles et les sciences sociales — qui s’occupent de classes de faits différents — doivent pour cela recourir à des principes épistémologiques différents. Les critères imaginés par les tenants de positions dualistes ourégionalistes (4) étant innombrables, je m’occuperai ici du statut des concepts en tant qu’il sert d’argument au débat à l’exclusion de toute autre considération. La thèse d’une épistémologie propre de la sociologie repose sur le statut particulier que l’on accorde aux concepts sociologiques. Limitons-nous à un exemple classique, dont l’auteur est connu et apprécié pour le sérieux de ses recherches. Dans Le Raisonnement sociologique, Jean-Claude Passeron soutient — c’est une conséquence de la thèse 2 et de son corrélat 2.3 — que tous les concepts sociologiques ont un statut logique de désignateurs semi-rigides :

« Il n’existe pas et il ne peut exister de langage protocolaire unifié de la description empirique du monde historique », « Le lexique scientifique de la sociologie est un lexique infaisable », « Le statut sémantique des concepts sociologiques se présente […] comme un statut mixte, intermédiaire entre le nom commun et le nom propre », « Les concepts sociologiques sont des noms communs […] qui ne peuvent être complètement coupés de leur référence déictique à des noms propres d’individualités historiques » (5) (mises en gras par D. Raynaud).

L’auteur soutient que les concepts insérés dans une démonstration sociologique diffèrent de ceux qui sont utilisés dans les sciences de la nature. Il assujettit l’épistémologie à l’ontologie sociologique : cette discipline traitant d’objets spécifiques, ses concepts sont spécifiques.

Mais il importe de voir qu’il existe deux manières de soutenir cette thèse :
Thèse forte – la sociologie se distingue des sciences naturelles parce que ses concepts sont d’une nature différente : les sciences naturelles recourent à des concepts analytiques et taxinomiques ; la sociologie recourt à des concepts idéaltypiques ou semi-rigides.
Thèse faible – la sociologie se distingue des sciences naturelles parce que, quoiqu’elle fasse un usage régulier de concepts analytiques et taxinomiques à l’instar des sciences naturelles, elle est la seule à employer des concepts idéaltypiques et semi-rigides.

Examen de la thèse forte

Un des caractères saillants des sciences naturelles, en particulier de la physique, est le fait qu’elles utilisent des concepts analytiques mathématiques.

Or, l’examen le plus vague laisse apparaître que beaucoup de concepts sociologiques ne sont assujettis à aucune singularité socio-historique (rationalité téléologique ou axiologique, décision, déclassement, agrégation, effet pervers, mobilité sociale, etc.). On trouve donc en sociologie des concepts qui ne sont rien moins que des concepts taxinomiques ou analytiques, au sens des définitions 1 et 2 données au début de ce texte. Laissons de côté les concepts taxinomiques  et voyons plutôt le cas des concepts analytiques.
Il existe tout d’abord un argument de fait. L’existence d’une sociologie mathématique est le premier argument sérieux de l’existence de ces concepts analytiques en sociologie : statistique descriptive et inférentielle, analyse factorielle sont des chapitres connus des sociologues. Mais d’autres sont également pourvus d’applications sociologiques : analyse combinatoire, théorie des jeux, théorie de la décision, théorie des choix collectifs, processus stochastiques (par exemple, les chaînes de Markov appliquées à la modélisation de la mobilité sociale), théorie des graphes (formalisation des réseaux sociaux), treillis de Galois (extraction des caractéristiques communes des individus d’un réseau), etc. Tous constituent des domaines par excellence où le raisonnement porte exclusivement sur des concepts analytiques.

Se présente ensuite un argument historique que rappelle Marc Barbut (6). Cet argument — opposé au jugement d’André Weil — est que les sciences sociales ont très directement contribué au développement des mathématiques. Barbut signale les contributions de Pascal, Huygens, Leibniz au calcul des probabilités (issu d’un problème de décision) ; celles de Jacques et Nicolas Bernoulli à la statistique inférentielle ; celles de Condorcet, Zermelo, Borel et von Neumann à la théorie des jeux. Mais si les mêmes savants ont contribué au progrès des sciences physiques et à celui des sciences sociales, pourquoi auraient-ils fait de bonnes mathématiques en physique et de mauvaises mathématiques en sociologie ?

Examinons maintenant un concept de cette sociologie mathématique dont il vient d’être question, et prenons le cas de la sociologie des réseaux.

1° Cette spécialité utilise des concepts analytiques quantitatifs (au sens de Carnap), qui tirent leur caractère de la théorie mathématique sous-jacente à la sociologie des réseaux : la théorie des graphes. Distinguons tout d’abord les relations orientées (don, conseil, etc.) des relations non orientées (mariage, interconnaissance, etc.) Les relations du premier type permettent la construction d’un graphe orienté dont la « densité » vaut D= L/(g(g – 1)) où L représente le nombre d’arcs et le g le nombre de sommets du graphe. Le concept de densité est organiquement lié à une mesure : il s’agit, au sens de Carnap, d’un concept quantitatif intensif (non additif) qui satisfait aux règles classiques permettant de définir la mesure :

1° existence d’une relation d’équivalence ;
2° existence d’une relation d’ordre ;
3° choix du zéro (D = 0 pour une collection de sommets déconnectés) ;
4° choix d’une unité (D = 1 dans un graphe complet) ;
5° choix d’une échelle (0 ≤ D ≤ 1).

Je ne vois pas que la sociologie utilise ici des concepts d’un statut logique différent de celui qui caractérise les concepts des sciences physiques. Carnap explique d’ailleurs fort bien ce qui fonde cette absence de différence entre physique et sociologie :

« Les concepts quantitatifs ne nous sont pas donnés par la nature ; ils découlent de la pratique qui consiste à appliquer des nombres aux phénomènes naturels. Quel avantage y a-t-il à cela ? Si les grandeurs quantitatives étaient fournies par la nature, nous ne songerions pas à poser la question, pas plus que nous ne demandons : à quoi servent les couleurs ? La nature pourrait fort bien exister sans couleurs, mais on a plaisir à percevoir leur présence dans le monde. Elles font partie de la nature, tout simplement ; nous n’y pouvons rien. Il n’en va pas de même pour les concepts quantitatifs. Il font partie du langage et non pas de la nature » (R. Carnap, Les Fondements philosophiques de la physique, p. 107).

Il s’ensuit que la présence ou l’absence de concepts analytiques (quantitatifs) dans une discipline ne tient pas à la nature des faits empirique étudiés par cette discipline, mais à une décision de l’observateur de se donner (ou non) des définitions strictes et un système de mesure des observables : c’est ce qu’a su faire la sociologie des réseaux, en appliquant le langage de la théorie des graphes aux relations sociales.

2° Certaines démonstrations sociologiques recourent presque exclusivement à des concepts analytiques de ce type. C’est le cas de la juridicisation croissante des sociétés modernes expliquée par Piaget à partir de la distinction faite par Franck et Timasheff entre relations interpersonnelles et relations transpersonnelles. Supposons un groupe composé des individus A, B, C… Par rapport à A, les liens (A, B), (A, C), (A, D)… sont des relations interpersonnelles (notées rip), les liens (B, D), (C, B), (C, D) sont des relations transpersonnelles (notéesrtp). Les relations interpersonnelles sont des relations directes ; elles sont impliquées dans une action réciproque classique (A cause un préjudice à B ; B demande réparation à A). Les relations transpersonnelles mobilisent quant à elles des formes de jugement indirect (A cause un préjudice à B ; B en informe C ; C juge l’action de A collectivement préjudiciable). Si l’on fait une combinatoire de ces relations dans un graphe complet de n individus, on constate que :

Card (rip) = n (n – 1)           et          Card (rtp) = n (n – 1)(n – 2) / 2

La croissance des rip et des rtp obéit au fait que les relations interpersonnelles varient comme n2 alors que les relations transpersonnelles varient comme n3. L’écart entre rip et rtp croît en fonction de n. Il est donc faible dans les sociétés peu volumineuses (hordes, tribus), fort dans les sociétés volumineuses (états-nations modernes). À mesure que croit le volume de la société, le règlement des différends fondé sur les rip (action en retour) cèdera la place à un règlement fondé sur les rtp (évaluation juridique par des tiers). C’est pourquoi on peut observer une juridicisation croissante des sociétés modernes. La réduction d’une société à un graphe complet est une idéalisation, mais les concepts qui interviennent dans cette démonstration sont tous des concepts analytiques ; aucun ne peut porter le nom de désignateur semi-rigide.
La thèse de l’absence en sociologie des concepts analytiques est donc inexacte. Elle n’est vraie que de la seule partie de la sociologie qui en condamne l’usage.

Examen de la thèse faible

Pour que la thèse faible soit réfutée, il faut établir la présence de concepts idéaltypiques ou de désignateurs semi-rigides dans les sciences naturelles. Admettons par hypothèse que les concepts de la sociologie sont des idéaltypes ou des désignateurs semi-rigides. Ces espèces sont-elles inconnues dans les sciences physiques ?

Concepts idéaltypiques

La spécialité de la sociologie tient-elle à son usage des idéaltypes ? Si le mot n’est pas utilisé en physique, sa définition est applicable à certains concepts. Renvoyons aux textes :

« Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai, on dit que l’instrument est stigmatique pour le couple de points AoAi […] Un tel stigmatisme est rigoureux si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao, c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, l’instrument altère toujours le caractère ponctuel de l’image […] Le stigmatisme rigoureux est donc une idéalisation ».
« Dans un repère galiléen, toute particule isolée décrit un mouvement rectiligne et uniforme […] Pratiquement, l’univers dans lequel nous vivons est constitué de nombreuses particules et la particule isolée est une vue de l’esprit. Cependant les interactions entre particules diminuent lorsque la distance entre ces particules augmente » (J. Bok et P. Morel, Mécanique/Ondes, Paris, Hermann, 1971, p. 25, 40).

« Lumière monochromatique », « milieu homogène et isotrope », « stigmatisme rigoureux », « particule isolée », « choc élastique », « gaz parfait », « corps noir » sont des concepts analytiques qui n’ont de corrélats empiriques qu’approximatifs. Le physicien manipule des concepts purifiés. Dans le monde réel, il sait que les concepts sont des idéalisations qui décrivent approximativement les phénomènes réels qui apparaissent spontanément. En quoi cela fait-il une différence avec la sociologie ?

Désignateurs semi-rigides

Le référent d’un désignateur rigide est identique à lui-même dans tous les mondes possibles ; celui d’un désignateur semi-rigide doit varier en fonction du contexte. Esclavage romain/colonial, judaïsme ashkénaze/séfarade, etc. Dans tous ces cas on retrouvera l’idée d’une « indexation sur une série mobile de cas singuliers ». Mais la sociologie est-elle seule à utiliser des désignateurs semi-rigides ? La réponse est négative. Les astronomes distinguent les concepts analytiques explicatifs (rayon, masse, magnitude absolue, température de surface, pression, etc.) et les concepts phénoménaux (étoiles, amas, galaxies). Prenons le cas des étoiles. Si l’on réunit les « désignateurs » couramment utilisés par les astronomes, les étoiles sont identifiées comme :étoiles de Wolf-Rayet, nébuleuses planétaires, super-géantes, géantes rouges, sous-géantes, naines, naines blanches, naines brunes, étoiles carbonées, novae, supernovae, étoiles à neutrons, trous noirs, étoiles variables périodiques ou non, pulsantes ou non pulsantes, Céphéides, étoiles RR Lyrae, Mira, δ Scuti, βCMa, ZZ Ceti, P Cygni, étoile de Barnard, étoiles binaires, pulsarsetc. On trouve là une telle diversité que certains, comme Audouze, n’hésitent pas à parler de « zoologie stellaire » (J. Audouze et J. Lequeux, Cours d’astrophysique 1976-1977, Palaiseau, École Polytechnique, 1977, p. 35).

On trouve dans cette liste l’équivalent exact des « désignateurs semi-rigides » ou « semi-noms propres ». Les Céphéides (massives) et les étoiles RR Lyrae (peu massives) sont des étoiles variables dénommées par le nom propre d’un cas paradigmatique (δ Cephei pour les Céphéides). C’est également en ce sens qu’on parle des étoiles de type ZZ Ceti, etc. La dénomination des étoiles variables a largement utilisé ce procédé : un « nom propre » (au sens de Kripke) est pris comme « profil » de reconnaissance d’autres objets célestes. Par suite, il devient un « semi-nom propre » indexé sur une série de cas singuliers.

On ne voit guère ce qui distingue ce procédé intellectuel de celui préconisé par Passeron, ou même par Weber, lorsqu’il définit les formes de charisme en relation avec l’économie : charisme bonapartiste, charisme de Périclès ou charisme américain. Là encore, il s’agit d’identifier un type, non tant par ses caractéristiques abstraites, que par les propriétés singulières exhibées par le cas paradigmatique.

Classification ou typologie stellaire ?

Admettons enfin que la sociologie recoure à des typologies versus classifications. Est-elle la seule dans ce cas ? Prenons un exemple qui révèle assez bien la limite de cette distinction.

Les étoiles sont assujetties à la classification de Harvard, fondée sur la température de surface et la magnitude absolue. On distingue les classes O, B, A, F, G, K, M (des hautes aux basses températures) elles-mêmes subdivisées en sous-classes par un suffixe décimal 0…9. Chacune correspond à un ensemble de propriétés physiques. Les astronomes se réfèrent à cette « classification » en employant indistinctement les mots « classe » ou « type spectral ». Que signifie cette hésitation? L’analyse montre qu’il ne s’agit pas d’une inadvertance : le choix de « type » est légitime. Il existe même des raisons tout à fait fondées de préférer le syntagme « type spectral » à celui de « classe spectrale », en dépit du flottement terminologique qui caractérise leur usage.

Rappelons les principales, qui sont au nombre de six.

1. Les types spectraux ne permettent d’identifier correctement que les étoiles (naines) de la « séquence principale » du diagramme de Hertzsprung-Russell : il existe toujours des étoiles plus froides ou plus chaudes de même type spectral.

2. Ces anomalies ont été à l’origine d’une nouvelle classification dite de Yerkes ou MKK (Morgan, Keenan, Kellman, 1943) en « classes de luminosité » ; on ajoute le suffixe 0, Ia, Ib, II, III, IV, V, sd (VI), wd (VII) pour caractériser l’étoile : le Soleil est par exemple une étoile G2 V. La classification a par ailleurs été complétée par l’introduction de nouveaux types : W (puis Q et P) en amont de O et des types C (subdivisé en R et N), S et L, T en aval de G.

3. Ces classifications n’absorbent pas la diversité du phénomène « étoile ». Le concept d’« étoile G » est un profil de reconnaissance qui laisse des différences résiduelles entre deux étoiles G du même type ou du même sous-type (Soleil, α Centauri, β Comae Berenicesetc.). C’est le diagnostic qui ressort de ce texte de Schatzman :

« La classification spectrale à deux dimensions est à la fois un acquis fondamental de l’astrophysique stellaire et la grille de référence par rapport à laquelle s’établissent toutes les singularités. En effet de nombreuses étoiles ne se plient pas aisément aux règles de la classification MKK : elles sont particulières. C’est le cas des étoiles à raies d’émission de type B, dites Be, dont un prototype est αCas ; des étoiles de type A et B ayant des raies intenses d’éléments très peu répandus comme le gadolinium, le mercure ou les terres rares, ou aussi des raies anormalement intenses de certains élements connus (Mn, Si, Fe) : on les nomme Ap et Bp ; des étoiles de type K et M à éruptions ou à raies d’émission : on les note Ke ou Me (exemples : α Cen C et UV Cet), des étoiles à baryum, etc. », E. Schatzman et F. Praderie, Astrophysique. Les étoiles, Paris, CNRS, 1990, p. 39 (mes italiques).

Ce texte montre on ne peut mieux l’écart perçu entre la classification spectrale et les objets célestes singuliers que rencontre l’astrophysicien dans ses observations. Reconnaître pleinement ces singularités n’impose ni d’abandonner la classification — au motif qu’elle serait dénuée de pouvoir descriptif —, ni de négliger les caractères particuliers des objets observés — au motif qu’ils devraient se plier entièrement à la description qu’en donne la classification.

4. La double classification par types spectraux et par classes de luminosité n’épuisant pas les propriétés des objets connus, les astronomes tombent régulièrement sur des objets célestes atypiques. On a donc proposé de compléter la nomenclature par des indications extérieures. Les astrophysiciens utilisent aujourd’hui un système de quinze suffixes indiquant les propriétés remarquables absentes de la classification. Voici la liste de ces suffixes :

e émission (hydrogène dans les étoiles de type O)
em émission de raies métalliques
ep émission particulière
eq émission à profil P Cygni (absorption des faibles longueurs d’ondes)
er émission inversée
f émission de l’hélium et du néon dans les étoiles de type O
k raies interstellaires
m fortes raies métalliques
n raies diffuses
nn raies très diffuses
p spectre particulier
s raies étroites
v variation dans le spectre
wk raies faibles

L’examen de cette liste montre que les suffixes désignent : tantôt un phénomène atypique (cas des spectres eq, er) ; tantôt — ce qui est plus intéressant pour notre comparaison — un phénomène proprement inclassable (cas des spectres ep, p, v).

5. Ensuite, il faut observer que, contrairement à ce que suggèrent les mots « classes » et « classification », les étoiles peuvent appartenir à plusieurs classes, y compris même à des classes que tout oppose a priori. Reprenons la classification à partir des données récentes recueillies par Hipparcos, chargé d’établir un catalogue de 115 000 étoiles jusqu’à la 12e magnitude. Leur positionnement sur le diagramme de Hertzsprung-Russell forme un nuage en Y (séquence principale + sous-géantes). Le dépouillement des données Hipparcos a révélé le défaut de correspondance exacte entre type spectral et magnitude absolue qui est au fondement de la classification. La définition des « standards » (c’est-à-dire des étoiles paradigmatiques servant de référence à chaque sous-type) est confrontée à ces anomalies. L’analyse des données Hipparcos a récemment conduit Ginestet, Carquillat et Jaschek à la découverte d’étoiles ayant un statut paradoxal, hybride entre « naines » et « géantes » :

« HD 204613 est une étoile de type G1 IIIa : CH1,5 dont les données photométriques et spectroscopiques sont en nette opposition […] la photométrie correspondrait à celle d’une naine et le spectre indiquerait une classe III [géante]. Deux autres étoiles géantes sortent aussi nettement du groupe mais, cette fois, en direction de la classe II : ce sont HD 81817 et HD 176670 », N. Ginestet, J.-M. Carquillat, C. Jaschek, Astronomy and Astrophysics, Supplement Series 142 (2000): 13-24.

Ces cas permettent de douter que l’intérêt des singularités soit un caractère propre de la sociologie. La « zoologie stellaire » n’est pas moins foisonnante de cas singuliers. Mais il existe encore une façon de sauver l’irréductibilité épistémologique de la sociologie : prétendre que l’astrophysicien — au contraire du sociologue — tente, à travers cette zoologie, de confirmer la typicalité des objets célestes. Est-ce le cas ? Deux indices paraissent montrer le contraire :

1° le nombre de publications consacrées aux objets « exotiques » (en dehors de la séquence principale) qui sont pourtant d’une abondance tout à fait négligeable dans l’univers ;

2° le nombre de publications consacrées à des phénomènes singuliers comme l’éruption solaire du 25 juillet 1946 ; la couronne blanche de l’éclipse totale de Soleil du 30 juin 1973 ; l’environnement de β Pictoris ou la supernova 1987A parfois considérée comme supernova « hors la loi » à cause de sa courbe de luminosité.

Les astrophysiciens n’ont pas l’obsession de la typicalité. Ils s’intéressent également aux singularités. Cela fait-il une différence avec la sociologie ?

Conclusion

Certains concepts sociologiques sont des concepts idéaltypiques et des désignateurs semi-rigides ; d’autres sont des concepts analytiques. Certains concepts des sciences physiques sont des concepts analytiques quantitatifs, d’autres des concepts typologiques et des désignateurs semi-rigides. L’ontologie sociologique ne secrète donc pas de concepts ayant une nature spéciale. De ce fait, la thèse forte et la thèse faible sont réfutées. Le statut des concepts n’est pas un argument du dualisme ou du régionalisme, au sens où l’on devrait — à cause de celà — juger la sociologie selon des normes spéciales de scientificité.

Il existe évidemment bien d’autres critères à partir desquels on peut essayer de donner à la sociologie un statut épistémologique particulier, mais ce n’est pas le lieu de les examiner ici (7).

Dominique Raynaud. Contact : dominique.raynaud (at) upmf-grenoble.fr.


Notes

(1) « L’idéaltype […] n’a d’autre signification que d’un concept limite purement idéal, auquel on mesure la réalité pour clarifier le contenu empirique de certains de ses éléments importants », M. Weber, Essais sur la théorie de la science, Paris, Plon, 1992, p. 172.

(2) Weber distingue trois types de domination légitime : la domination légale-rationnelle (le chef tire sa légitimité d’un ordre rationnel défini par les « membres » de la société), la domination traditionnelle (aux yeux des « sujets » le chef est investi d’une légitimité issue de la tradition) et la domination charismatique (le chef tire sa légitimité des capacités extraordinaires que veulent bien lui prêter ses « disciples »). Il est rare de rencontrer ces types à l’état pur. Les cas historiques de domination sont le plus souvent des mixtes (la légitimité de De Gaulle était essentiellement du type légal-rationnel, mais des éléments de charisme l’ont probablement renforcée).

(3) Kripke donne la définition suivante : « un désignateur désigne un certain objet rigidement s’il désigne cet objet partout où celui-ci existe ; si, de surcroît, l’objet existe nécessairement, le désignateur peut être appelé « rigide au sens fort » », S. Kripke, La Logique des noms propres, Paris, Éditions de Minuit, 1982, pp. 36-37. Outre les noms propres (« Neptune »), les désignateurs rigides absorbent les constantes (« π », rapport de la circonférence du cercle à son diamètre) et les concepts d’usage partitif (« eau », « oxygène », etc.).

(4) Plusieurs expressions ont été utilisées pour dire que la sociologie n’était pas une science comme les autres. On a parlé du dualisme des sciences naturelles et sociales – au sens où il existerait deux blocs de sciences disjoints. Cette expression, qui implique une séparation radicale des mondes naturel et humain, fait référence au Methodenstreit allemand, dominé par la figure de Dilthey. On parle aussi de régionalisme, dans un sens très librement dérivé de Bachelard et de Bunge, au sens où chaque discipline possèderait des caractères propres. Le régionalisme n’a pas les mêmes implications que le dualisme. D’abord, parce qu’il peut se dispenser de penser une opposition frontale entre sciences naturelles et sciences sociales. Ensuite, parce qu’il n’est pas tenu de postuler une unité au sein de ces ensembles de disciplines – ce que fait le dualisme. Cette unité étant discutable, le régionalisme nécessite moins d’hypothèses. Toutefois, il existe des passerelles entre dualisme et régionalisme. Si on s’intéresse à une seule discipline, ces expressions deviennent à peu près équivalentes, puisqu’elles cherchent à identifier les caractères distinctifs d’une discipline par rapport aux autres.

(5) J.-C. Passeron, Le Raisonnement sociologiqueop. cit., pp. 363, 371.

(6) M. Barbut, Les mathématiques et les sciences humaines. Esquisse d’un bilan, L’Acteur et ses Raisons. Mélanges en l’honneur de Raymond Boudon, Paris, PUF, 2000, pp. 205-224.

(7) Pour une analyse critique de plusieurs autres critères, voir D. Raynaud, La Sociologie et sa vocation scientifique, Paris, Editions Hermann, 2006.