Cours-conférences de Jean Bricmont : comprendre la science

Comprendre la science, par Jean Bricmont.
Les trois émissions de radio qui suivent sont des moments magistraux d’épistémologie. Elles ont été enregistrées et mises en ligne par l’Académie royale de Belgique. La diffusion de tels contenus n’étant pas l’apanage d’un droit régalien, nous nous permettons de vous les proposer ici.

 

 

CorteX_Jean_Bricmont« La science a toujours été au centre de débats et elle l’est encore aujourd’hui. Elle a bouleversé notre façon de comprendre l’univers et de nous comprendre nous-mêmes. Néanmoins, dans une bonne partie de la culture intellectuelle, la science est incomprise ou est vue avec suspicion. Elle suscite l’hostilité à la fois de courants religieux « fondamentalistes » et d’une intelligentsia relativiste ou postmoderne.

Le but de ce cours-conférence en trois leçons est de présenter et de défendre ce qu’on pourrait appeler une approche scientifique du monde. Au cours du XXe siècle, toute une série de philosophes, historiens et sociologues ont tenté de caractériser ce qui faisait la particularité de la démarche scientifique, par opposition à celle des religions ou des pseudosciences. Dans la première moitié du siècle, divers penseurs ont cherché à établir une ligne de démarcation entre science et non-science, en s’appuyant principalement, soit sur la notion de confirmation (les positivistes logiques), soit sur celle de falsifiabilité (Popper). À partir des années 1950-60, suite aux travaux de Quine, Kuhn, et Feyerabend, les critères de démarcation mis en avant précédemment ont été progressivement mis en question, pour déboucher parfois sur une vision purement sociologique et relativiste de la distinction entre science et non-science.

Un des objectifs poursuivis sera de distinguer ce qui est valide de ce qui ne l’est pas dans ces critiques « post-positivistes » de l’épistémologie de la première moitié du XXe siècle. Un autre objectif sera proposer une alternative à cette épistémologie ».

  • Cours N°1. Les notions de vérité et d’objectivité, le réalisme et l’idéalisme.

Écouter :

. Télécharger ici (44Mo)

  • Cours N°2. Comment déterminer dans les discours des sciences, des pseudo-sciences et des religions, ce qui est vrai ?

Écouter :

Télécharger ici. (66Mo)

  • Cours N°3. Que penser du déterminisme, du réductionnisme, ou du matérialisme ?

Écouter :

Télécharger là (54Mo)
Les références données par Jean sont :

Richard Monvoisin

 

Biologie, épistémologie – Guillaume Lecointre, des sciences très sollicitées

Des sciences très sollicitées

L’évolution biologique est rarement bien enseignée dans les écoles publiques de par le monde, quand elle l’est. Il est vrai qu’il est difficile de parler d’un phénomène qui échappe à nos sens, et dont les changements qu’il produit sur les êtres vivants sont dépourvus de toute notion de destin : rien n’est écrit à l’avance. Rien de plus difficile pour notre psychologie et notre grammaire, habituées à se penser dans une finalité. Mais surtout, l’évolution biologique contient ce que les sciences ont à dire sur l’origine des êtres vivants, de l’homme et de ses sociétés. Or, ce terrain-là est déjà largement investi, hors des laboratoires et des écoles publiques, par d’autres modalités d’affirmations sur le monde, dont certaines n’entendent pas laisser aux sciences leur autonomie dans la validation des savoirs.

CorteX_science_vs_creationismOn ne s’attardera pas sur les créationnismes « négationniste » et « mimétique ». Ils se fondent sur le récit de la création de l’univers dans les grands textes monothéistes, pris de façon littérale. Les contradictions qui en résultent provoquent une négation des résultats des sciences dans le premier cas, ou bien une « science créationniste » qui établit les prétendues preuves de la vérité littérale du texte dans le second cas. Le premier est notamment représenté par Harun Yahya, pseudonyme de M. Adnan Oktar, homme d’affaires et d’influence turc, qui distribua en janvier 2007 dans toute l’Europe son Atlas de la Création, (auto-édité, Global Publishing) y compris dans les établissements scolaires et laboratoires français. En janvier 2012, via Harun Yahya France, il organisait à Paris, à Rouen et à Évry, une série de conférences : « L’impasse moléculaire de la théorie de l’évolution » « l’effondrement de la théorie de l’évolution »…

Mais il existe une autre stratégie, plus fine, celle d’un créationnisme « normatif » qui entend redéfinir les sciences de l’extérieur, et faire accepter comme scientifique le recours à la Providence. Ce sera le propos de l’ « Intelligent Design », le dessein intelligent. Il n’y a plus de référence aux textes sacrés, mais un « constat »: « L’existence et le développement sur terre requièrent tellement de variables qu’il est impossible qu’ils se soient ajustés par des évènements aléatoires et non-coordonnés »[2]. En d’autres termes, certaines caractéristiques du vivant seraient mieux expliquées par une cause intelligente, que par des processus de variation-sélection. Ce dessein intelligent, développé aux États-Unis par le Discovery Institute, un think tank conservateur chrétien, n’est autre que la théologie naturelle déguisée en science.

Enfin, il existe un spiritualisme englobant, qui n’est pas un créationnisme au sens étroit, mais qui tente de mobiliser la communauté professionnelle des chercheurs dans une « quête de sens », en créant une confusion entre ce que ces derniers peuvent dire individuellement, et ce qu’ils sont habilités à dire en tant que membres de la communauté scientifique. En France, c’est l’Université interdisciplinaire de Paris (UIP) qui agit en ce sens, financée notamment par l’organisation américaine John Templeton Foundation du nom de son fondateur, milliardaire philanthrope et presbytérien (1912-2008). Ce dernier considérait que « Dieu se révèle de plus en plus (…) à travers la recherche étonnamment productive des scientifiques modernes », et que « les révélations scientifiques peuvent être une mine d’or pour revivifier la religion au XXIe siècle ». Sa Fondation se donne pour objectif d’encourager « le dialogue civil, informé, entre scientifiques, philosophes et théologiens » [3]; elle se fait de plus en plus incolore afin de souscrire aux critères de la recevabilité académique. La formule fonctionne : pour son colloque des 5 et 6 décembre 2012, l’UIP affiche sa collaboration avec l’Université Paris V.

L’offensive se joue aussi sur le plan politique. Depuis 2003, c’est l’intelligent design que les enfants turcs reçoivent en guise de cours de biologie [4]. En 2004, la ministre italienne de l’éducation nationale et son homologue serbe s’opposent à l’enseignement de l’évolution biologique dans les écoles. En 2006, la ministre néerlandaise propose un référendum sur la question de l’enseignement à l’école publique du « dessein intelligent ». En 2012, l’État américain du Tennessee est le deuxième, après la Louisiane, à autoriser les enseignants à proposer des substituts ou des contre-arguments à l’évolution darwinienne, afin de permettre à l’élève de juger « de manière efficace des forces et des faiblesses des théories scientifiques existantes ». Quatre autres États (Indiana, Missouri, New Hampshire, Oklahoma) examinent des projets de lois comparables.

Si les sciences de l’évolution suscitent tant d’hostilité, alors même que, sans elles, il n’est pas de sélection en agronomie, de lutte contre les agents pathogènes en médecine, de sauvegarde pérenne de la biodiversité, c’est qu’elles semblent interférer avec le domaine des croyances. Il appartient alors aux scientifiques d’expliquer leur « contrat » méthodologique, afin d’inviter leurs concitoyens à ne pas se tromper sur son périmètre de légitimité, de faire comprendre la distinction entre croire et savoir. Surtout, il leur appartient d’expliquer en quoi ces méthodes ne sont pas collectivement mues par une volonté de conforter ou de contredire une croyance particulière. L’articulation entre croyance et savoir est l’affaire de chacun, et les scientifiques ne sont pas des prescripteurs, collectivement, de cette articulation.

CorteX-Flat_Earth_GeographyOr, les créationnismes et spiritualismes cités ont tous un point commun, leur ignorance, réelle ou feinte, de la nature et du périmètre de légitimité de la démarche et du discours scientifiques : ce que les sciences disent, comment elles le disent, ce qu’elles ne disent pas. Quand l’UIP somme les chercheurs de réfléchir aux « conséquences métaphysiques » de leurs découvertes (Le Monde, 23 février 2006) et affirme qu’« un créateur ne peut être exclu du champ de la science », (Le Monde, 2 septembre 2006), elle « oublie » que le propre des sciences n’est jamais de dire ce qu’il faut « croire », mais de démontrer ce qu’il n’est logiquement plus possible de croire. Mais surtout, elle omet de dire si les scientifiques sont appelés à se prononcer sur ces questions à titre individuel, ou à titre collectif. La confusion entraîne le métier de scientifique d’aujourd’hui au delà de sa légitimité. Il s’agit bien là d’une forme de scientisme déguisé. En organisant la confusion entre la quête spirituelle individuelle et le contrat collectif d’une profession, ces offensives peuvent avoir pour effet, à terme, de faire perdre l’autonomie des scientifiques dans la validation des savoirs. En effet, si la profession se voyait collectivement animée d’un agenda métaphysique, il lui faudrait s’attendre à se voir imposé ce qu’il serait conforme de trouver. L’universalisme des connaissances raisonnées, qui tient aujourd’hui précisément à une abstention métaphysique, ne serait plus possible et l’on assisterait à une communautarisation des savoirs.

Il est donc nécessaire d’expliciter le but des sciences et les attendus méthodologiques tacites d’une démarche scientifique, ce qu’on attend de nos doctorants sans le leur dire – le contrat méthodologique, en quelque sorte. Le rôle des sciences, en tant qu’entreprise intellectuelle collective, est de fournir des explications rationnellement justifiées du monde réel à partir d’expériences testables, reproductibles, validées par des observateurs indépendants. L’« expérience » doit être prise au sens large, incluant le produit des enquêtes et les démonstrations mathématiques. Ces attendus sont le scepticisme initial sur les faits – toute question relative à des faits peut être légitimement posée et la réponse n’est pas requise à l’avance ; la rationalité – le scientifique doit être logique et suivre un principe d’économie d’hypothèse; le réalisme de principe – il vise à une connaissance objective, c’est-à-dire qu’il souhaite que d’autres puissent corroborer ses affirmations en les vérifiant dans le monde réel ; ce qui signifie que le monde réel existe indépendamment de soi et de ce qu’on en dit, et qu’il se manifestera à un collègue inconnu comme il s’est manifesté à un autre chercheur ; le matérialisme méthodologique – la vérification expérimentale n’est possible que sur ce qui est matériel ou d’origine matérielle. Dit autrement, les sciences ne savent travailler qu’avec ce qui est matière ou propriétés émergentes de celle-ci. Ce matérialisme-là n’est pas un point de vue philosophique : il affirme seulement mais pleinement que la science ne travaille pas avec des entités à la fois déclarées immatérielles et agissant sur le monde réel.

S’agit-il là d’une vision angélique ? D’un mythe ? Non, d’un contrat minimal sans lequel un doctorant n’aurait pas sa thèse, socle commun auquel peuvent s’ajouter des spécificités disciplinaires. Certes, le scientifique peut avoir ses options personnelles, et même des sources d’inspiration mystiques, mais la validation des savoirs relève du collectif : sur le long terme, une connaissance ne se stabilise que si la reproduction d’expériences a dépassé et, en quelque sorte, dissout les dérapages individuels du savant qui aurait oublié de laisser ses opinions au vestiaire en entrant dans le laboratoire. L’espace collectif d’élaboration des savoirs est donc laïque de fait, et travaille sur le long terme. C’est en enseignant explicitement ce contrat de scientificité qu’on se donnera les chances de garantir un socle factuel commun à tous les futurs citoyens, sans lequel on ne construit pas une république qui met la Raison au cœur du vivre ensemble. L’enjeu n’est pas seulement celui de l’autonomie des sciences, il est aussi et surtout à l’école publique.

Faut-il dialoguer avec les créationnistes ? Bien entendu. Mais les scientifiques ne doivent pas offrir le bénéfice de communication que les créationnistes attendent d’un « plateau commun » avec un scientifique du milieu académique devant le grand public. Les créationnistes tireront toujours avantage d’un tel dialogue, parce le scientifique laissera malgré lui entendre au public que son interlocuteur est susceptible de jouer le même jeu que lui. Or, on peut démontrer que toutes les formes du créationnisme moderne commettent des entorses multiples aux termes du contrat tacite énoncé plus haut. C’est au philosophe, au théologien, et à l’élu politique de dialoguer avec les créationnistes. Mais alors, que doivent faire les scientifiques ?

Aux scientifiques du milieu académique, dont le salaire est financé avec de l’argent public pour produire précisément de la connaissance objective et la restituer vers leurs concitoyens, l’État demande d’être garants de la fiabilité des résultats collectivement acquis-tant qu’il y aura un État redistributeur de richesses, richesses culturelles comprises (et comme dirait Chomsky, mieux vaut les grilles de l’état que les fauves qui tournent autour). A eux de signaler les contrefaçons, et de populariser les règles du jeu qui fondent le contrat entre connaissance et science.

Guillaume Lecointre

Cet article sera publié dans le n° 621 des Cahiers rationalistes, à paraître en janvier-février 2013.

[1] Les Sciences face aux créationnismes. Ré-expliciter le contrat méthodologique des chercheurs Coll. Sciences en questions, Quae, Versailles, 2012. Guide critique de l’évolution, Belin, Paris, 2009.

[2] Qu’est-ce que la Théorie du Dessein Intelligent ? (Got questions, réponses théologiques).http://www.gotquestions.org/Francais/dessein-intelligent.html

[3] Voir le site www.templeton.org et aussi Cyrille Beaudouin,Olivier Brosseau, Cette étrange FondationTempleton, La Recherche Hors Série n°4 « Dieu et la Science »,avril 2012.

[4] Somel Mehmet, Somel Rahsan Nazli Ozturkler, Kence Aykut (2007), Turks fighting back against anti-evolution forces, Nature 445 (7124)

L'argumentation et le débat sur les sciences en CM2, par Marine Ridoux

Marine Ridoux, membre de l’Association des Petits Débrouillards, a co-conçu et a co-animé, avec Michel Goldberg, maître de conférence à l’Université de La Rochelle et Stéphanie Vicenzotto, professeure des écoles, un atelier sur l’argumentation et le débat sur les sciences en classe de CM2. Qu’est-ce qu’un argument ? Tous les arguments ont-ils le même poids ? Quelles sont les règles d’un débat équitable ? Ce travail sur l’argumentation a ensuite été mis en pratique sur un sujet complexe : la controverse liée aux énergies. Pour aborder toutes ces questions avec ce jeune public, les animateurs ont eu recours aux jeux de rôle, au théâtre ou encore au débat mouvant. Marine Ridoux nous raconte comment ils s’y sont pris…

L’article suivant a été écrit comme un récit d’expérience. Pour celles et ceux qui seraient tentés de monter un atelier similaire, un descriptif bien plus détaillé est disponible ici.

Nous savions que l’esprit critique peut être enseigné à l’école primaire (on pourra trouver des pistes ici. Vous en connaissez d’autres ? Ecrivez-nous !). Aussi avons-nous tenté de construire des outils de pensée critique dans le but d’aborder des controverses scientifiques avec notre jeune public. C’est ainsi que l’association Les Petits Débrouillards et une professeure des écoles ont proposé à une classe de CM2 (école primaire de Puilboreau en Charente maritime) une animation pour découvrir dans un premier temps ce qu’est un argument et pour débattre ensuite autour du thème des énergies.

Notre association a l’habitude de mettre en place en classe de primaire des ateliers scientifiques basés sur la démarche expérimentale. Cette fois-ci, le but était de donner des outils aux élèves qui leur permettent d’appréhender une argumentation sur une thématique scientifique.

Déroulement de l’activité

Information générale – L’enseignante, Stéphanie Vicenzotto, était chargée de transmettre des notions fondamentales sur le thème des énergies. Après une première séance en classe entière centrée sur la définition de l’énergie et de ces différentes formes, la classe a été divisée en neuf groupes de travail de trois élèves, chacun prenant en charge une thématique précise : nucléaire, pétrole, charbon, gaz naturel, éolien, solaire, hydraulique, géothermique, biomasse.

Recherche d’informations – Dans un premier temps les élèves ont dû réunir des informations sur cette énergie. Les recherches ont été menées à la bibliothèque de la ville, sur Internet, et grâce à certains documents réunis par la professeure des écoles. Pour faciliter les recherches la classe s’était mise d’accord sur un plan commun à chaque énergie : quelle est la source de cette énergie ? Comment est-elle transformée pour être utilisable par l’Humain ? Quels sont les avantages et inconvénients de ce type d’énergie ?

Pour ces recherches, chaque groupe était en autonomie, l’enseignante restant à la disposition des élèves pour toute demande d’information et de conseils.

 Partage des connaissances – Les élèves ont ensuite créé une affiche qui récapitule et met en forme leurs connaissances acquises sur la question.

CorteX_argumentation_CM2_Ridoux_affiche_01
CorteX_argumentation_CM2_Ridoux_affiche_02

Finalement chaque groupe a présenté oralement ses recherches au reste de la classe. Les animateurs ont également assisté aux exposés.

Travail sur l’argumentation – Les animateurs Petits Débrouillards, Michel Goldberg et Marine Ridoux, sont intervenus pendant deux séances d’une heure et demie afin de discuter avec les élèves sur des questions d’argumentation. Les enfants avaient été répartis en deux demi-classes de 14 élèves. L’animation portait sur les questions suivantes : dans quelle situation argumente-t-on ? Qu’est ce qu’un argument ? Est-ce que les raisons appuyant un argument ont toutes la même valeur ? Comment peut-on répondre à des arguments qui sont présentés sans raison, ou dont les raisons sont insuffisantes, fausses, ou encore hors du sujet ?

Les animations dont découlent ces questionnements étaient essentiellement basées sur des jeux de rôles et de théâtre. Pour plus de détails sur l’argumentation et les animations, le déroulé pédagogique complet est disponible,ici.

 Une séance finale a permis de mettre en application les notions abordées durant les deux phases précédentes, celle sur l’argumentation et celle sur la recherche bibliographique : s’écouter, respecter le temps de parole des autres, construire un argument, évaluer si un argument est « vrai », pertinent et suffisant pour justifier la conclusion, mobiliser ses connaissances, construire une opinion personnelle etc.. Pendant une heure, toujours en demi-groupe, il a été proposé aux élèves de débattre selon la technique du débat mouvant.

 

Le débat mouvant se crée sur une affirmation ou une question fermée (par laquelle on ne peut répondre que par oui ou par non). On demande aux participants de choisir leur camp (oui ou non) en fonction de leur opinion initiale, camps qui sont matérialisés dans l’espace et se font face. Chacun des camps reçoit la parole de façon alternée et tente de convaincre les autres grâce à un argument ou un exemple. Chaque fois qu’un argument de l’autre camp est jugé valable par un participant, il change de zone.
Voici les sujets proposés aux élèves :
  • Avec tout ce que nous savons maintenant, il devient important de punir les enfants qui gaspillent de l’énergie
  • Il faut tout de suite arrêter d’utiliser de l’énergie nucléaire et fossile pour n’utiliser que des énergies renouvelables.
  • Tous les enfants du monde doivent pouvoir vivre comme nous aujourd’hui.
  • Seuls les scientifiques sont capables de résoudre les problèmes actuels de l’énergie dans le monde.

Les précautions à prendre pour animer ce type de débats et les consignes données aux élèves sont détaillées ici.

Le public

D’après l’enseignante, les enfants qui ont participé à l’expérience étaient déjà très à l’aise à l’oral et avaient déjà une bonne culture générale. Il nous a également semblé que l’enseignement de la professeure tout au long de l’année a également participé au bon déroulement de l’expérience. En effet, elle a habitué ces élèves à prendre souvent la parole, à faire de nombreux petits exposés, à mener des expérimentations scientifiques et établir des hypothèses par groupe.
Des élèves à l’aise avec la parole et une classe habituée à travailler en groupes nous paraissent être deux conditions nécessaires pour monter un atelier sous cette forme.

Bilan des animateurs

Il nous est apparu que les enfants, dans leur ensemble, ont compris les notions que nous avions apportées. L’ambiance dans la classe était à la fois studieuse et animée. De nombreux enfants ont exprimé une grande satisfaction et une volonté de poursuivre ce type d’animation. Plusieurs enfants ont voulu souligner qu’ils avaient particulièrement aimé cette séance.

 A titre d’exemples, les enfants ont été capables d’identifier et de définir par eux-mêmes plusieurs critères définissant un bon argument (« il faut s’expliquer pour être compris », « il faut laisser le choix »), ou une bonne stratégie argumentative (« il faut parler gentiment »). Il a cependant été difficile de différencier un « bon » argument sur le fond et sur la forme. Par exemple, un argument qui leur semble « gentil » sera forcément un bon argument même si celui-ci n’est pas justifié par des raisons.

 Le temps consacré à l’ensemble des débats a été d’environ 25 minutes. Durant ce laps de temps tous les élèves ont au moins participé une fois même si certains d’entre eux participaient plus que d’autres. Nous avons été surpris de la réponse des enfants face aux questions. D’autant plus, que les questions choisies étaient délibérément piégeuses.

 Par exemple, en leur demandant si Tous les enfants du monde doivent pouvoir vivre comme nous aujourd’hui, nous pensions que la plupart des élèves diraient : oui, tous les enfants doivent pouvoir avoir accès au confort, à l’éducation, etc. Mais au contraire, ils ont dans un premier temps souligné que tout le monde ne voulait pas forcément vivre comme nous, puis qu‘il n’y aurait pas assez de ressources pour que tout le monde vivent comme nous. Un élève a émis l’idée que nous devrions diminuer notre consommation, pour que les autres puissent gagner en confort.

 D’après notre expérience, le format de plusieurs petites questions convient bien à l’âge et au format du débat qui s’essouffle si on ne choisit qu’une seule question. La plus grande difficulté est de choisir les affirmations qui seront débattues. Il est recommandé de les écrire au tableau pour que tout le monde soit d’accord sur les termes.

 Les enfants étaient vraiment très dynamiques, et souhaitaient participer activement. Malheureusement, nous n’avions pas prévu assez de temps pour chaque activité. Parfois, il a fallu les raccourcir. Il aurait fallu un peu mieux cadrer les interventions des enfants et pour certains exercices, il avait été prévu de travailler sur 10 exemples, finalement 5 uniquement ont été traités.

 Une autre critique possible de cette animation est qu’elle est essentiellement basée sur le théâtre et la prise de parole, il serait intéressant de développer de nouvelles activités qui permettent à des enfants peu à l’aise à l’oral de participer.

Bilan de l’enseignante

 La professeure souligne la difficulté d’un tel projet à cause de la grande diversité d’apprentissage que cela implique pour les élèves. Ces nouveaux concepts ont été assimilés par les enfants en trois semaines uniquement. Selon la classe, il pourrait être préférable d’aborder ces différentes notions les unes après les autres, sur le long terme. Ces activités sont très majoritairement basées sur l’oral, or, l’écrit peut aider certains élèves à s’approprier les notions. Il aurait pu être intéressant de demander un exemple écrit individuel aux enfants. Il serait intéressant, de refaire un débat sur un autre thème (écosystème, biodiversité, reproduction,…) afin d’ancrer les acquis.

Perspectives

 De nouvelles expériences pourront être menées en primaire avec des enfants plus jeunes. D’autres types d’activités pourront être testées, favorisant l’expression d’enfants qui ont plus de difficulté pour donner leur avis, notamment dans des classes moins habituées à prendre la parole :

  • jeux de cartes type Seigneur des ténèbres. Dans le jeu classique, un élève joue le rôle du seigneur des ténèbres qui a sous ses ordres un ensemble de serviteurs qui n’arrêtent pas d’échouer dans leurs missions. A l’aide des cartes, les serviteurs construisent leurs argumentaires pour éviter la colère du maître des ténèbres. Celui-ci décide alors (et justifie à l’aide de la séance passée) si l’argumentaire lui semble valable. Certes, il faudra réfléchir à la manière de modifier les rôles et les règles pour rendre ce jeu coopératif ainsi que le thème de départ en fonction du domaine scientifique que l’on souhaite aborder, mais le principe des cartes qui donnent une contrainte ou une piste pour argumenter, ou de celles qui permettent de se faire aider, ainsi que le rôle de la personne qui doit dire si l’argument l’a convaincue ou non, nous paraîssent intéressants.
  • recueil d’opinion dans le cercle familial ou amical sur l’argumentation

Nous aimerions également tester cette animation au niveau du secondaire. Cela pourrait donner lieu à des projets transdisciplinaires (français, sciences, mathématiques, histoire, géographie, théâtre).

D’autres animations pourraient également voir le jour en dehors du cadre scolaire, par exemple dans le cadre duconseil municipal des enfants à Angoulême.

Marine Ridoux
Atelier co-conçu et co-animé avec Michel Goldberg et Stéphanie Vicenzotto

Pour tout renseignement sur cet atelier, vous pouvez contacter Marine Ridoux : marine.ridoux (at) lespetitsdebrouillardspc.org

Épistémologie – Les concepts de la sociologie sont-ils d'une nature spéciale ? par Dominique Raynaud

Nous avons à Grenoble la chance d’avoir un sociologue, épistémologue des sciences sociales qui fait un travail remarquable de rigueur. Il s’appelle Dominique Raynaud, et il travaille à l’Université Pierre-Mendès-France. 
Comme nous, il souscrit à un monisme méthodologique, c’est-à-dire qu’il ne pense pas, contrairement à une opinion répandue, que les choses de la matière sensible et celles de la « matière » sociale méritent deux types de méthodes différentes. Pour faire simple, point de méthode différente, plus de sciences dites dures et d’autres dites molles, mais une seule manière de décrire au mieux la réalité à laquelle nous avons accès. Certains objets sont infiniment plus complexes à appréhender, plus « mous » et d’autres plus simples, mais la manière de dire des choses vérifiables dessus n’est qu’une.
Dominique Raynaud nous offre ici une contribution qui vaut son pesant d’or. Le texte ci-dessous est une version écourtée du chapitre 4 de son livre La sociologie et sa vocation scientifique, Paris, éditions Hermann (2006) et montre que la sociologie n’a pas de normes spéciales de scientificité.
Ce n’est pas un sujet facile, mais l’effort qu’il demande ne sera pas vain.

Résumé

Pour les épistémologies dualistes ou régionalistes, la sociologie relève de normes spéciales de scientificité. La sociologie serait délimitée par le fait que ses concepts ne sont pas des « concepts analytiques » ou « taxinomiques », au sens des sciences naturelles, mais des « concepts idéaltypiques » ou des « désignateurs semi-rigides ».

L’analyse comparée montre deux choses.

(1) Les concepts analytiques et taxinomiques sont d’un usage régulier en sociologie.

(2) Les concepts idéaltypiques et les désignateurs semi-rigides ne sont pas l’apanage de la sociologie : on en trouve l’équivalent en physique et en astronomie.

Du coup, le statut particulier des concepts sociologiques n’est pas un critère adéquat pour doter la sociologie de normes épistémologiques propres.

Introduction

De manière à ce que les termes de la discussion soient clairs, je commencerai par poser quelques définitions utiles.

1° Un « concept taxinomique » est celui qui naît de la relation entre une espèce et un genre. Les critères dichotomique d’absence/présence d’un caractère sont en usage dans toutes les classifications, en particulier en zoologie et en botanique. Par différence, on peut identifier des « concepts typologiques » qui n’emploient pas des critères exclusifs mais inclusifs. C’est notamment le cas de l’idéaltype, un concept introduit par le fondateur de la sociologie moderne, Max Weber (1). Les exemples historiques de domination légitime ne se rattachent jamais à un seul des trois types de domination distingués par Max Weber (2).

2° Le terme de « concept analytique » se fonde sur la distinction proposée par Kant entre les jugements analytiques et les jugements synthétiques. Les jugements analytiques sont ceux qui sont universellement vrais, parce que leur valeur de vérité ne dépend pas de l’expérience. La « vitesse » est un concept analytique parce que la signification de ce concept est toute entière contenue dans sa définition : la vitesse est le rapport de l’espace parcouru par un mobile au temps mis pour le parcourir. Tout au contraire, les « concepts synthétiques », ou « phénoménaux », ont la particularité d’engager des qualités extérieures au concept.

3° Les « concepts quantitatifs »,  tels que distingués par Rudolf Carnap, constituent une espèce des précédents. Par exemple, la « vitesse » v CorteX_mobius_escher=  dx/dt, l’« accélération » γ = d²x/dt², la « force » F = mγ sont des concepts analytiques quantitatifs parce qu’ils résultent de la combinaison de grandeurs élémentaires mesurables (dans le cas de la vitesse : une certaine quantité d’espace dx et une certaine quantité de temps dt). Au contraire, les « concepts qualitatifs » ne supposent aucune mesure. C’est le cas des concepts de la topologie, comme ceux de « boule » ou d’« anneau de Möbius » (voir ci-contre, l’anneau de Möbius par le graveur Escher).

4° Le nom de « désignateur semi-rigide », introduit par Jean-Claude Passeron, fait directement référence aux « désignateurs rigides » du logicien Saül Kripke (3). On peut définir ces deux termes relativement l’un

à l’autre. Les désignateurs rigides se distinguent par la régionpropriété d’avoir le même référent dans tous les mondes possibles. Par exemple, l’« eau » est identique à elle-même dans tous les mondes où il y a de l’eau ; le nombre « π » est toujours identique à lui-même, etc. Par différence, Passeron nomme « désignateurs semi-rigides » ou « semi-noms propres » les « concepts indexés sur une série de cas singuliers ». Ainsi, le « féodalisme » ne se présente que dans certaines sociétés comme le Japon de l’ère Kamakura, la Chine des Royaumes combattants ou l’Europe médiévale.

En dépit de leur parenté, il faut bien voir qu’idéaltype et désignateur semi-rigide caractérisent deux réactions possibles au problème de l’inadéquation des concepts au réel. D’un côté, l’idéaltype accentue l’écart au réel. Max Weber précise : « par son contenu, cette construction a le caractère d’une utopie » ; « l’idéaltype est un tableau de pensée, il n’est pas la réalité historique ni surtout la réalité « authentique » ». Ainsi parle-t-on de « capitalisme » ou de « libre concurrence », quel que soit le contexte économique qui en constitue une approximation, en sachant qu’il s’agit d’une fiction visant moins l’adéquation au réel que la pureté logique. En ce sens, l’idéaltype « sort » de l’histoire. C’est ce qui justifie notamment le commentaire de Julien Freund : « la description que Weber fait de la bureaucratie est idéaltypique, ce qui signifie […] que les traits qu’il énumère [activité à plein temps, gestion rationnelle, subordination à une autorité, hiérarchie, spécialisation et technicité des fonctions] valent pour toute bureaucratie moderne, indépendamment des variations particulières et contingentes dans les divers pays ». Cependant, Weber particularise parfois l’idéaltype : c’est le cas lorsqu’il spécifie « christianisme » en « christianisme médiéval » ou « charisme » en « charisme anti-autoritaire bonapartiste ». L’idéaltype rentre alors dans l’histoire, ce qui fonde la lecture de Passeron. Car le désignateur semi-rigide, qui n’est pas une utopie, incite à accoler au concept ses traits contextuels les plus saillants. Pourquoi sommes-nous tentés de préciser « capitalisme spéculatif » ou « christianisme médiéval » au lieu de « capitalisme » et « christianisme » sinon pour ne pas désindexer ces concepts ? Face au problème de l’inadéquation du concept au réel, l’idéaltype s’oriente par excès (il accentue la différence) ; le désignateur semi-rigide par défaut (il réduit la différence).

Se pose ensuite la question des critères en fonction desquels distinguer les différentes espèces de concepts qui viennent d’être d’énumérées. Je propose les suivants :

1. Les concepts taxinomiques donnent naissance à des classifications ; les concepts idéaltypiques à des typologies. Les premières recourent à des critères dichotomiques ou exclusifs, les secondes à des critères inclusifs.

Par conséquent, elles peuvent être départagées sur la base du critère 1 :

dans une classification, un élément appartient à une classe et à une seule versus  dans une typologie, un élément peut appartenir à plusieurs types simultanément.

La graminée Avena stricta dépend du genre Avena à l’exclusion de tout autre genre ; le régime nazi dépend de la domination charismatique sous certains aspects mais de la domination légale-rationnelle à d’autres points de vue.

2. Concepts analytiques et phénoménaux se distinguent tout d’abord par leur propriété fondamentale (prédicat interne donné par définition versus prédicat externe). Les seconds ont une propriété distinctive qui tient à leur rapport à l’inadéquation des concepts au réel. Les idéaltypes consistent en tableaux abstraits épurés ; les désignateurs semi-rigides ont un caractère ad hoc prononcé, d’où suit le critère 2 :

les concepts analytiques sont toujours vrais versus les concepts phénoménaux ne sont que des approximations de la réalité — soit par orientation abstraite (idéaltype), soit par orientation adhociste (désignateurs semi-rigides).

La vitesse dx/dt permet de mesurer indifféremment la vitesse du son cS = 330 m.s–1 ou la vitesse de propagation d’une vibration dans l’acier cA ~ 5000 m.s–1. L’influence exercée par le mahâtma Gandhi lors de la « Marche du Sel » reste une approximation de la domination charismatique.

3. La définition des concepts quantitatifs suffit à les distinguer des concepts qualitatifs, ce qui conduit au critère 3:

les concepts quantitatifs supposent la réalisation d’une mesure (qui exige à son tour la définition de certains règles comme la transitivité, ou le choix d’une échelle de mesure) versus les concepts qualitatifs ne l’autorisent pas.

Citons, dans le domaine démographique, l’âge qui est un concept quantitatif (un enfant de 3 ans et demi), alors que le statut matrimonial (célibataire, marié, divorcé, veuf) est qualitatif : même si l’on peut envisager un « codage » des caractères, cela ne constitue en rien une « mesure » au sens scientifique du terme.

4. Désignateurs rigides ou semi-rigides se distinguent aisément par la propriété énoncée par Kripke, fondement du critère 4 :

les désignateurs rigides ont toujours le même référent versus les désignateurs semi-rigides ont un référent variable, indexé sur les différents contextes sociohistoriques.

Le nombre π = 3,14159265… est une constante dans tous les mondes possibles ; le capitalisme change de forme selon que l’on vise le « capitalisme productif » des années 1950 ou le « capitalisme spéculatif » des années 2000.

Deux versions de l’épistémologie sociologique

Nous avons défini les concepts utiles et les moyens de les distinguer. La question est de savoir si les sciences naturelles et les sciences sociales — qui s’occupent de classes de faits différents — doivent pour cela recourir à des principes épistémologiques différents. Les critères imaginés par les tenants de positions dualistes ourégionalistes (4) étant innombrables, je m’occuperai ici du statut des concepts en tant qu’il sert d’argument au débat à l’exclusion de toute autre considération. La thèse d’une épistémologie propre de la sociologie repose sur le statut particulier que l’on accorde aux concepts sociologiques. Limitons-nous à un exemple classique, dont l’auteur est connu et apprécié pour le sérieux de ses recherches. Dans Le Raisonnement sociologique, Jean-Claude Passeron soutient — c’est une conséquence de la thèse 2 et de son corrélat 2.3 — que tous les concepts sociologiques ont un statut logique de désignateurs semi-rigides :

« Il n’existe pas et il ne peut exister de langage protocolaire unifié de la description empirique du monde historique », « Le lexique scientifique de la sociologie est un lexique infaisable », « Le statut sémantique des concepts sociologiques se présente […] comme un statut mixte, intermédiaire entre le nom commun et le nom propre », « Les concepts sociologiques sont des noms communs […] qui ne peuvent être complètement coupés de leur référence déictique à des noms propres d’individualités historiques » (5) (mises en gras par D. Raynaud).

L’auteur soutient que les concepts insérés dans une démonstration sociologique diffèrent de ceux qui sont utilisés dans les sciences de la nature. Il assujettit l’épistémologie à l’ontologie sociologique : cette discipline traitant d’objets spécifiques, ses concepts sont spécifiques.

Mais il importe de voir qu’il existe deux manières de soutenir cette thèse :
Thèse forte – la sociologie se distingue des sciences naturelles parce que ses concepts sont d’une nature différente : les sciences naturelles recourent à des concepts analytiques et taxinomiques ; la sociologie recourt à des concepts idéaltypiques ou semi-rigides.
Thèse faible – la sociologie se distingue des sciences naturelles parce que, quoiqu’elle fasse un usage régulier de concepts analytiques et taxinomiques à l’instar des sciences naturelles, elle est la seule à employer des concepts idéaltypiques et semi-rigides.

Examen de la thèse forte

Un des caractères saillants des sciences naturelles, en particulier de la physique, est le fait qu’elles utilisent des concepts analytiques mathématiques.

Or, l’examen le plus vague laisse apparaître que beaucoup de concepts sociologiques ne sont assujettis à aucune singularité socio-historique (rationalité téléologique ou axiologique, décision, déclassement, agrégation, effet pervers, mobilité sociale, etc.). On trouve donc en sociologie des concepts qui ne sont rien moins que des concepts taxinomiques ou analytiques, au sens des définitions 1 et 2 données au début de ce texte. Laissons de côté les concepts taxinomiques  et voyons plutôt le cas des concepts analytiques.
Il existe tout d’abord un argument de fait. L’existence d’une sociologie mathématique est le premier argument sérieux de l’existence de ces concepts analytiques en sociologie : statistique descriptive et inférentielle, analyse factorielle sont des chapitres connus des sociologues. Mais d’autres sont également pourvus d’applications sociologiques : analyse combinatoire, théorie des jeux, théorie de la décision, théorie des choix collectifs, processus stochastiques (par exemple, les chaînes de Markov appliquées à la modélisation de la mobilité sociale), théorie des graphes (formalisation des réseaux sociaux), treillis de Galois (extraction des caractéristiques communes des individus d’un réseau), etc. Tous constituent des domaines par excellence où le raisonnement porte exclusivement sur des concepts analytiques.

Se présente ensuite un argument historique que rappelle Marc Barbut (6). Cet argument — opposé au jugement d’André Weil — est que les sciences sociales ont très directement contribué au développement des mathématiques. Barbut signale les contributions de Pascal, Huygens, Leibniz au calcul des probabilités (issu d’un problème de décision) ; celles de Jacques et Nicolas Bernoulli à la statistique inférentielle ; celles de Condorcet, Zermelo, Borel et von Neumann à la théorie des jeux. Mais si les mêmes savants ont contribué au progrès des sciences physiques et à celui des sciences sociales, pourquoi auraient-ils fait de bonnes mathématiques en physique et de mauvaises mathématiques en sociologie ?

Examinons maintenant un concept de cette sociologie mathématique dont il vient d’être question, et prenons le cas de la sociologie des réseaux.

1° Cette spécialité utilise des concepts analytiques quantitatifs (au sens de Carnap), qui tirent leur caractère de la théorie mathématique sous-jacente à la sociologie des réseaux : la théorie des graphes. Distinguons tout d’abord les relations orientées (don, conseil, etc.) des relations non orientées (mariage, interconnaissance, etc.) Les relations du premier type permettent la construction d’un graphe orienté dont la « densité » vaut D= L/(g(g – 1)) où L représente le nombre d’arcs et le g le nombre de sommets du graphe. Le concept de densité est organiquement lié à une mesure : il s’agit, au sens de Carnap, d’un concept quantitatif intensif (non additif) qui satisfait aux règles classiques permettant de définir la mesure :

1° existence d’une relation d’équivalence ;
2° existence d’une relation d’ordre ;
3° choix du zéro (D = 0 pour une collection de sommets déconnectés) ;
4° choix d’une unité (D = 1 dans un graphe complet) ;
5° choix d’une échelle (0 ≤ D ≤ 1).

Je ne vois pas que la sociologie utilise ici des concepts d’un statut logique différent de celui qui caractérise les concepts des sciences physiques. Carnap explique d’ailleurs fort bien ce qui fonde cette absence de différence entre physique et sociologie :

« Les concepts quantitatifs ne nous sont pas donnés par la nature ; ils découlent de la pratique qui consiste à appliquer des nombres aux phénomènes naturels. Quel avantage y a-t-il à cela ? Si les grandeurs quantitatives étaient fournies par la nature, nous ne songerions pas à poser la question, pas plus que nous ne demandons : à quoi servent les couleurs ? La nature pourrait fort bien exister sans couleurs, mais on a plaisir à percevoir leur présence dans le monde. Elles font partie de la nature, tout simplement ; nous n’y pouvons rien. Il n’en va pas de même pour les concepts quantitatifs. Il font partie du langage et non pas de la nature » (R. Carnap, Les Fondements philosophiques de la physique, p. 107).

Il s’ensuit que la présence ou l’absence de concepts analytiques (quantitatifs) dans une discipline ne tient pas à la nature des faits empirique étudiés par cette discipline, mais à une décision de l’observateur de se donner (ou non) des définitions strictes et un système de mesure des observables : c’est ce qu’a su faire la sociologie des réseaux, en appliquant le langage de la théorie des graphes aux relations sociales.

2° Certaines démonstrations sociologiques recourent presque exclusivement à des concepts analytiques de ce type. C’est le cas de la juridicisation croissante des sociétés modernes expliquée par Piaget à partir de la distinction faite par Franck et Timasheff entre relations interpersonnelles et relations transpersonnelles. Supposons un groupe composé des individus A, B, C… Par rapport à A, les liens (A, B), (A, C), (A, D)… sont des relations interpersonnelles (notées rip), les liens (B, D), (C, B), (C, D) sont des relations transpersonnelles (notéesrtp). Les relations interpersonnelles sont des relations directes ; elles sont impliquées dans une action réciproque classique (A cause un préjudice à B ; B demande réparation à A). Les relations transpersonnelles mobilisent quant à elles des formes de jugement indirect (A cause un préjudice à B ; B en informe C ; C juge l’action de A collectivement préjudiciable). Si l’on fait une combinatoire de ces relations dans un graphe complet de n individus, on constate que :

Card (rip) = n (n – 1)           et          Card (rtp) = n (n – 1)(n – 2) / 2

La croissance des rip et des rtp obéit au fait que les relations interpersonnelles varient comme n2 alors que les relations transpersonnelles varient comme n3. L’écart entre rip et rtp croît en fonction de n. Il est donc faible dans les sociétés peu volumineuses (hordes, tribus), fort dans les sociétés volumineuses (états-nations modernes). À mesure que croit le volume de la société, le règlement des différends fondé sur les rip (action en retour) cèdera la place à un règlement fondé sur les rtp (évaluation juridique par des tiers). C’est pourquoi on peut observer une juridicisation croissante des sociétés modernes. La réduction d’une société à un graphe complet est une idéalisation, mais les concepts qui interviennent dans cette démonstration sont tous des concepts analytiques ; aucun ne peut porter le nom de désignateur semi-rigide.
La thèse de l’absence en sociologie des concepts analytiques est donc inexacte. Elle n’est vraie que de la seule partie de la sociologie qui en condamne l’usage.

Examen de la thèse faible

Pour que la thèse faible soit réfutée, il faut établir la présence de concepts idéaltypiques ou de désignateurs semi-rigides dans les sciences naturelles. Admettons par hypothèse que les concepts de la sociologie sont des idéaltypes ou des désignateurs semi-rigides. Ces espèces sont-elles inconnues dans les sciences physiques ?

Concepts idéaltypiques

La spécialité de la sociologie tient-elle à son usage des idéaltypes ? Si le mot n’est pas utilisé en physique, sa définition est applicable à certains concepts. Renvoyons aux textes :

« Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai, on dit que l’instrument est stigmatique pour le couple de points AoAi […] Un tel stigmatisme est rigoureux si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao, c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, l’instrument altère toujours le caractère ponctuel de l’image […] Le stigmatisme rigoureux est donc une idéalisation ».
« Dans un repère galiléen, toute particule isolée décrit un mouvement rectiligne et uniforme […] Pratiquement, l’univers dans lequel nous vivons est constitué de nombreuses particules et la particule isolée est une vue de l’esprit. Cependant les interactions entre particules diminuent lorsque la distance entre ces particules augmente » (J. Bok et P. Morel, Mécanique/Ondes, Paris, Hermann, 1971, p. 25, 40).

« Lumière monochromatique », « milieu homogène et isotrope », « stigmatisme rigoureux », « particule isolée », « choc élastique », « gaz parfait », « corps noir » sont des concepts analytiques qui n’ont de corrélats empiriques qu’approximatifs. Le physicien manipule des concepts purifiés. Dans le monde réel, il sait que les concepts sont des idéalisations qui décrivent approximativement les phénomènes réels qui apparaissent spontanément. En quoi cela fait-il une différence avec la sociologie ?

Désignateurs semi-rigides

Le référent d’un désignateur rigide est identique à lui-même dans tous les mondes possibles ; celui d’un désignateur semi-rigide doit varier en fonction du contexte. Esclavage romain/colonial, judaïsme ashkénaze/séfarade, etc. Dans tous ces cas on retrouvera l’idée d’une « indexation sur une série mobile de cas singuliers ». Mais la sociologie est-elle seule à utiliser des désignateurs semi-rigides ? La réponse est négative. Les astronomes distinguent les concepts analytiques explicatifs (rayon, masse, magnitude absolue, température de surface, pression, etc.) et les concepts phénoménaux (étoiles, amas, galaxies). Prenons le cas des étoiles. Si l’on réunit les « désignateurs » couramment utilisés par les astronomes, les étoiles sont identifiées comme :étoiles de Wolf-Rayet, nébuleuses planétaires, super-géantes, géantes rouges, sous-géantes, naines, naines blanches, naines brunes, étoiles carbonées, novae, supernovae, étoiles à neutrons, trous noirs, étoiles variables périodiques ou non, pulsantes ou non pulsantes, Céphéides, étoiles RR Lyrae, Mira, δ Scuti, βCMa, ZZ Ceti, P Cygni, étoile de Barnard, étoiles binaires, pulsarsetc. On trouve là une telle diversité que certains, comme Audouze, n’hésitent pas à parler de « zoologie stellaire » (J. Audouze et J. Lequeux, Cours d’astrophysique 1976-1977, Palaiseau, École Polytechnique, 1977, p. 35).

On trouve dans cette liste l’équivalent exact des « désignateurs semi-rigides » ou « semi-noms propres ». Les Céphéides (massives) et les étoiles RR Lyrae (peu massives) sont des étoiles variables dénommées par le nom propre d’un cas paradigmatique (δ Cephei pour les Céphéides). C’est également en ce sens qu’on parle des étoiles de type ZZ Ceti, etc. La dénomination des étoiles variables a largement utilisé ce procédé : un « nom propre » (au sens de Kripke) est pris comme « profil » de reconnaissance d’autres objets célestes. Par suite, il devient un « semi-nom propre » indexé sur une série de cas singuliers.

On ne voit guère ce qui distingue ce procédé intellectuel de celui préconisé par Passeron, ou même par Weber, lorsqu’il définit les formes de charisme en relation avec l’économie : charisme bonapartiste, charisme de Périclès ou charisme américain. Là encore, il s’agit d’identifier un type, non tant par ses caractéristiques abstraites, que par les propriétés singulières exhibées par le cas paradigmatique.

Classification ou typologie stellaire ?

Admettons enfin que la sociologie recoure à des typologies versus classifications. Est-elle la seule dans ce cas ? Prenons un exemple qui révèle assez bien la limite de cette distinction.

Les étoiles sont assujetties à la classification de Harvard, fondée sur la température de surface et la magnitude absolue. On distingue les classes O, B, A, F, G, K, M (des hautes aux basses températures) elles-mêmes subdivisées en sous-classes par un suffixe décimal 0…9. Chacune correspond à un ensemble de propriétés physiques. Les astronomes se réfèrent à cette « classification » en employant indistinctement les mots « classe » ou « type spectral ». Que signifie cette hésitation? L’analyse montre qu’il ne s’agit pas d’une inadvertance : le choix de « type » est légitime. Il existe même des raisons tout à fait fondées de préférer le syntagme « type spectral » à celui de « classe spectrale », en dépit du flottement terminologique qui caractérise leur usage.

Rappelons les principales, qui sont au nombre de six.

1. Les types spectraux ne permettent d’identifier correctement que les étoiles (naines) de la « séquence principale » du diagramme de Hertzsprung-Russell : il existe toujours des étoiles plus froides ou plus chaudes de même type spectral.

2. Ces anomalies ont été à l’origine d’une nouvelle classification dite de Yerkes ou MKK (Morgan, Keenan, Kellman, 1943) en « classes de luminosité » ; on ajoute le suffixe 0, Ia, Ib, II, III, IV, V, sd (VI), wd (VII) pour caractériser l’étoile : le Soleil est par exemple une étoile G2 V. La classification a par ailleurs été complétée par l’introduction de nouveaux types : W (puis Q et P) en amont de O et des types C (subdivisé en R et N), S et L, T en aval de G.

3. Ces classifications n’absorbent pas la diversité du phénomène « étoile ». Le concept d’« étoile G » est un profil de reconnaissance qui laisse des différences résiduelles entre deux étoiles G du même type ou du même sous-type (Soleil, α Centauri, β Comae Berenicesetc.). C’est le diagnostic qui ressort de ce texte de Schatzman :

« La classification spectrale à deux dimensions est à la fois un acquis fondamental de l’astrophysique stellaire et la grille de référence par rapport à laquelle s’établissent toutes les singularités. En effet de nombreuses étoiles ne se plient pas aisément aux règles de la classification MKK : elles sont particulières. C’est le cas des étoiles à raies d’émission de type B, dites Be, dont un prototype est αCas ; des étoiles de type A et B ayant des raies intenses d’éléments très peu répandus comme le gadolinium, le mercure ou les terres rares, ou aussi des raies anormalement intenses de certains élements connus (Mn, Si, Fe) : on les nomme Ap et Bp ; des étoiles de type K et M à éruptions ou à raies d’émission : on les note Ke ou Me (exemples : α Cen C et UV Cet), des étoiles à baryum, etc. », E. Schatzman et F. Praderie, Astrophysique. Les étoiles, Paris, CNRS, 1990, p. 39 (mes italiques).

Ce texte montre on ne peut mieux l’écart perçu entre la classification spectrale et les objets célestes singuliers que rencontre l’astrophysicien dans ses observations. Reconnaître pleinement ces singularités n’impose ni d’abandonner la classification — au motif qu’elle serait dénuée de pouvoir descriptif —, ni de négliger les caractères particuliers des objets observés — au motif qu’ils devraient se plier entièrement à la description qu’en donne la classification.

4. La double classification par types spectraux et par classes de luminosité n’épuisant pas les propriétés des objets connus, les astronomes tombent régulièrement sur des objets célestes atypiques. On a donc proposé de compléter la nomenclature par des indications extérieures. Les astrophysiciens utilisent aujourd’hui un système de quinze suffixes indiquant les propriétés remarquables absentes de la classification. Voici la liste de ces suffixes :

e émission (hydrogène dans les étoiles de type O)
em émission de raies métalliques
ep émission particulière
eq émission à profil P Cygni (absorption des faibles longueurs d’ondes)
er émission inversée
f émission de l’hélium et du néon dans les étoiles de type O
k raies interstellaires
m fortes raies métalliques
n raies diffuses
nn raies très diffuses
p spectre particulier
s raies étroites
v variation dans le spectre
wk raies faibles

L’examen de cette liste montre que les suffixes désignent : tantôt un phénomène atypique (cas des spectres eq, er) ; tantôt — ce qui est plus intéressant pour notre comparaison — un phénomène proprement inclassable (cas des spectres ep, p, v).

5. Ensuite, il faut observer que, contrairement à ce que suggèrent les mots « classes » et « classification », les étoiles peuvent appartenir à plusieurs classes, y compris même à des classes que tout oppose a priori. Reprenons la classification à partir des données récentes recueillies par Hipparcos, chargé d’établir un catalogue de 115 000 étoiles jusqu’à la 12e magnitude. Leur positionnement sur le diagramme de Hertzsprung-Russell forme un nuage en Y (séquence principale + sous-géantes). Le dépouillement des données Hipparcos a révélé le défaut de correspondance exacte entre type spectral et magnitude absolue qui est au fondement de la classification. La définition des « standards » (c’est-à-dire des étoiles paradigmatiques servant de référence à chaque sous-type) est confrontée à ces anomalies. L’analyse des données Hipparcos a récemment conduit Ginestet, Carquillat et Jaschek à la découverte d’étoiles ayant un statut paradoxal, hybride entre « naines » et « géantes » :

« HD 204613 est une étoile de type G1 IIIa : CH1,5 dont les données photométriques et spectroscopiques sont en nette opposition […] la photométrie correspondrait à celle d’une naine et le spectre indiquerait une classe III [géante]. Deux autres étoiles géantes sortent aussi nettement du groupe mais, cette fois, en direction de la classe II : ce sont HD 81817 et HD 176670 », N. Ginestet, J.-M. Carquillat, C. Jaschek, Astronomy and Astrophysics, Supplement Series 142 (2000): 13-24.

Ces cas permettent de douter que l’intérêt des singularités soit un caractère propre de la sociologie. La « zoologie stellaire » n’est pas moins foisonnante de cas singuliers. Mais il existe encore une façon de sauver l’irréductibilité épistémologique de la sociologie : prétendre que l’astrophysicien — au contraire du sociologue — tente, à travers cette zoologie, de confirmer la typicalité des objets célestes. Est-ce le cas ? Deux indices paraissent montrer le contraire :

1° le nombre de publications consacrées aux objets « exotiques » (en dehors de la séquence principale) qui sont pourtant d’une abondance tout à fait négligeable dans l’univers ;

2° le nombre de publications consacrées à des phénomènes singuliers comme l’éruption solaire du 25 juillet 1946 ; la couronne blanche de l’éclipse totale de Soleil du 30 juin 1973 ; l’environnement de β Pictoris ou la supernova 1987A parfois considérée comme supernova « hors la loi » à cause de sa courbe de luminosité.

Les astrophysiciens n’ont pas l’obsession de la typicalité. Ils s’intéressent également aux singularités. Cela fait-il une différence avec la sociologie ?

Conclusion

Certains concepts sociologiques sont des concepts idéaltypiques et des désignateurs semi-rigides ; d’autres sont des concepts analytiques. Certains concepts des sciences physiques sont des concepts analytiques quantitatifs, d’autres des concepts typologiques et des désignateurs semi-rigides. L’ontologie sociologique ne secrète donc pas de concepts ayant une nature spéciale. De ce fait, la thèse forte et la thèse faible sont réfutées. Le statut des concepts n’est pas un argument du dualisme ou du régionalisme, au sens où l’on devrait — à cause de celà — juger la sociologie selon des normes spéciales de scientificité.

Il existe évidemment bien d’autres critères à partir desquels on peut essayer de donner à la sociologie un statut épistémologique particulier, mais ce n’est pas le lieu de les examiner ici (7).

Dominique Raynaud. Contact : dominique.raynaud (at) upmf-grenoble.fr.


Notes

(1) « L’idéaltype […] n’a d’autre signification que d’un concept limite purement idéal, auquel on mesure la réalité pour clarifier le contenu empirique de certains de ses éléments importants », M. Weber, Essais sur la théorie de la science, Paris, Plon, 1992, p. 172.

(2) Weber distingue trois types de domination légitime : la domination légale-rationnelle (le chef tire sa légitimité d’un ordre rationnel défini par les « membres » de la société), la domination traditionnelle (aux yeux des « sujets » le chef est investi d’une légitimité issue de la tradition) et la domination charismatique (le chef tire sa légitimité des capacités extraordinaires que veulent bien lui prêter ses « disciples »). Il est rare de rencontrer ces types à l’état pur. Les cas historiques de domination sont le plus souvent des mixtes (la légitimité de De Gaulle était essentiellement du type légal-rationnel, mais des éléments de charisme l’ont probablement renforcée).

(3) Kripke donne la définition suivante : « un désignateur désigne un certain objet rigidement s’il désigne cet objet partout où celui-ci existe ; si, de surcroît, l’objet existe nécessairement, le désignateur peut être appelé « rigide au sens fort » », S. Kripke, La Logique des noms propres, Paris, Éditions de Minuit, 1982, pp. 36-37. Outre les noms propres (« Neptune »), les désignateurs rigides absorbent les constantes (« π », rapport de la circonférence du cercle à son diamètre) et les concepts d’usage partitif (« eau », « oxygène », etc.).

(4) Plusieurs expressions ont été utilisées pour dire que la sociologie n’était pas une science comme les autres. On a parlé du dualisme des sciences naturelles et sociales – au sens où il existerait deux blocs de sciences disjoints. Cette expression, qui implique une séparation radicale des mondes naturel et humain, fait référence au Methodenstreit allemand, dominé par la figure de Dilthey. On parle aussi de régionalisme, dans un sens très librement dérivé de Bachelard et de Bunge, au sens où chaque discipline possèderait des caractères propres. Le régionalisme n’a pas les mêmes implications que le dualisme. D’abord, parce qu’il peut se dispenser de penser une opposition frontale entre sciences naturelles et sciences sociales. Ensuite, parce qu’il n’est pas tenu de postuler une unité au sein de ces ensembles de disciplines – ce que fait le dualisme. Cette unité étant discutable, le régionalisme nécessite moins d’hypothèses. Toutefois, il existe des passerelles entre dualisme et régionalisme. Si on s’intéresse à une seule discipline, ces expressions deviennent à peu près équivalentes, puisqu’elles cherchent à identifier les caractères distinctifs d’une discipline par rapport aux autres.

(5) J.-C. Passeron, Le Raisonnement sociologiqueop. cit., pp. 363, 371.

(6) M. Barbut, Les mathématiques et les sciences humaines. Esquisse d’un bilan, L’Acteur et ses Raisons. Mélanges en l’honneur de Raymond Boudon, Paris, PUF, 2000, pp. 205-224.

(7) Pour une analyse critique de plusieurs autres critères, voir D. Raynaud, La Sociologie et sa vocation scientifique, Paris, Editions Hermann, 2006.

alt

Psychologie – L’argument « des résistances » contre la psychanalyse par Jacques Van Rillaer

Vous critiquez la psychanalyse ? C’est inconscient, un mécanisme de défense de votre part : vous devriez suivre une psychanalyse !La critique de la psychanalyse étant contenue et prévue dans la théorie, celle-ci devient irréfutable. Que faire face à un tel argument ?


Notre collègue Jacques Van Rillaer met aimablement à disposition le chapitre L’argument des résistances à propos de la critique de la psychanalyse, publié dans son ouvrage Les illusions de la psychanalyse (éd. Mardaga, 4e éd., 1996).

CorteX_VanRillaer_Illusions_psychanalyseC’est un très bon matériel pour creuser le problème de l’irréfutabilité des théories psychanalytiques [1].

 « Freud et ses disciples qualifient de « résistance » toute remise en question de la psychanalyse et voient là une confirmation supplémentaire de leur credo. Un examen de ce mode de réfutation apparaît dès lors comme une question préalable à toute analyse critique de la doctrine freudienne. Nous verrons d’abord comment le concept de résistance s’est développé et a servi à désamorcer toute polémique. Ensuite nous examinerons la valeur épistémologique de cette défense, qui rend le système analytique invulnérable, du moins en apparence. »

Lire la suite

[1] déjà abordée par l’épistémologue Karl Popper, dans La Logique de la Découverte Scientifique et Conjectures et Réfutations.

alt

Science et religion, dans Anges et démons de Ron Howard (2009)

Voici le montage d’extraits du film Anges et démons, sorti en 2009, qui aborde la dualité science et religion et leur « nécessaire » réconciliation.


[dailymotion id=xkvfa5]

La dualité « science et religion » représente un véritable terreau pour les intrusions spiritualistes en sciences, comme dans le cas de l’Intelligent Design.

Cet extrait peut être exploité comme une bonne entrée en matière pour parler d’épistémologie. On utilisera à profit les interviews vidéos de Guillaume Lecointre sur ce sujet : Biologie, épistémologie – entrevue avec Guillaume Lecointre.

Pour creuser un peu plus, on peut aussi se servir

N’hésitez pas à soumettre vos idées, vos commentaires : écrivez-nous !

Et retrouvez ici l’ensemble des ressources Vulgarisation, médias – représentations fausses dans les films et les fictions

N.G.

Denis Caroti, l'Aristote de la méthode scientifique

La science (0) – Base d’entraînement pour les enseignants qui voudraient parler de science

On en rêvait, on l’a fait. Voici quelques-unes des questions les plus fréquemment posées dans les débats sur la science., et la manière que nous avons d’y répondre.

Le but n’est pas de vous faire travailler une rhétorique, mais bel et bien d’expliquer simplement ce qu’est la science, ce qu’elle n’est pas, pourquoi elle s’est imposée dans certains domaines et pourquoi son recours est parfois salutaire.

Nous vous conseillons :

1) de lire d’abord la question, et de tenter d’y répondre seul-e.

2) Puis de regarder ensuite la réponse-type que nous avons concoctée.

3) Enfin, de nous écrire pour rajouter une question, pour nous demander un éclaircissement ou un complément, ou pointer un désaccord.

Nous ne prétendons pas avoir des réponses entièrement suffisantes, bien sûr, et il est possible que nous nous trompions. Nous sommes donc à votre disposition pour toute critique, suggestions, encouragements ou nouvelle question à laquelle nous confronter.

Non, je veux voir les questions et les réponses d’emblée : je clique ici

Oui, je veux jouer le jeu, et ne voir les réponses qu’ensuite : je clique là

DC & RM

CorteX_guillaume_lecointre

Biologie, épistémologie – entrevue avec Guillaume Lecointre

Vous connaissez déjà Guillaume Lecointre, ses bottes pointues et ce monceau de connaissances qu’il diffuse dans divers ouvrages (cf. Bibliotex – Pour approfondir). Vous avez probablement écouté dans le matériel vidéo de Joël Peerboom le triple extrait de « Darwin aujourd’hui« , du magazine Effervesciences (CINAPS TV & CNRS Image) où Guillaume explique le créationnisme, la différence entre savoir et croire, et le contour des sciences. Mais au CorteX, nous voulions un truc à nous, avec nos questions naïves à nous. Alors Nicolas Gaillard et Richard Monvoisin ont réquisitionné une pente de montagne, une paire de lunettes noires et un hamac. Voici donc une interview aux dehors dilettantes, avec de bons gros morceaux de biologie, d’épistémologie et de philosophie des sciences dedans.

  • Question de Madame Lebongrain, de Livray – Peux-tu nous dire ce que tu veux dire quand tu te déclares « matérialiste » ? Est-ce que ça veut dire que tu aimes l’argent, acheter et revendre des appartements, placer en bourse et spéculer ?

  • Question de Monsieur Inbontien, de Tuloras – En biologie, peut-on être autre chose de matérialiste ?

  • Question de Madame Saurin-Lapin, de la Manche – Comment peut-on expliquer à quelqu’un qui n’y connait rien ce qu’est le spiritualisme en science, et les conséquences que cela peut avoir ?

  • Question de Monsieur Lumindécentil, du Gibon – L’intelligent Design, ou conception intelligente, qu’est-ce que c’est ? Cela rentre-t-il dans le spiritualisme ?

Guillaume en profite pour expliquer la métaphore de l’horloger, coeur de la théologie naturelle de William Paley, revient sur le contrat moral en science, et sur l’adéquation fonction-forme

  •  Question de Madame Tonnerre, de Brest – Quels outils simples peux-tu donner aux enseignants du secondaire ou du primaire qui se font taquiner sur des questions de créationnisme et d’ID ? 

  • Question de Monsieur Alexandre, du Mas – Quels ouvrages simples recommandes-tu pour les enseignants qui aimeraient se former à l’épistémologie des sciences ? Et quelles sont les ouvrages qui t’ont personnellement le plus marqué ?

Réponse dans Ouvrages d’épistémologie simple conseillés par G. Lecointre, Bibliotex.

  • Question de Mademoiselle Reviron, du CorteX L’humain est-il une espèce comme les autres ? Y a-t-il une « nature » humaine ? Est-ce que cette nature est si particulière qu’il faille changer de méthode d’investigation scientifique avec l’Humain ? Est-ce que ranger l’Humain au même rang que les autres animaux ne le déresponsabilise pas politiquement ?

 
  • Tu as écrit un jour dans un courriel adressé à un membre du CorteX :

« J’aurais tendance à faire la conjecture que, parmi les cinq ou six modalités sélectives existantes, la rationalité est le fruit d’une sélection naturelle où l’échelle de la sélection est l’individu, mais l’irrationnel est un effet de sélection de groupe. En faisant du sens à bas prix, il soude le groupe face aux aléas du milieu. C’est une hypothèse de travail qui ressemble fort à du Brassens : à plus de deux on est une bande de cons.»

Peux-tu développer ? Est-ce que le conformisme peut être le fruit d’un sélection de groupe ?

  • Question de Monsieur Jacques, du Tron – Que répondre à la question : « Mais on n’a jamais vu une espèce apparaître ?« 

Guillaume Lecointre passe par les souris de l’ile de Madère, les moustiques du métro de Londres., les fruits de mer et les lapins comme « volaille ». Il en profite pour discuter de la notion d’espèce. Nous tentons un taquinement qui échoue lamentablement :

« Est-ce que le caractère conventionnel de la notion d’espèce ne revient pas à faire du relativisme, à l’image de Bruno Latour (La Recherche, Mars 1998) qui a écrit que Ramsès II n’a pas pu mourir de la tuberculose parce que le bacille de Koch (retrouvé en 1998 dans ses poumons) n’était pas connu des Égyptiens ? »

  • Question de Madame Mas, de l’Aine – Est-ce que nos conventions de langage sont une forme de relativisme ?

Guillaume tranche le problème, et fait un détour sur la catégorie des poissons, abandonnée récemment.

 
(Navré, la batterie du micro lâche, donc le son est moins bon)

Phrase d’anthologie : « Le gibier est un cahier des charges qui fait plaisir aux chasseurs, pas au biologiste (…) le lapin est mammifère pour un zoolologiste, mais pour un chasseur c’est un gibier et pour un restaurateur, c’est de la volaille« .

  • Question de Monsieur Hubert, du Bedout –A quel cahier des charges scientifique correspondent les catégorisations Femme et Homme ? Questions sociopolitiques sous-jacentes.

Richard Monvoisin & Nicolas Gaillard

Remerciements spéciaux à Guillaume Lecointre, Neil Young, Jack Owens, Imam Baildi et à Emilie Mosnier.

Question de Madame Lesinjdécentil, de Larbre

La science (4) – Base d'entraînement pour les enseignants qui voudraient parler de science

La science – épisode 4


Oups, je veux retourner au début  !

La question N°3 était :

Mais n’est-ce pas une certaine forme d’arrogance de la science de se déclarer « méthode la plus efficace » ?

Attention, ce n’est pas la science qui s’auto-décrète la plus efficace. Elle est la méthode la plus efficace non parce qu’elle le décide, mais parce qu’elle est faite pour ça : cette méthode a été « fabriquée » à partir de toutes les erreurs d’observation, d’interprétation, de corrélation qu’on ait pu faire dans l’histoire de l’Humanité. Chaque erreur dans la description du réel a été un moyen de corriger la méthode en incorporant de quoi éviter ladite erreur la prochaine fois. Ce n’est donc pas une dictature de la science. Penser que la science s’arroge un droit contestable de dire ce qui semble vrai, c’est comme contester la légitimité de l’arbitrage dans un match en disant « mais de quel droit ce bonhomme, cette bonne femme décrète d’arbitrer ce match ? ».  Si la science est la plus efficace, c’est parce qu’elle a été faite pour être efficace. Alors autant s’en servir. Comme dit Jean Bricmont, « Que l’on me trouve une autre manière de faire rouler des voitures, de soigner des gens ou de faire fonctionner des machines aussi efficacement par une autre méthode, et je m’y mets ».

Question N°4

Soit. Pourtant, même les scientifiques nous disent qu’il n’y a pas de « méthode » à proprement parler, en tout cas pas de définition unique de cette méthode. Ne trouvez-vous pas cela gênant pour une démarche qui se veut efficace ?

Réponse ici !

La science (5) – Base d'entraînement pour les enseignants qui voudraient parler de science

La science – épisode 5


Oups, je veux retourner au début  !

La question N°4 était :

Soit. Pourtant, même les scientifiques nous disent qu’il n’y a pas de « méthode » à proprement parler, en tout cas pas de définition unique de cette méthode. Ne trouvez-vous pas cela gênant pour une démarche qui se veut efficace ?

On parle de deux choses différentes. Il n’y a pas de méthode pour découvrir des choses. Ca peut se faire par hasard, comme les Corn Flakes de John Kellog et son frère (c’est du moins ce que raconte Kellog au dos de la boîte). On peut trouver quelque chose parce qu’on a suivi une intuition, parce qu’on avait foi en un résultat, ou au contraire parce qu’on pensait que quelque chose était impossible et qu’on voulait en être sûr. Donc pour  trouver des choses, tout est bon ! Même mû par une religion, on peut trouver des trucs justes. Par contre, pour démontrer que cette chose découverte est juste, la méthode utilisée est commune à tous les champs scientifiques : c’est de la méthode de la démonstration rationnelle, et de l’élaboration de la preuve (ou d’un faisceau de preuves convergentes sur des sources indirectes, comme dans les sciences historiques).

En gros, ça se passe comme ça : quelle que soit notre source d’inspiration (poétique, religieuse, militante) on pose une hypothèse (« ceci va marcher comme ça », ou « il est probable que ces individus-là fassent ça dans cette situation », etc.). Puis on teste cette hypothèse, en cherchant qu’est-ce qui pourrait la contredire, de la même façon qu’un joueur d’échecs va chercher les coups que pourrait lui porter l’adversaire. Si cette hypothèse se révèle valide pour une gamme d’objets, on regarde si les objets un peu différents suivent le même comportement. Si oui, alors l’hypothèse peut devenir une thèse, qui à la longue, si elle est vraiment solide, sera appelée une loi (je sais, ce mot est un effet paillasson à lui tout seul, ça fait penser aux lois humaines, négociables, ou aux lois divines, transcendantes). Si cette loi a la même forme que d’autres lois, alors on regroupe le tout dans une théorie, toujours réfutable si on trouve un cas qui n’entre pas dedans, mais d’autant plus solide que les expériences vont la confirmer.

Pour faire simple : quel que soit le domaine, si quelqu’un affirme quelque chose, il doit apporter des éléments à l’appui de son affirmation : au mieux des preuves, et sinon, un faisceau de présomptions qui font penser que ce qu’il dit a des chances d’être vrai. Ensuite, il faut vérifier. Un exemple en physique : quelqu’un dit « tous les objets tombent ». Il prend un objet, le lache, il tombe, c’est un début de preuve. Reste à voir ensuite si tous les objets, qui ont une autre couleur, une autre forme, tombent aussi. Si c’est le cas, alors on peut penser que son affirmation est vraie. Mais attention ! C’est assez injuste, mais il suffirait d’un seul corps qui ne tombe pas, et son affirmation est foutue. Un autre exemple, en sciences humaines : quelqu’un affirme que les Femmes sont toutes coquettes par nature : Il suffira d’une seule femme non coquette pour ne plus croire en son affirmation.

En gros, la science est une méthode proposant des outils pour ne pas affirmer n’importe quoi sur le monde qui nous entoure.

Question N°5

Il n’y a pas de différence de méthode entre sciences dures et sciences humaines ?

Réponse ici !