Nous avons à Grenoble la chance d’avoir un sociologue, épistémologue des sciences sociales qui fait un travail remarquable de rigueur. Il s’appelle Dominique Raynaud, et il travaille à l’Université Pierre-Mendès-France.
Comme nous, il souscrit à un monisme méthodologique, c’est-à-dire qu’il ne pense pas, contrairement à une opinion répandue, que les choses de la matière sensible et celles de la « matière » sociale méritent deux types de méthodes différentes. Pour faire simple, point de méthode différente, plus de sciences dites dures et d’autres dites molles, mais une seule manière de décrire au mieux la réalité à laquelle nous avons accès. Certains objets sont infiniment plus complexes à appréhender, plus « mous » et d’autres plus simples, mais la manière de dire des choses vérifiables dessus n’est qu’une.
Dominique Raynaud nous offre ici une contribution qui vaut son pesant d’or. Le texte ci-dessous est une version écourtée du chapitre 4 de son livre La sociologie et sa vocation scientifique, Paris, éditions Hermann (2006) et montre que la sociologie n’a pas de normes spéciales de scientificité.
Ce n’est pas un sujet facile, mais l’effort qu’il demande ne sera pas vain.
Table of Contents
Résumé
Pour les épistémologies dualistes ou régionalistes, la sociologie relève de normes spéciales de scientificité. La sociologie serait délimitée par le fait que ses concepts ne sont pas des « concepts analytiques » ou « taxinomiques », au sens des sciences naturelles, mais des « concepts idéaltypiques » ou des « désignateurs semi-rigides ».
L’analyse comparée montre deux choses.
(1) Les concepts analytiques et taxinomiques sont d’un usage régulier en sociologie.
(2) Les concepts idéaltypiques et les désignateurs semi-rigides ne sont pas l’apanage de la sociologie : on en trouve l’équivalent en physique et en astronomie.
Du coup, le statut particulier des concepts sociologiques n’est pas un critère adéquat pour doter la sociologie de normes épistémologiques propres.
Introduction
De manière à ce que les termes de la discussion soient clairs, je commencerai par poser quelques définitions utiles.
1° Un « concept taxinomique » est celui qui naît de la relation entre une espèce et un genre. Les critères dichotomique d’absence/présence d’un caractère sont en usage dans toutes les classifications, en particulier en zoologie et en botanique. Par différence, on peut identifier des « concepts typologiques » qui n’emploient pas des critères exclusifs mais inclusifs. C’est notamment le cas de l’idéaltype, un concept introduit par le fondateur de la sociologie moderne, Max Weber (1). Les exemples historiques de domination légitime ne se rattachent jamais à un seul des trois types de domination distingués par Max Weber (2).
2° Le terme de « concept analytique » se fonde sur la distinction proposée par Kant entre les jugements analytiques et les jugements synthétiques. Les jugements analytiques sont ceux qui sont universellement vrais, parce que leur valeur de vérité ne dépend pas de l’expérience. La « vitesse » est un concept analytique parce que la signification de ce concept est toute entière contenue dans sa définition : la vitesse est le rapport de l’espace parcouru par un mobile au temps mis pour le parcourir. Tout au contraire, les « concepts synthétiques », ou « phénoménaux », ont la particularité d’engager des qualités extérieures au concept.
3° Les « concepts quantitatifs », tels que distingués par Rudolf Carnap, constituent une espèce des précédents. Par exemple, la « vitesse » v = dx/dt, l’« accélération » γ = d²x/dt², la « force » F = mγ sont des concepts analytiques quantitatifs parce qu’ils résultent de la combinaison de grandeurs élémentaires mesurables (dans le cas de la vitesse : une certaine quantité d’espace dx et une certaine quantité de temps dt). Au contraire, les « concepts qualitatifs » ne supposent aucune mesure. C’est le cas des concepts de la topologie, comme ceux de « boule » ou d’« anneau de Möbius » (voir ci-contre, l’anneau de Möbius par le graveur Escher).
4° Le nom de « désignateur semi-rigide », introduit par Jean-Claude Passeron, fait directement référence aux « désignateurs rigides » du logicien Saül Kripke (3). On peut définir ces deux termes relativement l’un
à l’autre. Les désignateurs rigides se distinguent par la régionpropriété d’avoir le même référent dans tous les mondes possibles. Par exemple, l’« eau » est identique à elle-même dans tous les mondes où il y a de l’eau ; le nombre « π » est toujours identique à lui-même, etc. Par différence, Passeron nomme « désignateurs semi-rigides » ou « semi-noms propres » les « concepts indexés sur une série de cas singuliers ». Ainsi, le « féodalisme » ne se présente que dans certaines sociétés comme le Japon de l’ère Kamakura, la Chine des Royaumes combattants ou l’Europe médiévale.
En dépit de leur parenté, il faut bien voir qu’idéaltype et désignateur semi-rigide caractérisent deux réactions possibles au problème de l’inadéquation des concepts au réel. D’un côté, l’idéaltype accentue l’écart au réel. Max Weber précise : « par son contenu, cette construction a le caractère d’une utopie » ; « l’idéaltype est un tableau de pensée, il n’est pas la réalité historique ni surtout la réalité « authentique » ». Ainsi parle-t-on de « capitalisme » ou de « libre concurrence », quel que soit le contexte économique qui en constitue une approximation, en sachant qu’il s’agit d’une fiction visant moins l’adéquation au réel que la pureté logique. En ce sens, l’idéaltype « sort » de l’histoire. C’est ce qui justifie notamment le commentaire de Julien Freund : « la description que Weber fait de la bureaucratie est idéaltypique, ce qui signifie […] que les traits qu’il énumère [activité à plein temps, gestion rationnelle, subordination à une autorité, hiérarchie, spécialisation et technicité des fonctions] valent pour toute bureaucratie moderne, indépendamment des variations particulières et contingentes dans les divers pays ». Cependant, Weber particularise parfois l’idéaltype : c’est le cas lorsqu’il spécifie « christianisme » en « christianisme médiéval » ou « charisme » en « charisme anti-autoritaire bonapartiste ». L’idéaltype rentre alors dans l’histoire, ce qui fonde la lecture de Passeron. Car le désignateur semi-rigide, qui n’est pas une utopie, incite à accoler au concept ses traits contextuels les plus saillants. Pourquoi sommes-nous tentés de préciser « capitalisme spéculatif » ou « christianisme médiéval » au lieu de « capitalisme » et « christianisme » sinon pour ne pas désindexer ces concepts ? Face au problème de l’inadéquation du concept au réel, l’idéaltype s’oriente par excès (il accentue la différence) ; le désignateur semi-rigide par défaut (il réduit la différence).
Se pose ensuite la question des critères en fonction desquels distinguer les différentes espèces de concepts qui viennent d’être d’énumérées. Je propose les suivants :
1. Les concepts taxinomiques donnent naissance à des classifications ; les concepts idéaltypiques à des typologies. Les premières recourent à des critères dichotomiques ou exclusifs, les secondes à des critères inclusifs.
Par conséquent, elles peuvent être départagées sur la base du critère 1 :
dans une classification, un élément appartient à une classe et à une seule versus dans une typologie, un élément peut appartenir à plusieurs types simultanément.
La graminée Avena stricta dépend du genre Avena à l’exclusion de tout autre genre ; le régime nazi dépend de la domination charismatique sous certains aspects mais de la domination légale-rationnelle à d’autres points de vue.
2. Concepts analytiques et phénoménaux se distinguent tout d’abord par leur propriété fondamentale (prédicat interne donné par définition versus prédicat externe). Les seconds ont une propriété distinctive qui tient à leur rapport à l’inadéquation des concepts au réel. Les idéaltypes consistent en tableaux abstraits épurés ; les désignateurs semi-rigides ont un caractère ad hoc prononcé, d’où suit le critère 2 :
les concepts analytiques sont toujours vrais versus les concepts phénoménaux ne sont que des approximations de la réalité — soit par orientation abstraite (idéaltype), soit par orientation adhociste (désignateurs semi-rigides).
La vitesse dx/dt permet de mesurer indifféremment la vitesse du son cS = 330 m.s–1 ou la vitesse de propagation d’une vibration dans l’acier cA ~ 5000 m.s–1. L’influence exercée par le mahâtma Gandhi lors de la « Marche du Sel » reste une approximation de la domination charismatique.
3. La définition des concepts quantitatifs suffit à les distinguer des concepts qualitatifs, ce qui conduit au critère 3:
les concepts quantitatifs supposent la réalisation d’une mesure (qui exige à son tour la définition de certains règles comme la transitivité, ou le choix d’une échelle de mesure) versus les concepts qualitatifs ne l’autorisent pas.
Citons, dans le domaine démographique, l’âge qui est un concept quantitatif (un enfant de 3 ans et demi), alors que le statut matrimonial (célibataire, marié, divorcé, veuf) est qualitatif : même si l’on peut envisager un « codage » des caractères, cela ne constitue en rien une « mesure » au sens scientifique du terme.
4. Désignateurs rigides ou semi-rigides se distinguent aisément par la propriété énoncée par Kripke, fondement du critère 4 :
les désignateurs rigides ont toujours le même référent versus les désignateurs semi-rigides ont un référent variable, indexé sur les différents contextes sociohistoriques.
Le nombre π = 3,14159265… est une constante dans tous les mondes possibles ; le capitalisme change de forme selon que l’on vise le « capitalisme productif » des années 1950 ou le « capitalisme spéculatif » des années 2000.
Deux versions de l’épistémologie sociologique
Nous avons défini les concepts utiles et les moyens de les distinguer. La question est de savoir si les sciences naturelles et les sciences sociales — qui s’occupent de classes de faits différents — doivent pour cela recourir à des principes épistémologiques différents. Les critères imaginés par les tenants de positions dualistes ourégionalistes (4) étant innombrables, je m’occuperai ici du statut des concepts en tant qu’il sert d’argument au débat à l’exclusion de toute autre considération. La thèse d’une épistémologie propre de la sociologie repose sur le statut particulier que l’on accorde aux concepts sociologiques. Limitons-nous à un exemple classique, dont l’auteur est connu et apprécié pour le sérieux de ses recherches. Dans Le Raisonnement sociologique, Jean-Claude Passeron soutient — c’est une conséquence de la thèse 2 et de son corrélat 2.3 — que tous les concepts sociologiques ont un statut logique de désignateurs semi-rigides :
« Il n’existe pas et il ne peut exister de langage protocolaire unifié de la description empirique du monde historique », « Le lexique scientifique de la sociologie est un lexique infaisable », « Le statut sémantique des concepts sociologiques se présente […] comme un statut mixte, intermédiaire entre le nom commun et le nom propre », « Les concepts sociologiques sont des noms communs […] qui ne peuvent être complètement coupés de leur référence déictique à des noms propres d’individualités historiques » (5) (mises en gras par D. Raynaud).
L’auteur soutient que les concepts insérés dans une démonstration sociologique diffèrent de ceux qui sont utilisés dans les sciences de la nature. Il assujettit l’épistémologie à l’ontologie sociologique : cette discipline traitant d’objets spécifiques, ses concepts sont spécifiques.
Mais il importe de voir qu’il existe deux manières de soutenir cette thèse :
Thèse forte – la sociologie se distingue des sciences naturelles parce que ses concepts sont d’une nature différente : les sciences naturelles recourent à des concepts analytiques et taxinomiques ; la sociologie recourt à des concepts idéaltypiques ou semi-rigides.
Thèse faible – la sociologie se distingue des sciences naturelles parce que, quoiqu’elle fasse un usage régulier de concepts analytiques et taxinomiques à l’instar des sciences naturelles, elle est la seule à employer des concepts idéaltypiques et semi-rigides.
Examen de la thèse forte
Un des caractères saillants des sciences naturelles, en particulier de la physique, est le fait qu’elles utilisent des concepts analytiques mathématiques.
Or, l’examen le plus vague laisse apparaître que beaucoup de concepts sociologiques ne sont assujettis à aucune singularité socio-historique (rationalité téléologique ou axiologique, décision, déclassement, agrégation, effet pervers, mobilité sociale, etc.). On trouve donc en sociologie des concepts qui ne sont rien moins que des concepts taxinomiques ou analytiques, au sens des définitions 1 et 2 données au début de ce texte. Laissons de côté les concepts taxinomiques et voyons plutôt le cas des concepts analytiques.
Il existe tout d’abord un argument de fait. L’existence d’une sociologie mathématique est le premier argument sérieux de l’existence de ces concepts analytiques en sociologie : statistique descriptive et inférentielle, analyse factorielle sont des chapitres connus des sociologues. Mais d’autres sont également pourvus d’applications sociologiques : analyse combinatoire, théorie des jeux, théorie de la décision, théorie des choix collectifs, processus stochastiques (par exemple, les chaînes de Markov appliquées à la modélisation de la mobilité sociale), théorie des graphes (formalisation des réseaux sociaux), treillis de Galois (extraction des caractéristiques communes des individus d’un réseau), etc. Tous constituent des domaines par excellence où le raisonnement porte exclusivement sur des concepts analytiques.
Se présente ensuite un argument historique que rappelle Marc Barbut (6). Cet argument — opposé au jugement d’André Weil — est que les sciences sociales ont très directement contribué au développement des mathématiques. Barbut signale les contributions de Pascal, Huygens, Leibniz au calcul des probabilités (issu d’un problème de décision) ; celles de Jacques et Nicolas Bernoulli à la statistique inférentielle ; celles de Condorcet, Zermelo, Borel et von Neumann à la théorie des jeux. Mais si les mêmes savants ont contribué au progrès des sciences physiques et à celui des sciences sociales, pourquoi auraient-ils fait de bonnes mathématiques en physique et de mauvaises mathématiques en sociologie ?
Examinons maintenant un concept de cette sociologie mathématique dont il vient d’être question, et prenons le cas de la sociologie des réseaux.
1° Cette spécialité utilise des concepts analytiques quantitatifs (au sens de Carnap), qui tirent leur caractère de la théorie mathématique sous-jacente à la sociologie des réseaux : la théorie des graphes. Distinguons tout d’abord les relations orientées (don, conseil, etc.) des relations non orientées (mariage, interconnaissance, etc.) Les relations du premier type permettent la construction d’un graphe orienté dont la « densité » vaut D= L/(g(g – 1)) où L représente le nombre d’arcs et le g le nombre de sommets du graphe. Le concept de densité est organiquement lié à une mesure : il s’agit, au sens de Carnap, d’un concept quantitatif intensif (non additif) qui satisfait aux règles classiques permettant de définir la mesure :
1° existence d’une relation d’équivalence ;
2° existence d’une relation d’ordre ;
3° choix du zéro (D = 0 pour une collection de sommets déconnectés) ;
4° choix d’une unité (D = 1 dans un graphe complet) ;
5° choix d’une échelle (0 ≤ D ≤ 1).
Je ne vois pas que la sociologie utilise ici des concepts d’un statut logique différent de celui qui caractérise les concepts des sciences physiques. Carnap explique d’ailleurs fort bien ce qui fonde cette absence de différence entre physique et sociologie :
« Les concepts quantitatifs ne nous sont pas donnés par la nature ; ils découlent de la pratique qui consiste à appliquer des nombres aux phénomènes naturels. Quel avantage y a-t-il à cela ? Si les grandeurs quantitatives étaient fournies par la nature, nous ne songerions pas à poser la question, pas plus que nous ne demandons : à quoi servent les couleurs ? La nature pourrait fort bien exister sans couleurs, mais on a plaisir à percevoir leur présence dans le monde. Elles font partie de la nature, tout simplement ; nous n’y pouvons rien. Il n’en va pas de même pour les concepts quantitatifs. Il font partie du langage et non pas de la nature » (R. Carnap, Les Fondements philosophiques de la physique, p. 107).
Il s’ensuit que la présence ou l’absence de concepts analytiques (quantitatifs) dans une discipline ne tient pas à la nature des faits empirique étudiés par cette discipline, mais à une décision de l’observateur de se donner (ou non) des définitions strictes et un système de mesure des observables : c’est ce qu’a su faire la sociologie des réseaux, en appliquant le langage de la théorie des graphes aux relations sociales.
2° Certaines démonstrations sociologiques recourent presque exclusivement à des concepts analytiques de ce type. C’est le cas de la juridicisation croissante des sociétés modernes expliquée par Piaget à partir de la distinction faite par Franck et Timasheff entre relations interpersonnelles et relations transpersonnelles. Supposons un groupe composé des individus A, B, C… Par rapport à A, les liens (A, B), (A, C), (A, D)… sont des relations interpersonnelles (notées rip), les liens (B, D), (C, B), (C, D) sont des relations transpersonnelles (notéesrtp). Les relations interpersonnelles sont des relations directes ; elles sont impliquées dans une action réciproque classique (A cause un préjudice à B ; B demande réparation à A). Les relations transpersonnelles mobilisent quant à elles des formes de jugement indirect (A cause un préjudice à B ; B en informe C ; C juge l’action de A collectivement préjudiciable). Si l’on fait une combinatoire de ces relations dans un graphe complet de n individus, on constate que :
Card (rip) = n (n – 1) et Card (rtp) = n (n – 1)(n – 2) / 2
La croissance des rip et des rtp obéit au fait que les relations interpersonnelles varient comme n2 alors que les relations transpersonnelles varient comme n3. L’écart entre rip et rtp croît en fonction de n. Il est donc faible dans les sociétés peu volumineuses (hordes, tribus), fort dans les sociétés volumineuses (états-nations modernes). À mesure que croit le volume de la société, le règlement des différends fondé sur les rip (action en retour) cèdera la place à un règlement fondé sur les rtp (évaluation juridique par des tiers). C’est pourquoi on peut observer une juridicisation croissante des sociétés modernes. La réduction d’une société à un graphe complet est une idéalisation, mais les concepts qui interviennent dans cette démonstration sont tous des concepts analytiques ; aucun ne peut porter le nom de désignateur semi-rigide.
La thèse de l’absence en sociologie des concepts analytiques est donc inexacte. Elle n’est vraie que de la seule partie de la sociologie qui en condamne l’usage.
Examen de la thèse faible
Pour que la thèse faible soit réfutée, il faut établir la présence de concepts idéaltypiques ou de désignateurs semi-rigides dans les sciences naturelles. Admettons par hypothèse que les concepts de la sociologie sont des idéaltypes ou des désignateurs semi-rigides. Ces espèces sont-elles inconnues dans les sciences physiques ?
Concepts idéaltypiques
La spécialité de la sociologie tient-elle à son usage des idéaltypes ? Si le mot n’est pas utilisé en physique, sa définition est applicable à certains concepts. Renvoyons aux textes :
« Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai, on dit que l’instrument est stigmatique pour le couple de points AoAi […] Un tel stigmatisme est rigoureux si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao, c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, l’instrument altère toujours le caractère ponctuel de l’image […] Le stigmatisme rigoureux est donc une idéalisation ».
« Dans un repère galiléen, toute particule isolée décrit un mouvement rectiligne et uniforme […] Pratiquement, l’univers dans lequel nous vivons est constitué de nombreuses particules et la particule isolée est une vue de l’esprit. Cependant les interactions entre particules diminuent lorsque la distance entre ces particules augmente » (J. Bok et P. Morel, Mécanique/Ondes, Paris, Hermann, 1971, p. 25, 40).
« Lumière monochromatique », « milieu homogène et isotrope », « stigmatisme rigoureux », « particule isolée », « choc élastique », « gaz parfait », « corps noir » sont des concepts analytiques qui n’ont de corrélats empiriques qu’approximatifs. Le physicien manipule des concepts purifiés. Dans le monde réel, il sait que les concepts sont des idéalisations qui décrivent approximativement les phénomènes réels qui apparaissent spontanément. En quoi cela fait-il une différence avec la sociologie ?
Désignateurs semi-rigides
Le référent d’un désignateur rigide est identique à lui-même dans tous les mondes possibles ; celui d’un désignateur semi-rigide doit varier en fonction du contexte. Esclavage romain/colonial, judaïsme ashkénaze/séfarade, etc. Dans tous ces cas on retrouvera l’idée d’une « indexation sur une série mobile de cas singuliers ». Mais la sociologie est-elle seule à utiliser des désignateurs semi-rigides ? La réponse est négative. Les astronomes distinguent les concepts analytiques explicatifs (rayon, masse, magnitude absolue, température de surface, pression, etc.) et les concepts phénoménaux (étoiles, amas, galaxies). Prenons le cas des étoiles. Si l’on réunit les « désignateurs » couramment utilisés par les astronomes, les étoiles sont identifiées comme :étoiles de Wolf-Rayet, nébuleuses planétaires, super-géantes, géantes rouges, sous-géantes, naines, naines blanches, naines brunes, étoiles carbonées, novae, supernovae, étoiles à neutrons, trous noirs, étoiles variables périodiques ou non, pulsantes ou non pulsantes, Céphéides, étoiles RR Lyrae, Mira, δ Scuti, βCMa, ZZ Ceti, P Cygni, étoile de Barnard, étoiles binaires, pulsars, etc. On trouve là une telle diversité que certains, comme Audouze, n’hésitent pas à parler de « zoologie stellaire » (J. Audouze et J. Lequeux, Cours d’astrophysique 1976-1977, Palaiseau, École Polytechnique, 1977, p. 35).
On trouve dans cette liste l’équivalent exact des « désignateurs semi-rigides » ou « semi-noms propres ». Les Céphéides (massives) et les étoiles RR Lyrae (peu massives) sont des étoiles variables dénommées par le nom propre d’un cas paradigmatique (δ Cephei pour les Céphéides). C’est également en ce sens qu’on parle des étoiles de type ZZ Ceti, etc. La dénomination des étoiles variables a largement utilisé ce procédé : un « nom propre » (au sens de Kripke) est pris comme « profil » de reconnaissance d’autres objets célestes. Par suite, il devient un « semi-nom propre » indexé sur une série de cas singuliers.
On ne voit guère ce qui distingue ce procédé intellectuel de celui préconisé par Passeron, ou même par Weber, lorsqu’il définit les formes de charisme en relation avec l’économie : charisme bonapartiste, charisme de Périclès ou charisme américain. Là encore, il s’agit d’identifier un type, non tant par ses caractéristiques abstraites, que par les propriétés singulières exhibées par le cas paradigmatique.
Classification ou typologie stellaire ?
Admettons enfin que la sociologie recoure à des typologies versus classifications. Est-elle la seule dans ce cas ? Prenons un exemple qui révèle assez bien la limite de cette distinction.
Les étoiles sont assujetties à la classification de Harvard, fondée sur la température de surface et la magnitude absolue. On distingue les classes O, B, A, F, G, K, M (des hautes aux basses températures) elles-mêmes subdivisées en sous-classes par un suffixe décimal 0…9. Chacune correspond à un ensemble de propriétés physiques. Les astronomes se réfèrent à cette « classification » en employant indistinctement les mots « classe » ou « type spectral ». Que signifie cette hésitation? L’analyse montre qu’il ne s’agit pas d’une inadvertance : le choix de « type » est légitime. Il existe même des raisons tout à fait fondées de préférer le syntagme « type spectral » à celui de « classe spectrale », en dépit du flottement terminologique qui caractérise leur usage.
Rappelons les principales, qui sont au nombre de six.
1. Les types spectraux ne permettent d’identifier correctement que les étoiles (naines) de la « séquence principale » du diagramme de Hertzsprung-Russell : il existe toujours des étoiles plus froides ou plus chaudes de même type spectral.
2. Ces anomalies ont été à l’origine d’une nouvelle classification dite de Yerkes ou MKK (Morgan, Keenan, Kellman, 1943) en « classes de luminosité » ; on ajoute le suffixe 0, Ia, Ib, II, III, IV, V, sd (VI), wd (VII) pour caractériser l’étoile : le Soleil est par exemple une étoile G2 V. La classification a par ailleurs été complétée par l’introduction de nouveaux types : W (puis Q et P) en amont de O et des types C (subdivisé en R et N), S et L, T en aval de G.
3. Ces classifications n’absorbent pas la diversité du phénomène « étoile ». Le concept d’« étoile G » est un profil de reconnaissance qui laisse des différences résiduelles entre deux étoiles G du même type ou du même sous-type (Soleil, α Centauri, β Comae Berenices, etc.). C’est le diagnostic qui ressort de ce texte de Schatzman :
« La classification spectrale à deux dimensions est à la fois un acquis fondamental de l’astrophysique stellaire et la grille de référence par rapport à laquelle s’établissent toutes les singularités. En effet de nombreuses étoiles ne se plient pas aisément aux règles de la classification MKK : elles sont particulières. C’est le cas des étoiles à raies d’émission de type B, dites Be, dont un prototype est αCas ; des étoiles de type A et B ayant des raies intenses d’éléments très peu répandus comme le gadolinium, le mercure ou les terres rares, ou aussi des raies anormalement intenses de certains élements connus (Mn, Si, Fe) : on les nomme Ap et Bp ; des étoiles de type K et M à éruptions ou à raies d’émission : on les note Ke ou Me (exemples : α Cen C et UV Cet), des étoiles à baryum, etc. », E. Schatzman et F. Praderie, Astrophysique. Les étoiles, Paris, CNRS, 1990, p. 39 (mes italiques).
Ce texte montre on ne peut mieux l’écart perçu entre la classification spectrale et les objets célestes singuliers que rencontre l’astrophysicien dans ses observations. Reconnaître pleinement ces singularités n’impose ni d’abandonner la classification — au motif qu’elle serait dénuée de pouvoir descriptif —, ni de négliger les caractères particuliers des objets observés — au motif qu’ils devraient se plier entièrement à la description qu’en donne la classification.
4. La double classification par types spectraux et par classes de luminosité n’épuisant pas les propriétés des objets connus, les astronomes tombent régulièrement sur des objets célestes atypiques. On a donc proposé de compléter la nomenclature par des indications extérieures. Les astrophysiciens utilisent aujourd’hui un système de quinze suffixes indiquant les propriétés remarquables absentes de la classification. Voici la liste de ces suffixes :
e émission (hydrogène dans les étoiles de type O)
em émission de raies métalliques
ep émission particulière
eq émission à profil P Cygni (absorption des faibles longueurs d’ondes)
er émission inversée
f émission de l’hélium et du néon dans les étoiles de type O
k raies interstellaires
m fortes raies métalliques
n raies diffuses
nn raies très diffuses
p spectre particulier
s raies étroites
v variation dans le spectre
wk raies faibles
L’examen de cette liste montre que les suffixes désignent : tantôt un phénomène atypique (cas des spectres eq, er) ; tantôt — ce qui est plus intéressant pour notre comparaison — un phénomène proprement inclassable (cas des spectres ep, p, v).
5. Ensuite, il faut observer que, contrairement à ce que suggèrent les mots « classes » et « classification », les étoiles peuvent appartenir à plusieurs classes, y compris même à des classes que tout oppose a priori. Reprenons la classification à partir des données récentes recueillies par Hipparcos, chargé d’établir un catalogue de 115 000 étoiles jusqu’à la 12e magnitude. Leur positionnement sur le diagramme de Hertzsprung-Russell forme un nuage en Y (séquence principale + sous-géantes). Le dépouillement des données Hipparcos a révélé le défaut de correspondance exacte entre type spectral et magnitude absolue qui est au fondement de la classification. La définition des « standards » (c’est-à-dire des étoiles paradigmatiques servant de référence à chaque sous-type) est confrontée à ces anomalies. L’analyse des données Hipparcos a récemment conduit Ginestet, Carquillat et Jaschek à la découverte d’étoiles ayant un statut paradoxal, hybride entre « naines » et « géantes » :
« HD 204613 est une étoile de type G1 IIIa : CH1,5 dont les données photométriques et spectroscopiques sont en nette opposition […] la photométrie correspondrait à celle d’une naine et le spectre indiquerait une classe III [géante]. Deux autres étoiles géantes sortent aussi nettement du groupe mais, cette fois, en direction de la classe II : ce sont HD 81817 et HD 176670 », N. Ginestet, J.-M. Carquillat, C. Jaschek, Astronomy and Astrophysics, Supplement Series 142 (2000): 13-24.
Ces cas permettent de douter que l’intérêt des singularités soit un caractère propre de la sociologie. La « zoologie stellaire » n’est pas moins foisonnante de cas singuliers. Mais il existe encore une façon de sauver l’irréductibilité épistémologique de la sociologie : prétendre que l’astrophysicien — au contraire du sociologue — tente, à travers cette zoologie, de confirmer la typicalité des objets célestes. Est-ce le cas ? Deux indices paraissent montrer le contraire :
1° le nombre de publications consacrées aux objets « exotiques » (en dehors de la séquence principale) qui sont pourtant d’une abondance tout à fait négligeable dans l’univers ;
2° le nombre de publications consacrées à des phénomènes singuliers comme l’éruption solaire du 25 juillet 1946 ; la couronne blanche de l’éclipse totale de Soleil du 30 juin 1973 ; l’environnement de β Pictoris ou la supernova 1987A parfois considérée comme supernova « hors la loi » à cause de sa courbe de luminosité.
Les astrophysiciens n’ont pas l’obsession de la typicalité. Ils s’intéressent également aux singularités. Cela fait-il une différence avec la sociologie ?
Conclusion
Certains concepts sociologiques sont des concepts idéaltypiques et des désignateurs semi-rigides ; d’autres sont des concepts analytiques. Certains concepts des sciences physiques sont des concepts analytiques quantitatifs, d’autres des concepts typologiques et des désignateurs semi-rigides. L’ontologie sociologique ne secrète donc pas de concepts ayant une nature spéciale. De ce fait, la thèse forte et la thèse faible sont réfutées. Le statut des concepts n’est pas un argument du dualisme ou du régionalisme, au sens où l’on devrait — à cause de celà — juger la sociologie selon des normes spéciales de scientificité.
Il existe évidemment bien d’autres critères à partir desquels on peut essayer de donner à la sociologie un statut épistémologique particulier, mais ce n’est pas le lieu de les examiner ici (7).
Dominique Raynaud. Contact : dominique.raynaud (at) upmf-grenoble.fr.
Notes
(1) « L’idéaltype […] n’a d’autre signification que d’un concept limite purement idéal, auquel on mesure la réalité pour clarifier le contenu empirique de certains de ses éléments importants », M. Weber, Essais sur la théorie de la science, Paris, Plon, 1992, p. 172.
(2) Weber distingue trois types de domination légitime : la domination légale-rationnelle (le chef tire sa légitimité d’un ordre rationnel défini par les « membres » de la société), la domination traditionnelle (aux yeux des « sujets » le chef est investi d’une légitimité issue de la tradition) et la domination charismatique (le chef tire sa légitimité des capacités extraordinaires que veulent bien lui prêter ses « disciples »). Il est rare de rencontrer ces types à l’état pur. Les cas historiques de domination sont le plus souvent des mixtes (la légitimité de De Gaulle était essentiellement du type légal-rationnel, mais des éléments de charisme l’ont probablement renforcée).
(3) Kripke donne la définition suivante : « un désignateur désigne un certain objet rigidement s’il désigne cet objet partout où celui-ci existe ; si, de surcroît, l’objet existe nécessairement, le désignateur peut être appelé « rigide au sens fort » », S. Kripke, La Logique des noms propres, Paris, Éditions de Minuit, 1982, pp. 36-37. Outre les noms propres (« Neptune »), les désignateurs rigides absorbent les constantes (« π », rapport de la circonférence du cercle à son diamètre) et les concepts d’usage partitif (« eau », « oxygène », etc.).
(4) Plusieurs expressions ont été utilisées pour dire que la sociologie n’était pas une science comme les autres. On a parlé du dualisme des sciences naturelles et sociales – au sens où il existerait deux blocs de sciences disjoints. Cette expression, qui implique une séparation radicale des mondes naturel et humain, fait référence au Methodenstreit allemand, dominé par la figure de Dilthey. On parle aussi de régionalisme, dans un sens très librement dérivé de Bachelard et de Bunge, au sens où chaque discipline possèderait des caractères propres. Le régionalisme n’a pas les mêmes implications que le dualisme. D’abord, parce qu’il peut se dispenser de penser une opposition frontale entre sciences naturelles et sciences sociales. Ensuite, parce qu’il n’est pas tenu de postuler une unité au sein de ces ensembles de disciplines – ce que fait le dualisme. Cette unité étant discutable, le régionalisme nécessite moins d’hypothèses. Toutefois, il existe des passerelles entre dualisme et régionalisme. Si on s’intéresse à une seule discipline, ces expressions deviennent à peu près équivalentes, puisqu’elles cherchent à identifier les caractères distinctifs d’une discipline par rapport aux autres.
(5) J.-C. Passeron, Le Raisonnement sociologique, op. cit., pp. 363, 371.
(6) M. Barbut, Les mathématiques et les sciences humaines. Esquisse d’un bilan, L’Acteur et ses Raisons. Mélanges en l’honneur de Raymond Boudon, Paris, PUF, 2000, pp. 205-224.
(7) Pour une analyse critique de plusieurs autres critères, voir D. Raynaud, La Sociologie et sa vocation scientifique, Paris, Editions Hermann, 2006.