Author: Le CorteX
La médecine et ses "alternatives", quelques outils d'autodéfense pour militant.es…

En ce début octobre 2013 paraissait la revue La Traverse N°3, éditée par les Renseignements Généreux. S’il en est qui n’ont pas consulté les numéros précédents et leur contenu, talentueusement mis en page par la graphiste Clara Chambon, qu’ils/elles se précipitent là.
Richard Monvoisin y a écrit La médecine et ses « alternatives », Quelques outils d’autodéfense intellectuelle pour militant-es, reproduit ci-dessous, ainsi que sur Médiapart. En rouge, des corrections ultérieures.
Magnifique version pdf ici (sans la correction)
La médecine et ses « alternatives » – Quelques outils d’autodéfense intellectuelle pour militant.es
Table of Contents
La médecine scientifique : hégémonie et gémonies
Réappropriation, à quel prix ?
L’arbre des possibles
EncartEffet placebo, efficacité réelle, pathologie spontanément résolutive et médecines alternatives : quelques notions de base pour l’honnête militant-e alternatifOn peut semble-t-il faire remonter à quelques dizaines de siècles le constat suivant : un patient qui a confiance en son thérapeute aura de meilleurs résultats que… s’il n’a pas confiance. Il faut bien comprendre qu’il ne s’agit généralement pas de meilleures « guérisons » : on ne guérit hélas pas vraiment plus. Par contre, on le vit mieux. Le patient aura ainsi une meilleure appréciation de son état, vivra mieux son mal-être, ses douleurs et les évaluera comme moins pire après la visite, indépendamment de l’acte qui lui est prodigué, que ce soit une injection, un massage, une discussion introspective ou un comprimé.C’est ainsi qu’est né l’effet placebo, du latin je plairai – qui vient de Placebo domino, « je plairai au Seigneur » 6 – qui est l’écart positif, entre le résultat thérapeutique d’un soin et son efficacité réelle ; en gros, le « bonus en plus » de l’efficacité réelle du soin. Ce bonus est un mélange d’auto-suggestion et de sécrétion de substances par notre cerveau, les endorphines, stimulées par la confiance et qui baissent la douleur ressentie. La grosse surprise est que tout acte thérapeutique efficace ou non entraîne un effet placebo, effet d’autant plus important que la pathologie est psychosomatique, ou dépendante de l’état psychologique du patient. En clair, il y a effet placebo que le soin soit efficace ou non.Un certain nombre de médecins malgré eux ont compris cela : lorsqu’ils ne savaient pas vraiment que faire pour un patient, ils lui donnaient des substances « vides », des placebos. On dit que c’est dans son Dictionnaire Médical de 1811 que le médecin Robert Hooper nomma pour la première fois placebo la « médication destinée plus à plaire au patient qu’à être efficace ». À la même époque le médecin Jean-Nicolas Corvisart utilisait avec succès des boules de mie de pain pour l’entourage de Napoléon.Ainsi a-t-on cerné progressivement les diverses facettes du placebo, que la psychologie appelle les effets contextuels : le prix élevé d’une consultation, un diplôme ronflant, un thérapeute à la mode et une longue queue devant le cabinet jouent aussi sur l’évaluation de notre mieux-être consécutif au soin. Idem pour les médicaments, dont la forme, la couleur et le prix entraînent un effet placebo. Deux comprimés placebo valent mieux qu’un seul et les gros comprimés font plus de bien que les petits. Même le nom « scientifique » agit : la mie de pain de Corvisart séduisit seulement sous le nom de Mica panis. Maintenant ce sont Viagra (que les publicitaires tirèrent de viril et Niagara) ou Seresta (sérénité et stabilité), mais aussi Medorrhinum (pus urétral de blennorragie), Pertussinum (crachat de coquelucheux) ou Oscillococcinum (autolysat de foie et de cœur de canard de barbarie) qui jouent sur le latin pour amplifier leur effet.Le médecin Richard Asher pointa aussi ce paradoxe qui a gardé son nom : plus un thérapeute est autoritaire et persuadé d’avoir raison, plus le patient évalue comme valide le soin reçu 7. Au contraire, un thérapeute qui doute, ou une thérapie détestée par le patient entraînera un effet placebo négatif qu’on appelle alors nocebo (je nuirai).Placebo = cerise, efficacité spécifique = gâteauPour savoir si un acte médical, soin, manipulation ou médicament a un effet réel sans les effets contextuels (les médecins disent une efficacité « spécifique ») il a fallu faire des tests en simple aveugle.Imaginons que nous voulions tester une pilule : il nous faut un groupe – les médecins disent une cohorte – de patients consentants tous avec le même problème que la pilule prétend arranger ou guérir. On tire au sort la moitié qui prend la vraie pilule, et la moitié qui prendra un placebo de la pilule (même forme, même goût mais qui ne contient rien). Ainsi les patients ne savent pas s’ils reçoivent le médicament ou son placebo. La différence d’amélioration entre les deux groupes donnera l’efficacité spécifique de la pilule, et l’amélioration du groupe placebo renseignera sur l’ampleur de l’effet placebo déclenché.Bien entendu, ce n’est pas toujours possible de faire un test en simple aveugle. Avec l’acupuncture par exemple, c’est faisable, car on peut faire un placebo d’acupuncture en utilisant des aiguilles retractables qui donnent l’illusion d’être plantées mais qui ne le sont pas. Par contre, il est très difficile d’évaluer ainsi l’intérêt spécifique d’une thalassothérapie par exemple, car comment faire un placebo de thalassothérapie ?Toutefois, le simple aveugle n’est pas suffisant. C’est une mésaventure qu’on prête à Stewart Wolf, vers 1940, qui fit avancer encore d’un cran l’évaluation. On raconte que Wolf reçut un médicament nouveau qu’il testa sur ses patients, lesquels lui en dirent immédiatement le plus grand bien. Conscient de la possibilité d’un effet placebo, il demanda au laboratoire un placebo de ce médicament, et le donna en cachette à ses patients qui illico remarquèrent la perte d’efficacité. Wolf s’apprêtait à conclure que le produit était excellent, avec une efficacité spécifique énorme… lorsque le labo l’informa que les médicaments envoyés étaient tous des placebos depuis le début.Des indices non verbaux, des mimiques, des comportements à peine perceptibles avaient probablement renseigné les malades sur l’efficacité que Wolf attendait. Wolf créait ainsi sans le vouloir une sorte de prédiction auto-réalisatrice. On comprit donc qu’évaluer un produit nécessitait que le patient ne sache pas ce qu’il reçoit, et qu’en outre le thérapeute ne sache pas ce qu’il donne.Ce fut la naissance du double aveugle, appelé parfois double insu, condition sine qua none pour prouver l’efficacité d’une technique. Simple à mettre en place, on peut utiliser le double aveugle aussi bien pour tester des thérapies que pour tester par exemple notre capacité à reconnaître un vin rosé d’un rouge, une bière blonde d’une brune, différentes sortes de fromages, etc.En résumé, on parle d’étude en « ouvert » (open design) quand le médecin et le patient connaissent la nature du traitement ; de simple aveugle ou simple insu (simple blind) lorsque le médecin connaît la nature du traitement, non le patient. Notons que les nécessités réglementaires et éthiques de l’information de patients font que le simple insu est en pratique impossible. Et enfin, on dira étude en double aveugle (double blind) lorsque ni le patient, ni le médecin investigateur ne connaissent la nature réelle du traitement. Le terme « triple aveugle » est parfois utilisé : il désigne un essai dans lequel même la personne qui dépouille la statistique des résultats ne connaît la nature du traitement.Placebo démesuré ?On entend souvent que l’effet placebo est énorme, et par exemple que les cancers et autres pathologies graves peuvent se résorber par la simple volonté du malade. Ce n’est malheureusement pas le cas (et c’est en plus culpabilisant pour le malade qui ne guérit pas). L’effet placebo est largement surestimé. Voici trois des nombreuses raisons.
- D’abord, comme je l’ai écrit plus haut, une majorité des affections disparaissent spontanément, quoi qu’on y fasse. Soigne ton rhume, dit le proverbe, il durera sept jours. Ne le soigne pas, il durera une semaine. On fait une erreur de causalité, et on prête ainsi à l’effet placebo ce qui est l’œuvre du temps.
- La deuxième raison porte un nom barbare : la régression à la moyenne8. Un patient vient souvent voir le médecin quand il est dans le pic de la souffrance. Si on vient prendre une pilule au moment d’un pic, il est très probable que le mieux soit dû non à la pilule mais à la redescente naturelle vers la position moyenne.
- Une troisième raison est appelée effet Hawthorne et mérite un détour historique. Entre 1924 et 1932, le psychologue Elton Mayo conduisit une suite d’essais dans les usines de Hawthorne de la Western Electric Company, aux États-Unis qui devaient montrer si des modifications simples des conditions de travail comme l’éclairage pouvaient avoir des effets sur la productivité des ouvriers. À sa grande surprise, la productivité a augmenté qu’on augmente, ou qu’on diminue la lumière, et même lorsque les ampoules étaient remplacées par de nouvelles de même puissance. Ce n’étaient cependant pas les conditions extérieures qui étaient décisives pour les résultats, mais la participation à l’étude en soi, et l’attention accrue des sujets sur l’impression que quelque chose s’était passé. L’effet Hawthorne prévoit donc que des sujets qui se savent inclus dans une étude ont tendance à être plus motivés et répondre un peu ce qu’ils présument qu’on attend d’eux9.
Il y a encore d’autres raisons, plus techniques, que je n’aborde pas ici.
Les médecines alternatives sont-elles des médecines, et sont-elles alternatives ?
L’homéopathie
- Pathogénésie. Hahnemann est parti du principe qu’on doit soigner le mal par le mal, et a posé la règle suivante : si un poison crée des dégâts chez un sujet sain, on doit pouvoir l’utiliser pour guérir ces mêmes dégâts. Mais afin de ne plus avoir le « poison », mais seulement son message, il faut le diluer suffisamment, puis le dynamiser (cf. plus loin). Prenons un exemple : si le café maintient éveillé un sujet sain, alors selon Hahnemann du café hautement dilué et dynamisé (médicament homéopathique Coffea cruda) entrainera le sommeil chez une personne insomniaque. Hahnemann a ainsi posé des centaines de poisons, qui vont deMephitis putorius (sécrétion de la glande anale du putois) à Tonsillinum (extraits d’abcès d’amygdales) – et qui bat en brèche l’idée répandue que l’homéopathie est une médecine à base de plantes. Cette règle de pathogénésie sur la base des poisons est désormais abandonnée en médecine, car elle ne fonctionne pas et il n’y a aucun indice suspectant que ça puisse fonctionner. Chose étrange, l’homéopathie d’aujourd’hui n’est plus indexée sur les pathogénésies du fondateur.
Attention, le mécanisme vaccinal n’est pas le même : alors que Hahnemann veut soigner le mal par la substance hautement diluée et dynamisée qui à l’origine pouvait créer le mal chez un sujet sain, le vaccin « prévient » une maladie en préparant le corps à la substance qui le rendra malade, et cela avec des doses importantes. Là, quel que soit son point de vue moral dessus, la technique fonctionne, et le mécanisme physiologique est largement décrit depuis plus d’un siècle.
- Très hautes dilutions. La substance de départ est diluée dans 99 fois son volume de solvant (l’eau en général, parfois l’alcool) pour obtenir 1 CH, ou Centésimale Hahnemanienne. CH2 revient à prendre une goutte de CH1, et rediluer dans 99 gouttes de solvant (donc un volume de substance, pour 10000 volumes de solvants, etc.) A partir de CH12, il n’y a pratiquement plus aucune chance de trouver la molécule de départ, et chaque CH en plus divise cette chance par 100. À 5 CH, l’équivalence de dilution est un fond de bière (1 cl) dans 40 piscines olympiques. À 12 CH, c’est la même goutte de bière dans tous les océans du monde. Les plus curieux auront remarqué qu’un autre type de dilution est utilisé entre autres pour l’Oscillococcinum dilué à la 200e K. La technique K du nom de son inventeur l’homéopathe Semen Korsakov revient à rincer 200 fois un récipient avec de l’eau et en secouant très fortement à chaque rinçage, ce qui est une technique de dilution au bas mot hasardeuse.Devant de telles techniques, la seule solution fut d’invoquer l’idée que même en l’absence de substance, un message se répand dans le solvant qui en garde une « mémoire ». C’est ainsi que naquit l’histoire de la « mémoire de l’eau », née d’une publication dans Nature en 1989 de résultats que l’on a démontrés depuis comme frauduleux. Ceci dit, rien pour l’instant ne vient à l’appui d’une telle « mémoire », mais qui sait ? Peut-être un jour la science montrera-t-elle son existence. En attendant, cette hypothèse n’est pas nécessaire car l’efficacité relative de l’homéopathie ne dépasse pas les effets contextuels placebo.
- La succussion. Voyant qu’en diluant ses poisons, il diluait également les principes actifs, Hahnemann eut l’intuition de secouer le mélange pour le « dynamiser » et retrouver ainsi le « message » de départ. Pour l’instant, il n’existe aucun élément à l’appui de l’idée que secouer une solution dans laquelle trop peu de substances actives sont présentes réveillerait et stimulerait une activité. Pour imager un peu, c’est comme si, secouant un extrait de pastis dilué à un point où il n’y a plus les molécules du pastis, on retrouvait du pastis.
L’efficacité thérapeutique repose sur la confiance que les patients lui vouent couplée aux pathologies spontanément résolutives et aux régressions à la moyenne expliquent son succès. Les mêmes effets contextuels sont observés chez les nourrissons. Quant aux animaux, idem (c’est montré depuis 1999 par McMillian) avec un paramètre en plus : non seulement les animaux sont sensibles aux effets contextuels – attention accrue, visites plus nombreuses, caresses – mais en outre le mieux-être est évalué par le propriétaire, non par l’animal lui-même. Et il est rare que le propriétaire ne sache pas quels sont les résultats attendus, ce qui est une belle brèche dans le double aveugle.
Les fleurs de Bach
L’acupuncture
Alors ?
Que faire ?
Notes
- 1. Voir Effet pangloss, les dangers des raisonnements à rebours, La Traverse 2.
- 2. Je n’utilise pas par hasard Mère Teresa, qui en plus d’être baptiseuse de moribonds, était intégriste conservatrice et anti-avortement comme l’a montré Christopher Hitchens dans Le mythe de mère Teresa ou comment devenir une sainte de son vivant grâce à un excellent plan média, Dagorno (1996) et dans Mère Teresa, une sainteté médiatique, Le Monde Diplomatique (novembre 1996).
- 3. Un exemple tout à fait épouvantable sur la Biologie totale est donné dans On a tué ma mère – Face aux charlatans de la santé, par Nathalie de Reuck et Philippe Dutilleul, Buchet Chastel (2010).
- 4. Il semble que la version du film de Sean Penn soit un peu arrangée et que McCandless soit plus probablement mort d’une combinaison de sous-nutrition et du Mal du Caribou – hyperconsommation quasi-exclusive de protéines animales, appelée aussi Rabbit starvation.
- 5. Le carabin, surnom de l’étudiant en médecine, est un terme qui désignait ceux qui enfouissaient les morts pendant les grandes pestes de la fin du Moyen-Âge.
- 6. C’est le premier verset de la Vulgate, la Bible version latine, utilisé au V° siècle dans la liturgie lors de l’Office des morts
- 7. Richard Asher en parlait dans son recueil d’articles non traduit Talking Sense, Pitman Medical (1972). À titre d’anecdote, Asher dénonçait la littérature scientifique incrustée de « foul-2-mots-6-byl-1,1-compréhensibles-2-tout-1-chakin » (allotov-words-2-obscure-4-any-1,2-succidin-understanding-them) et parlait des 7 péchés capitaux du médecin : l’obscurité, la cruauté, les mauvaises manières, la sur-spécialisation, l’amour du rare, la stupidité commune et la paresse (dans The Lancet, 27 août 1949, pages 358-60).
- 8. Autre anecdote : on doit ce biais, cette « regression to the mean », à Francis Galton, grand savant mais également tragique fondateur de l’eugénisme, et inventeur de la systématique des empruntes digitales.
- 9. Elton Mayo, Hawthorne and the Western Electric Company, The Social Problems of an Industrial Civilisation, Routledge (1949). Cela rejoint ce que les enseignants appellent parfois l’effet Pygmalion, sorte de prophétie autoréalisatrice qui consiste à influencer l’évolution d’un élève en émettant une hypothèse sur son devenir scolaire. Mais si l’effet Hawthorne est considéré comme certain, l’effet pygmalion a semble-t-il été surestimé.
- 10. J’ai recensé tout cela dans Les fleurs de Bach, Enquête au pays des élixirs, Book-i-book.com (2008).
- 11. L’opération de l’appendicite « sous acupuncture » du journaliste James Reston à Pékin lors du voyage du président Nixon, et racontée par ses soins dans le New York Times du 26 juillet 1971 fit grand bruit. Mais l’histoire est embellie, puisqu’il semble que Reston eut une anesthésie et des soins post-opératoires classiques auxquels fut adjointe de l’acupuncture.
- 12. À propos de Steiner, je ne parle pas directement des écoles Waldorf, de l’agriculture biodynamique, des produits Weleda ou du mouvement Camphill, mais du père fondateur lui-même, Rudolf Steiner, dont il faut lire les textes pour se rendre compte qu’on n’est pas du tout dans l’alternative progressiste, mais plus volontiers dans le naturalisme chrétien d’extrême-droite. Cela vaut le détour de lire par exemple R. Steiner, Cours aux agriculteurs, Novalis (2003).
- 13. Association Formindep www.formindep.org
Biologie, épistémologie – Guillaume Lecointre, des sciences très sollicitées

Des sciences très sollicitées
L’évolution biologique est rarement bien enseignée dans les écoles publiques de par le monde, quand elle l’est. Il est vrai qu’il est difficile de parler d’un phénomène qui échappe à nos sens, et dont les changements qu’il produit sur les êtres vivants sont dépourvus de toute notion de destin : rien n’est écrit à l’avance. Rien de plus difficile pour notre psychologie et notre grammaire, habituées à se penser dans une finalité. Mais surtout, l’évolution biologique contient ce que les sciences ont à dire sur l’origine des êtres vivants, de l’homme et de ses sociétés. Or, ce terrain-là est déjà largement investi, hors des laboratoires et des écoles publiques, par d’autres modalités d’affirmations sur le monde, dont certaines n’entendent pas laisser aux sciences leur autonomie dans la validation des savoirs.
On ne s’attardera pas sur les créationnismes « négationniste » et « mimétique ». Ils se fondent sur le récit de la création de l’univers dans les grands textes monothéistes, pris de façon littérale. Les contradictions qui en résultent provoquent une négation des résultats des sciences dans le premier cas, ou bien une « science créationniste » qui établit les prétendues preuves de la vérité littérale du texte dans le second cas. Le premier est notamment représenté par Harun Yahya, pseudonyme de M. Adnan Oktar, homme d’affaires et d’influence turc, qui distribua en janvier 2007 dans toute l’Europe son Atlas de la Création, (auto-édité, Global Publishing) y compris dans les établissements scolaires et laboratoires français. En janvier 2012, via Harun Yahya France, il organisait à Paris, à Rouen et à Évry, une série de conférences : « L’impasse moléculaire de la théorie de l’évolution » « l’effondrement de la théorie de l’évolution »…
Mais il existe une autre stratégie, plus fine, celle d’un créationnisme « normatif » qui entend redéfinir les sciences de l’extérieur, et faire accepter comme scientifique le recours à la Providence. Ce sera le propos de l’ « Intelligent Design », le dessein intelligent. Il n’y a plus de référence aux textes sacrés, mais un « constat »: « L’existence et le développement sur terre requièrent tellement de variables qu’il est impossible qu’ils se soient ajustés par des évènements aléatoires et non-coordonnés »[2]. En d’autres termes, certaines caractéristiques du vivant seraient mieux expliquées par une cause intelligente, que par des processus de variation-sélection. Ce dessein intelligent, développé aux États-Unis par le Discovery Institute, un think tank conservateur chrétien, n’est autre que la théologie naturelle déguisée en science.
Enfin, il existe un spiritualisme englobant, qui n’est pas un créationnisme au sens étroit, mais qui tente de mobiliser la communauté professionnelle des chercheurs dans une « quête de sens », en créant une confusion entre ce que ces derniers peuvent dire individuellement, et ce qu’ils sont habilités à dire en tant que membres de la communauté scientifique. En France, c’est l’Université interdisciplinaire de Paris (UIP) qui agit en ce sens, financée notamment par l’organisation américaine John Templeton Foundation du nom de son fondateur, milliardaire philanthrope et presbytérien (1912-2008). Ce dernier considérait que « Dieu se révèle de plus en plus (…) à travers la recherche étonnamment productive des scientifiques modernes », et que « les révélations scientifiques peuvent être une mine d’or pour revivifier la religion au XXIe siècle ». Sa Fondation se donne pour objectif d’encourager « le dialogue civil, informé, entre scientifiques, philosophes et théologiens » [3]; elle se fait de plus en plus incolore afin de souscrire aux critères de la recevabilité académique. La formule fonctionne : pour son colloque des 5 et 6 décembre 2012, l’UIP affiche sa collaboration avec l’Université Paris V.
L’offensive se joue aussi sur le plan politique. Depuis 2003, c’est l’intelligent design que les enfants turcs reçoivent en guise de cours de biologie [4]. En 2004, la ministre italienne de l’éducation nationale et son homologue serbe s’opposent à l’enseignement de l’évolution biologique dans les écoles. En 2006, la ministre néerlandaise propose un référendum sur la question de l’enseignement à l’école publique du « dessein intelligent ». En 2012, l’État américain du Tennessee est le deuxième, après la Louisiane, à autoriser les enseignants à proposer des substituts ou des contre-arguments à l’évolution darwinienne, afin de permettre à l’élève de juger « de manière efficace des forces et des faiblesses des théories scientifiques existantes ». Quatre autres États (Indiana, Missouri, New Hampshire, Oklahoma) examinent des projets de lois comparables.
Si les sciences de l’évolution suscitent tant d’hostilité, alors même que, sans elles, il n’est pas de sélection en agronomie, de lutte contre les agents pathogènes en médecine, de sauvegarde pérenne de la biodiversité, c’est qu’elles semblent interférer avec le domaine des croyances. Il appartient alors aux scientifiques d’expliquer leur « contrat » méthodologique, afin d’inviter leurs concitoyens à ne pas se tromper sur son périmètre de légitimité, de faire comprendre la distinction entre croire et savoir. Surtout, il leur appartient d’expliquer en quoi ces méthodes ne sont pas collectivement mues par une volonté de conforter ou de contredire une croyance particulière. L’articulation entre croyance et savoir est l’affaire de chacun, et les scientifiques ne sont pas des prescripteurs, collectivement, de cette articulation.
Or, les créationnismes et spiritualismes cités ont tous un point commun, leur ignorance, réelle ou feinte, de la nature et du périmètre de légitimité de la démarche et du discours scientifiques : ce que les sciences disent, comment elles le disent, ce qu’elles ne disent pas. Quand l’UIP somme les chercheurs de réfléchir aux « conséquences métaphysiques » de leurs découvertes (Le Monde, 23 février 2006) et affirme qu’« un créateur ne peut être exclu du champ de la science », (Le Monde, 2 septembre 2006), elle « oublie » que le propre des sciences n’est jamais de dire ce qu’il faut « croire », mais de démontrer ce qu’il n’est logiquement plus possible de croire. Mais surtout, elle omet de dire si les scientifiques sont appelés à se prononcer sur ces questions à titre individuel, ou à titre collectif. La confusion entraîne le métier de scientifique d’aujourd’hui au delà de sa légitimité. Il s’agit bien là d’une forme de scientisme déguisé. En organisant la confusion entre la quête spirituelle individuelle et le contrat collectif d’une profession, ces offensives peuvent avoir pour effet, à terme, de faire perdre l’autonomie des scientifiques dans la validation des savoirs. En effet, si la profession se voyait collectivement animée d’un agenda métaphysique, il lui faudrait s’attendre à se voir imposé ce qu’il serait conforme de trouver. L’universalisme des connaissances raisonnées, qui tient aujourd’hui précisément à une abstention métaphysique, ne serait plus possible et l’on assisterait à une communautarisation des savoirs.
Il est donc nécessaire d’expliciter le but des sciences et les attendus méthodologiques tacites d’une démarche scientifique, ce qu’on attend de nos doctorants sans le leur dire – le contrat méthodologique, en quelque sorte. Le rôle des sciences, en tant qu’entreprise intellectuelle collective, est de fournir des explications rationnellement justifiées du monde réel à partir d’expériences testables, reproductibles, validées par des observateurs indépendants. L’« expérience » doit être prise au sens large, incluant le produit des enquêtes et les démonstrations mathématiques. Ces attendus sont le scepticisme initial sur les faits – toute question relative à des faits peut être légitimement posée et la réponse n’est pas requise à l’avance ; la rationalité – le scientifique doit être logique et suivre un principe d’économie d’hypothèse; le réalisme de principe – il vise à une connaissance objective, c’est-à-dire qu’il souhaite que d’autres puissent corroborer ses affirmations en les vérifiant dans le monde réel ; ce qui signifie que le monde réel existe indépendamment de soi et de ce qu’on en dit, et qu’il se manifestera à un collègue inconnu comme il s’est manifesté à un autre chercheur ; le matérialisme méthodologique – la vérification expérimentale n’est possible que sur ce qui est matériel ou d’origine matérielle. Dit autrement, les sciences ne savent travailler qu’avec ce qui est matière ou propriétés émergentes de celle-ci. Ce matérialisme-là n’est pas un point de vue philosophique : il affirme seulement mais pleinement que la science ne travaille pas avec des entités à la fois déclarées immatérielles et agissant sur le monde réel.
S’agit-il là d’une vision angélique ? D’un mythe ? Non, d’un contrat minimal sans lequel un doctorant n’aurait pas sa thèse, socle commun auquel peuvent s’ajouter des spécificités disciplinaires. Certes, le scientifique peut avoir ses options personnelles, et même des sources d’inspiration mystiques, mais la validation des savoirs relève du collectif : sur le long terme, une connaissance ne se stabilise que si la reproduction d’expériences a dépassé et, en quelque sorte, dissout les dérapages individuels du savant qui aurait oublié de laisser ses opinions au vestiaire en entrant dans le laboratoire. L’espace collectif d’élaboration des savoirs est donc laïque de fait, et travaille sur le long terme. C’est en enseignant explicitement ce contrat de scientificité qu’on se donnera les chances de garantir un socle factuel commun à tous les futurs citoyens, sans lequel on ne construit pas une république qui met la Raison au cœur du vivre ensemble. L’enjeu n’est pas seulement celui de l’autonomie des sciences, il est aussi et surtout à l’école publique.
Faut-il dialoguer avec les créationnistes ? Bien entendu. Mais les scientifiques ne doivent pas offrir le bénéfice de communication que les créationnistes attendent d’un « plateau commun » avec un scientifique du milieu académique devant le grand public. Les créationnistes tireront toujours avantage d’un tel dialogue, parce le scientifique laissera malgré lui entendre au public que son interlocuteur est susceptible de jouer le même jeu que lui. Or, on peut démontrer que toutes les formes du créationnisme moderne commettent des entorses multiples aux termes du contrat tacite énoncé plus haut. C’est au philosophe, au théologien, et à l’élu politique de dialoguer avec les créationnistes. Mais alors, que doivent faire les scientifiques ?
Aux scientifiques du milieu académique, dont le salaire est financé avec de l’argent public pour produire précisément de la connaissance objective et la restituer vers leurs concitoyens, l’État demande d’être garants de la fiabilité des résultats collectivement acquis-tant qu’il y aura un État redistributeur de richesses, richesses culturelles comprises (et comme dirait Chomsky, mieux vaut les grilles de l’état que les fauves qui tournent autour). A eux de signaler les contrefaçons, et de populariser les règles du jeu qui fondent le contrat entre connaissance et science.
Guillaume Lecointre
Cet article sera publié dans le n° 621 des Cahiers rationalistes, à paraître en janvier-février 2013.
[1] Les Sciences face aux créationnismes. Ré-expliciter le contrat méthodologique des chercheurs Coll. Sciences en questions, Quae, Versailles, 2012. Guide critique de l’évolution, Belin, Paris, 2009.
[2] Qu’est-ce que la Théorie du Dessein Intelligent ? (Got questions, réponses théologiques).http://www.gotquestions.org/Francais/dessein-intelligent.html
[3] Voir le site www.templeton.org et aussi Cyrille Beaudouin,Olivier Brosseau, Cette étrange FondationTempleton, La Recherche Hors Série n°4 « Dieu et la Science »,avril 2012.
[4] Somel Mehmet, Somel Rahsan Nazli Ozturkler, Kence Aykut (2007), Turks fighting back against anti-evolution forces, Nature 445 (7124)
Science politique – Réflexion critique autour de la notion d’identité européenne
Notre collègue Clara Egger (Sciences Politiques) nous livre ici de ses contenus de cours, élaboré pour ses étudiants quand elle enseignait à l’Institut D’Études Politiques de Grenoble. Ce cours visait à ébranler, critiquer et requestionner une notion aussi floue que rabâchée : la notion d’identité européenne.
Bonne lecture.
RM
Table of Contents
Cette session de cours a été proposée en novembre 2012 à des étudiants de troisième année en sciences politiques à l’Institut d’Etudes Politiques de Grenoble dans le cadre d’une conférence de méthode sur la construction européenne et ses effets.
Le thème de la séance portait sur l’ »Europe des Peuples » et cherchait à interroger les mécanismes de rejet et d’adhésion à la construction européenne. Plus largement, la séance visait à questionner la construction d’une identité européenne par les institutions européennes et analyser les processus d’identification sur lesquels reposent les différents systèmes politiques.
Les étudiants étaient au nombre de 22 et étaient « captifs » pour trois heures. Je les connaissais depuis mi-septembre.
Voici le déroulement de la séquence.
Préparation
En amont du cours, il a été demandé aux étudiants de trouver un support (vidéo, chant, texte, images) illustrant une vision de l’identité européenne. Les étudiants sont invités à expliquer leur choix (support qui les choque, qui les interroge, qui représente leur vision de l’Europe).
Introduction du support choisi par l’enseignante
Dans un premier temps, j’ai introduit un support, une vidéo d’un clip de la Commission Européenne de mars 2012 visant à promouvoir l’élargissement auprès des jeunes. La vidéo est restée quelques heures en lignes et a fait scandale car on y voit une jeune femme blanche (habillée comme Uma Thurman dans le film Kill Bill, de Q. Tarantino) se faisant agresser par des guerriers chinois, brésiliens et indiens maniant chacun un art martial national. Pour se défendre la jeune femme se dédouble jusqu’à former un cercle autour des guerriers les invitant à la négociation. Le slogan est : « the more we are, the stronger we are » : plus nous sommes nombreux, plus nous sommes forts. Voir la vidéo ici, ou ci-dessous [1].
[youtube=http://www.youtube.com/watch?v=9E2B_yI8jrI]
Débat autour de la notion d’identité européenne autour des supports de chacun
Avant le débat, j’ai introduit quelques règles.
-
On évite les débats « ping-pong », c’est-à-dire les réactions à chaud peu construites et peu argumentées entre deux étudiants aux positions différentes.
-
On essaie de construire des réponses et des arguments construits et originaux.
-
Pas d’attaques personnelles, on réfléchit sur les supports mais on ne juge pas les choix des collègues.
-
Je prendrai toujours le parti de l’argument minoritaire.
Le débat s’est engagé spontanément après le visionnage de la vidéo qui, après avoir fait sourire (la référence à Kill Bill), puis franchement rire (avec le ridicule des arts martiaux sur-joués), a fini par choquer. Les étudiants ont d’abord tout comme moi cru à une parodie des supports de communication de l’Union Européenne. Puis le débat s’est engagé.
Au début les étudiants ont « réagi » plutôt que de construit des arguments : certains se disaient choqués, d’autres trouvaient la gaffe utile pour montrer « le vrai visage de l’Europe ». Je les ai ensuite invité à mobiliser et présenter leur support pour nourrir le débat.
-
Une étudiante a évoqué un projet d’exposition européenne, Art et Europe (ici) organisé par des étudiants et visant à faire de l’art un vecteur d’identité européenne.
-
Un autre étudiant a parlé des sculptures placés devant les institutions européennes, notamment celle représentant la figure maternelle portant dans ses bras des enfants (ci-contre, « L’Europe à coeur« , sculpture de Ludmila Tcherina).
-
Des étudiants ont aussi utilisé des supports utilisant la religion comme vecteur identitaire pour l’Europe, notamment une citation de Chantal Delsol, philosophe politique, catholique et éditorialiste au Figaro publiée dans sa contribution à l’ouvrage d’ E. Montfort, Dieu a-t-il sa place en Europe? :
« Si nous regardons la Charte des droits de l’homme musulman, nous y trouvons deux espèces humaines distinctes : celle des hommes et celle des femmes. Or, ce n’est pas ainsi que les Européens voient les choses, puisqu’ils héritent de Saint-Paul le postulat de l’unité de l’espèce humaine. Peut-on imaginer une liberté personnelle qui ne vaudrait que pour une partie d’entre nous ? Les Européens feraient bien de s’interroger là-dessus quand il s’agit de l’entrée de la Turquie en Europe » [2].
Comme tout le monde ne présentait pas ses supports, je me suis permise d’inviter ceux qui ne s’étaient pas exprimés. Certains, certes avaient trouvé la vidéo, parmi d’autres n’avaient sans doute pas eu le temps de chercher. J’ai alors demandé s’ils/elles avaient trouvé des supports de pédagogie destinés à des classes primaires ou secondaires, et beaucoup ont réagi en pointant le fait que dans les manuels, la construction européenne est présentée de façon très positive comme un phénomène « naturel » (cf. travaux de G. Reviron, ici), et non issus de choix politiques et d’une construction identitaire. D’autres ont évoqué l’absurdité d’invoquer le mythe d’Europe comme base de l’identité européenne (mythe peu connu, lointain et assez violent : il s’agit tout de même d’un enlèvement et d’un viol déguisé).
Référence à la figure mythologique d’Europe, souvent mis en avant comme figure tutélaire du continent. Selon le mythe, Europe princesse phénicienne fille d’Agénor a été enlevée par Zeus métamorphosé en taureau blanc pour séduire la jeune femme et éviter la colère de son épouse Héra. Zeus emmène la jeune femme en Crète pour s’accoupler avec elle une fois redevenu humain. De leur union, naissent Minos, Radhamante (tous deux devenus juges des Enfers) et Sarpédon qui s’exile en Anatolie. Europe est ensuite donnée par Zeus comme épouse au roi de Crète.
Arguments échangés
Le débat a beaucoup tourné autour de l’instrumentalisation des symboles pour construire une identité commune, notamment l’absurdité d’une référence au mythe d’Europe : c’est une histoire misogyne et fondamentalement violente. Les étudiants ont aussi mis en lumière une certaine schizophrénie européenne alternant messages de paix et d’amour (notamment via la figure de la mère nourricière) et une vision xénophobe de l’étranger. Des parallèles ont été proposés avec la construction d’une mémoire et d’une mythologie commune au sein des états nationaux. La construction d’une identité européenne a été perçue comme largement artificielle car basée sur une volonté d’imposer un attachement au marché unique alors que l’Europe n’est pas en mesure de construire un projet fédérateur avec et pour ses citoyens. Dès lors, l’identité européenne semble se baser uniquement sur un rejet de l’étranger. En guise de conclusion l’auteur a proposé la lecture de l’article de Denis Duez, « L’Europe et les clandestins : la peur de l’autre comme facteur d’intégration ? » [3].
Retours pédagogiques sur l’expérience
Utiliser des supports a permis de dépassionner le débat. Il faut sans doute rappeler que le groupe d’étudiants est parmi l’un des plus politisés que j’ai connus et que le débat tourne parfois aux attaques personnelles tant la prise de recul est difficile sur des sujets polémiques ou mettant en jeu des opinions personnelles. En outre, j’ai beaucoup apprécié de voir des étudiants qui peinaient à prendre la parole prendre activement part au débat. Les étudiants ont proposé une lecture critique des processus d’identification à l’Europe en analysant avec justesse ses dérives : rejet de l’autre, xénophobie et repli nationaliste et ethnocentrique. Plus largement, ce cours a aussi permis d’étendre la réflexion à la construction des identités nationales.
Je garderai cette idée de mobiliser des supports pour organiser un débat mais je pense préparer les choses plus en amont en y consacrant un temps de préparation et d’analyse plus long afin que chacun puisse s’exprimer et mûrir le débat. J’ai trouvé les supports globalement pertinents mais j’ai regretté que les étudiants ne puisent pas dans « l’histoire officielle » de la construction européenne (en mobilisant des contenus de cours, des articles…).
Clara Egger
[1] François Asselineau, Le choc des civilisations prôné dans un clip de la commission européenne, Agoravox, 6 mars 2012.
[2] Chantal Delsol, « Liberté et christianisme », in E. Montfort, Dieu a-t-il sa place en Europe ?, p.115.
[3] Denis Duez, L’Europe et les clandestins : la peur de l’autre comme facteur d’intégration ?, Politique européenne, 2008/3 n° 26, p. 97-119.
––Vous reprenez ce matériel pour un de vos enseignements ? Vous l’améliorez ? Racontez-nous.—
Mathématiques – Comment tromper avec des graphiques
Un graphique a généralement pour but d’illustrer un propos souvent trop complexe pour le lecteur ou le téléspectateur, et qui gagnerait en clarté en étant présenté de manière synthétique. Cette version « visuelle » est donc régulièrement choisie pour exposer des données de façon immédiate et avec le moins d’ambiguïté, que ce soit pour faire comprendre rapidement l’évolution du chômage, les résultats extraordinaires d’un dentifrice sur l’acidité de notre bouche ou la diminution de la dette du Lesotho.
Mais cette présentation ne va pas toujours de soi : les choix des axes, des origines, de la présentation, des données illustrées peuvent tout aussi bien tromper qu’éclairer et faire passer une augmentation significative pour stagnation évidente, une homogénéité de fait pour disparité flagrante, etc.
Si de très bons ouvrages existent et présentent quelques-uns de ces pièges (voir ci-dessous), voici quelques exemples à consulter directement.
N’hésitez pas à nous faire connaître les vôtres –> contact(at)cortecs.org
Denis Caroti
Table of Contents
Graphiques, attention aux axes
Nicolas Gauvrit nous offre ici du matériel pédagogique « prêt-à-l’emploi » permettant de déconstruire quelques artifices graphiques, notamment sur le choix des axes.
[dailymotion id=xgylu8]
Pour voir les autres ressources pédagogiques de Nicolas Gauvrit, cliquez ici.
Chiffres de la délinquance
Note de Guillemette Reviron : lorsque j’ai présenté le travail de Nicolas Gauvrit (ci-dessus) à un public de travailleurs sociaux, un membre de l’assemblée (merci à lui) m’a signalé cette séquence du Journal Télévisé de 20h (le 20 janvier 2011 sur TF1) : Brice Hortefeux, ministre de l’Intérieur à l’époque, venait présenter l’évolution des chiffres de la délinquance et avait préparé pour cela un beau graphique.
Après avoir vu la vidéo de Nicolas Gauvrit, cela saute aux yeux : il manque l’axe vertical, celui qui contient toute l’information, sans parler du titre, particulièrement vague. Le graphique du ministre ne veut tout simplement rien dire.
Cet extrait peut être utilisé de la manière suivante :
a. On peut commencer par projeter l’extrait du Journal Télévisé…
b. puis on montre la vidéo du cours de Nicolas Gauvrit…
c. Et enfin, nouvelle projection de l’extrait et analyse.
Chiffres du chômage
Voici une autre illustration de l’impact que peut avoir le choix d’une échelle sur un graphique, tiré du Petit Journal du 29 novembre 2011 (Canal +). Merci à Frantz Diguelman de me l’avoir signalé.
Les graphiques :
![]() |
![]() |
![]() |
Journal Télévisé – 20h – TF1 | Journal Télévisé – 20h – France 2 | Journal Télévisé – 20h – France 3 |
Guillemette Reviron
Résultats scolaires : graphiques, méfions-nous(1) !
Comme chacun le sait, les diagrammes en « toile d’araignée » permettent, bien mieux qu’un histogramme ou un simple tableau, de repérer rapidement le « profil » des notes d’un élève lors d’un conseil de classe…
Alain Le Métayer
(1) Ce titre est bien sûr un clin d’œil à Nicolas Gauvrit, l’auteur de Statistiques. Méfiez-vous ! Ellipses, 2007.
Bibliographie
Trois ouvrages au moins nous ont convaincu de leur utilité pour tenter de déjouer les artifices qui peuvent être créés (volontairement ou non) à l’aide de ces « outils graphiques » :
- Statistiques. Méfiez-vous ! Nicolas Gauvrit, Ellipses, 2007.
- Petit cours d’autodéfense intellectuelle, Normand Baillargeon, Lux, 2006.
- Déchiffrer le monde : contre-manuel des statistiques pour citoyens militants, Nico Hirtt, Aden Editions, 2007.
Solution – Le jeu des trois boîtes, ou problème de Monty Hall
Voici la solution au jeu des trois boîtes, ou problème de Monty Hall, donnée par Louis Dubé, et complétée par le CorteX.
Pour revenir à l’énoncé, voir ici.
Voici différentes approches de la version initiale
Table of Contents
Explication de Louis Dubé
La bonne réponse est la 2 : je change mon premier choix
La meilleure stratégie est de TOUJOURS changer son premier choix. En conservant votre premier choix, vous
ne changez pas de probabilité de succès, qui demeure un tiers. En changeant toujours de choix, vos chances de succès sont deux fois plus grandes. Car, en dévoilant l’une des boîtes qui n’a pas d’argent sous elle, le maître de cérémonie vous offre effectivement l’ensemble des deux choix qui restent, dont la probabilité égale deux tiers. La figure ci-contre illustre ce concept.
L’illusion est de penser que s’il reste deux choix et qu’on ignore lequel, notre premier choix est aussi bon que le deuxième offert (soit 50 %).
Tentez vous-mêmes l’expérience : un joueur cache l’argent sous l’une des trois boîtes à l’insu d’un deuxième joueur; le deuxième joueur tente de deviner où le premier joueur a caché l’argent en utilisant systématiquement – pendant disons 30 coups – l’une ou l’autre des stratégies proposées. Vous obtiendrez environ 20 succès sur 30, en suivant la stratégie de toujours changer de choix ; deux fois mieux que si vous gardiez toujours votre premier choix.
Une autre façon de saisir l’importance de changer son premier choix est de considérer un problème similaire : au lieu de trois boîtes, supposons que le choix original vous propose un millier de boîtes, dont une seule contient l’argent convoité. Vous choisissez au hasard la boîte N°527. Pour vous aider, le maître de cérémonie dévoile 998 boîtes qui ne contiennent pas d’argent, seule la boîte N°721 demeure, ainsi que votre choix original : la boîte N°527. Garderiez-vous votre choix original qui n’avait qu’une chance sur mille de contenir l’argent ? Croyez-vous vraiment que votre premier choix aurait maintenant une probabilité de 50 % ? Il apparaît évident que vous changeriez de choix en croyant (justement) qu’il y a beaucoup plus de chances (999 chances sur 1000) que l’argent se trouve sous la seule boîte (autre que votre choix original) qui n’a pas été dévoilée.
Louis Dubé
Approche expérimentale
Louis Dubé suggère à tout élève de collège de rendre fous ses professeurs en leur faisant une simple démonstration sur 30 essais. Personnellement, je vais essayer de le faire aux étudiants de zététique avec des gobelets, un euro et deux chewing gum mâchés (je viendrai raconter l’expérience).
Explication de Guillemette Reviron
À l’issue du premier tirage, la probabilité que je sois tombée sur la bonne boîte est de 1/3 et la probabilité que je me sois trompée, c’est-à-dire que la bonne boîte soit une des deux autres, est de 2/3. L’animateur ouvre ensuite une boîte vide. Cette petite manipulation ne change pas ces probabilités puisque le choix de la boîte a été fait avant :
– la probabilité d’être tombée sur la bonne boîte vaut toujours 1/3
– la probabilité que ce ne soit pas la bonne vaut toujours 2/3.
Ce qui a changé, c’est qu’à la première étape, si je me suis trompée, l’argent est sous l’une des deux autres boîtes alors qu’à présent, si je me suis trompée, l’argent est sous la seule autre boîte. J’avais 2 chances sur 3 qu’elle soit sous une des autres boîte, j’ai deux chances sur trois qu’elle soit sous l’autre boite.
Le tour est joué !
Regardez, j’ai parié, et j’ai gagné deux bouteilles de vin.
Explication grâce à l’arbre des possibles
Voici les versions (en anglais) de la version des tasses et (en français) de celle voiture/chèvres.
Démonstration à l’aide du théorème de Bayes
Pour des étudiants d’un certain niveau en mathématiques, on pourra résoudre le « paradoxe » avec le théorème du révérend Bayes, qui nous dit :
Soit un événement quelconque, et soit (Bi)i=1..n un ensemble d’événements à la fois exhaustifs et mutuellement exclusifs. Alors pour tout , on a :
Supposons que je choisisse la boite n°3 – le raisonnement serait identique dans les deux autres cas – et notons :
– F1 (respectivement F2 et F3) : la voiture se trouve dans la boite n°1 (resp. 2 et 3)
– O1 (respectivement O2 et O3): l’animateur ouvre la boite vide n°1 (resp. 2 et 3)
Supposons alors que l’animateur ouvre la boite 1 – le raisonnement est le même s’il ouvre la boite 2.
La probabilité de gagner en changeant mon choix est alors la probabilité que la voiture soit dans la boite 2 sachant que l’animateur a ouvert la boite n°1, c’est-à-dire P(F2/01). Or, d’après la formule de Bayes.
En effet, si la voiture est dans la boite 2 et que j’ai choisi la boite 3 au premier tirage, la seule boite que peut ouvrir l’animateur est la boite n°1 donc P(01/F2) = 1.
De la même manière, si la voiture est dans la boite 1, l’animateur ne peut pas l’ouvrir donc P(O1/F1)=0 et si la voiture est dans la boite 3, l’animateur a deux choix équiprobables (la boite 1 ou la boite 2) donc P(O1/F3) = 1/2.
Pour aller plus loin
- On retrouvera également une simulation avec chèvres et voiture sur le site du Laboratoire de Mathématiques Raphaël Salem de l’Université de Rouen (ici).
- Pour les fans de l’utilisation des sciences dans les fictions, voici un extrait de Las Vegas 21, de Robert Luketic (2008) lors duquel l’enseignant (Kevin Spacey) pose la question à ses étudiants – dont le jeune héros (Jim Sturgess) qui répond bien (extrait en anglais – je cherche une version originale sous-titrée, en attendant contentons-nous du doublage français)
[youtube=http://www.youtube.com/watch?v=huLoJcTppXk]
- Pour l’histoire, il semble que la paternité de ce dilemme revienne à Joseph Bertrand (ci-contre) en 1889, sous le nom de « Paradoxe de la boîte de Bertrand ».
Puis c’est le regretté Martin Gardner, incontournable pionnier de la pensée critique décédé en 2010, qui l’exhuma en 1959 dans sa rubrique Mathematical Games du Scientific American sous le nom de « problème des trois prisonniers » (« Mathematical Games » column, Scientific American, October 1959, pp. 180–182). Enfin, c’est Steve Selvin qui rouvrit la question dans « A problem in probability (letter to the editor)« , American Statistician 29 (1): 67 (February 1975) et « On the Monty Hall problem (letter to the editor) », American Statistician 29 (3): 134 (August 1975).
-
Un site est entièrement consacré au problème, ainsi qu’un livre : Jason Rosenhouse, The Monty Hall problem – The Remarkable Story of Math’s Most Contentious Brain Teaser (Oxford University Press 2009).
Louis Dubé nous offre en prime un court programme commenté en langage Basic qui simule ce problème avec « N » boîtes (donc aussi avec 3 boîtes).
Voici :
- le code du programme avec commentaires.
- Le code source en fichier texte (qui peut facilement être copié)
- Les résultats pour 9 essais (chaque étape en détail pour bien saisir le processus) et les résultats cumulatifs pour 9 essais et pour 1000 essais.
L'argumentation et le débat sur les sciences en CM2, par Marine Ridoux

Marine Ridoux, membre de l’Association des Petits Débrouillards, a co-conçu et a co-animé, avec Michel Goldberg, maître de conférence à l’Université de La Rochelle et Stéphanie Vicenzotto, professeure des écoles, un atelier sur l’argumentation et le débat sur les sciences en classe de CM2. Qu’est-ce qu’un argument ? Tous les arguments ont-ils le même poids ? Quelles sont les règles d’un débat équitable ? Ce travail sur l’argumentation a ensuite été mis en pratique sur un sujet complexe : la controverse liée aux énergies. Pour aborder toutes ces questions avec ce jeune public, les animateurs ont eu recours aux jeux de rôle, au théâtre ou encore au débat mouvant. Marine Ridoux nous raconte comment ils s’y sont pris…
L’article suivant a été écrit comme un récit d’expérience. Pour celles et ceux qui seraient tentés de monter un atelier similaire, un descriptif bien plus détaillé est disponible ici.
Nous savions que l’esprit critique peut être enseigné à l’école primaire (on pourra trouver des pistes ici. Vous en connaissez d’autres ? Ecrivez-nous !). Aussi avons-nous tenté de construire des outils de pensée critique dans le but d’aborder des controverses scientifiques avec notre jeune public. C’est ainsi que l’association Les Petits Débrouillards et une professeure des écoles ont proposé à une classe de CM2 (école primaire de Puilboreau en Charente maritime) une animation pour découvrir dans un premier temps ce qu’est un argument et pour débattre ensuite autour du thème des énergies.
Notre association a l’habitude de mettre en place en classe de primaire des ateliers scientifiques basés sur la démarche expérimentale. Cette fois-ci, le but était de donner des outils aux élèves qui leur permettent d’appréhender une argumentation sur une thématique scientifique.
Déroulement de l’activité
Information générale – L’enseignante, Stéphanie Vicenzotto, était chargée de transmettre des notions fondamentales sur le thème des énergies. Après une première séance en classe entière centrée sur la définition de l’énergie et de ces différentes formes, la classe a été divisée en neuf groupes de travail de trois élèves, chacun prenant en charge une thématique précise : nucléaire, pétrole, charbon, gaz naturel, éolien, solaire, hydraulique, géothermique, biomasse.
Recherche d’informations – Dans un premier temps les élèves ont dû réunir des informations sur cette énergie. Les recherches ont été menées à la bibliothèque de la ville, sur Internet, et grâce à certains documents réunis par la professeure des écoles. Pour faciliter les recherches la classe s’était mise d’accord sur un plan commun à chaque énergie : quelle est la source de cette énergie ? Comment est-elle transformée pour être utilisable par l’Humain ? Quels sont les avantages et inconvénients de ce type d’énergie ?
Pour ces recherches, chaque groupe était en autonomie, l’enseignante restant à la disposition des élèves pour toute demande d’information et de conseils.
Partage des connaissances – Les élèves ont ensuite créé une affiche qui récapitule et met en forme leurs connaissances acquises sur la question.
Finalement chaque groupe a présenté oralement ses recherches au reste de la classe. Les animateurs ont également assisté aux exposés.
Travail sur l’argumentation – Les animateurs Petits Débrouillards, Michel Goldberg et Marine Ridoux, sont intervenus pendant deux séances d’une heure et demie afin de discuter avec les élèves sur des questions d’argumentation. Les enfants avaient été répartis en deux demi-classes de 14 élèves. L’animation portait sur les questions suivantes : dans quelle situation argumente-t-on ? Qu’est ce qu’un argument ? Est-ce que les raisons appuyant un argument ont toutes la même valeur ? Comment peut-on répondre à des arguments qui sont présentés sans raison, ou dont les raisons sont insuffisantes, fausses, ou encore hors du sujet ?
Les animations dont découlent ces questionnements étaient essentiellement basées sur des jeux de rôles et de théâtre. Pour plus de détails sur l’argumentation et les animations, le déroulé pédagogique complet est disponible,ici.
Une séance finale a permis de mettre en application les notions abordées durant les deux phases précédentes, celle sur l’argumentation et celle sur la recherche bibliographique : s’écouter, respecter le temps de parole des autres, construire un argument, évaluer si un argument est « vrai », pertinent et suffisant pour justifier la conclusion, mobiliser ses connaissances, construire une opinion personnelle etc.. Pendant une heure, toujours en demi-groupe, il a été proposé aux élèves de débattre selon la technique du débat mouvant.
Le débat mouvant se crée sur une affirmation ou une question fermée (par laquelle on ne peut répondre que par oui ou par non). On demande aux participants de choisir leur camp (oui ou non) en fonction de leur opinion initiale, camps qui sont matérialisés dans l’espace et se font face. Chacun des camps reçoit la parole de façon alternée et tente de convaincre les autres grâce à un argument ou un exemple. Chaque fois qu’un argument de l’autre camp est jugé valable par un participant, il change de zone. |
- Avec tout ce que nous savons maintenant, il devient important de punir les enfants qui gaspillent de l’énergie
- Il faut tout de suite arrêter d’utiliser de l’énergie nucléaire et fossile pour n’utiliser que des énergies renouvelables.
- Tous les enfants du monde doivent pouvoir vivre comme nous aujourd’hui.
- Seuls les scientifiques sont capables de résoudre les problèmes actuels de l’énergie dans le monde.
Les précautions à prendre pour animer ce type de débats et les consignes données aux élèves sont détaillées ici.
Le public
D’après l’enseignante, les enfants qui ont participé à l’expérience étaient déjà très à l’aise à l’oral et avaient déjà une bonne culture générale. Il nous a également semblé que l’enseignement de la professeure tout au long de l’année a également participé au bon déroulement de l’expérience. En effet, elle a habitué ces élèves à prendre souvent la parole, à faire de nombreux petits exposés, à mener des expérimentations scientifiques et établir des hypothèses par groupe.
Des élèves à l’aise avec la parole et une classe habituée à travailler en groupes nous paraissent être deux conditions nécessaires pour monter un atelier sous cette forme.
Bilan des animateurs
Il nous est apparu que les enfants, dans leur ensemble, ont compris les notions que nous avions apportées. L’ambiance dans la classe était à la fois studieuse et animée. De nombreux enfants ont exprimé une grande satisfaction et une volonté de poursuivre ce type d’animation. Plusieurs enfants ont voulu souligner qu’ils avaient particulièrement aimé cette séance.
A titre d’exemples, les enfants ont été capables d’identifier et de définir par eux-mêmes plusieurs critères définissant un bon argument (« il faut s’expliquer pour être compris », « il faut laisser le choix »), ou une bonne stratégie argumentative (« il faut parler gentiment »). Il a cependant été difficile de différencier un « bon » argument sur le fond et sur la forme. Par exemple, un argument qui leur semble « gentil » sera forcément un bon argument même si celui-ci n’est pas justifié par des raisons.
Le temps consacré à l’ensemble des débats a été d’environ 25 minutes. Durant ce laps de temps tous les élèves ont au moins participé une fois même si certains d’entre eux participaient plus que d’autres. Nous avons été surpris de la réponse des enfants face aux questions. D’autant plus, que les questions choisies étaient délibérément piégeuses.
Par exemple, en leur demandant si Tous les enfants du monde doivent pouvoir vivre comme nous aujourd’hui, nous pensions que la plupart des élèves diraient : oui, tous les enfants doivent pouvoir avoir accès au confort, à l’éducation, etc. Mais au contraire, ils ont dans un premier temps souligné que tout le monde ne voulait pas forcément vivre comme nous, puis qu‘il n’y aurait pas assez de ressources pour que tout le monde vivent comme nous. Un élève a émis l’idée que nous devrions diminuer notre consommation, pour que les autres puissent gagner en confort.
D’après notre expérience, le format de plusieurs petites questions convient bien à l’âge et au format du débat qui s’essouffle si on ne choisit qu’une seule question. La plus grande difficulté est de choisir les affirmations qui seront débattues. Il est recommandé de les écrire au tableau pour que tout le monde soit d’accord sur les termes.
Les enfants étaient vraiment très dynamiques, et souhaitaient participer activement. Malheureusement, nous n’avions pas prévu assez de temps pour chaque activité. Parfois, il a fallu les raccourcir. Il aurait fallu un peu mieux cadrer les interventions des enfants et pour certains exercices, il avait été prévu de travailler sur 10 exemples, finalement 5 uniquement ont été traités.
Une autre critique possible de cette animation est qu’elle est essentiellement basée sur le théâtre et la prise de parole, il serait intéressant de développer de nouvelles activités qui permettent à des enfants peu à l’aise à l’oral de participer.
Bilan de l’enseignante
La professeure souligne la difficulté d’un tel projet à cause de la grande diversité d’apprentissage que cela implique pour les élèves. Ces nouveaux concepts ont été assimilés par les enfants en trois semaines uniquement. Selon la classe, il pourrait être préférable d’aborder ces différentes notions les unes après les autres, sur le long terme. Ces activités sont très majoritairement basées sur l’oral, or, l’écrit peut aider certains élèves à s’approprier les notions. Il aurait pu être intéressant de demander un exemple écrit individuel aux enfants. Il serait intéressant, de refaire un débat sur un autre thème (écosystème, biodiversité, reproduction,…) afin d’ancrer les acquis.
Perspectives
De nouvelles expériences pourront être menées en primaire avec des enfants plus jeunes. D’autres types d’activités pourront être testées, favorisant l’expression d’enfants qui ont plus de difficulté pour donner leur avis, notamment dans des classes moins habituées à prendre la parole :
- jeux de cartes type Seigneur des ténèbres. Dans le jeu classique, un élève joue le rôle du seigneur des ténèbres qui a sous ses ordres un ensemble de serviteurs qui n’arrêtent pas d’échouer dans leurs missions. A l’aide des cartes, les serviteurs construisent leurs argumentaires pour éviter la colère du maître des ténèbres. Celui-ci décide alors (et justifie à l’aide de la séance passée) si l’argumentaire lui semble valable. Certes, il faudra réfléchir à la manière de modifier les rôles et les règles pour rendre ce jeu coopératif ainsi que le thème de départ en fonction du domaine scientifique que l’on souhaite aborder, mais le principe des cartes qui donnent une contrainte ou une piste pour argumenter, ou de celles qui permettent de se faire aider, ainsi que le rôle de la personne qui doit dire si l’argument l’a convaincue ou non, nous paraîssent intéressants.
- recueil d’opinion dans le cercle familial ou amical sur l’argumentation
Nous aimerions également tester cette animation au niveau du secondaire. Cela pourrait donner lieu à des projets transdisciplinaires (français, sciences, mathématiques, histoire, géographie, théâtre).
D’autres animations pourraient également voir le jour en dehors du cadre scolaire, par exemple dans le cadre duconseil municipal des enfants à Angoulême.
Marine Ridoux
Atelier co-conçu et co-animé avec Michel Goldberg et Stéphanie Vicenzotto
Pour tout renseignement sur cet atelier, vous pouvez contacter Marine Ridoux : marine.ridoux (at) lespetitsdebrouillardspc.org
Journalisme – TP Conflit d'intérêt et indépendance de l'information
Voici un excellent Travail Pratique (TP) sur les conflits d’intérêt et l’indépendance de l’information de médias dits « gratuits » comme Direct matin. Il a été réalisé par une documentaliste (qui reste anonyme) avec une classe de seconde, dans le cadre d’un module d’observation critique des médias en accompagnement personnalisé au Centre de Documentation et d’Information.
Voici la fiche pédagogique publiée par l’association Acrimed dans leur magazine trimestriel Médiacritique(s) n° 4 de juillet-septembre 2012. Leur site regorge d’ailleurs de ressources critiques sur les médias et peut être consulté sans modération. Pour réitérer ce TP sans peine, j’ajoute quelques liens pour comprendre les enjeux et surtout le matériel nécessaire, c’est-à-dire quelques numéros en format pdf des fameux Direct matin dans lesquels apparaissent des articles dithyrambiques sur le système Autolib‘.
Enfin, pour prolonger et élargir la réflexion sur l’indépendance de l’information, on trouvera trois vidéos exploitables comme supports de débat ainsi que des liens vers des articles du Cortex.
Si vous refaites ce TP, n’hésitez surtout pas à partager votre expérience.
Table of Contents
Voici la fiche pédagogique parue dans Médiacritique(s) n°4
Bolloré, Direct Matin et Autolib’ : un cas d’écoleMédiacritique(s) n° 4 de juillet-septembre 2012, page 31. Depuis le lancement de ces voitures électriques en libre-service le 5 décembre 2011, le journal Direct Matin de Bolloré ne cesse de chanter les louanges d’Autolib’ du même Bolloré [1]. Sans le vouloir, le quotidien a fourni tous les ingrédients nécessaires à un exercice scolaire réussi. Retour sur une expérience pédagogique menée auprès d’élèves de seconde, dans le cadre d’un module d’observation critique des médias en accompagnement personnalisé au CDI. À réitérer : d’autres formules sont possibles…
I. Intitulé de l’exercice
– Identifiez le(s) propriétaire(s) d’un média. – Repérez un sujet dans lequel le média peut avoir un intérêt (conflit d’intérêts, poids du propriétaire). – Demandez-vous si le média sert les intérêts de son propriétaire dans le traitement du sujet (exemples d’éléments négatifs et/ou positifs, sources, place accordée au sujet…) 2. Documents La fréquence des articles sur Autolib’ dans Direct Matin a permis à chaque groupe d’élèves de travailler sur un numéro [2]. Comme le journal est gratuit, il était possible d’en prendre plusieurs exemplaires en réserve au cas où l’un d’entre eux serait abîmé. La collecte a été réalisée sans effort lors de trajets matinaux en RER. 3. Déroulement de l’exercice L’exercice s’est terminé par le survol d’un article tiré d’un journal différent avec un autre point de vue sur Autolib’. Cette lecture rapide a montré l’intérêt de varier ses sources d’information à défaut de pouvoir déceler l’influence du propriétaire sur son média… Notes [1] Voir « Quand Direct Matin, propriété du groupe Bolloré, se transforme en agence de pub pour… Bolloré », Médiacritique(s), janvier 2012, n°2, p.10. |
Note du CorteX : L’auteur a sûrement de bonnes raisons de rester anonyme, finalement peu importe son identité, c’est le contenu de son TP qui nous intéresse ici.
Ressources complémentaires du Cortex
– Téléchargez la fiche pédagogique « Bolloré, Direct Matin et Autolib’ : un cas d’école » en pdf, disponible sur le site d’Acrimed.
– La carte du Parti de la Presse et de l’Argent nécessaire pour identifier le propriétaire principal de Direct Matin se trouve dans le journal du film Les Nouveaux chiens de garde (Télécharger).
– Pour amorcer le matériel pédagogique nécessaire au TP, voici 4 numéros de Direct matin en version pdf où apparaissent des articles sur les Autolib‘.
(Quelques secondes sont nécessaires pour l’affichage)
Pour compléter ce matériel, n’hésitez pas à nous signaler rapidement les numéros de Direct matin traitant des Autolib‘. contact@cortecs.org. La page internet Kiosque de Direct matin permet de récupérer les exemplaires qui ont moins d’un mois.
– On peut également utiliser des articles publiés sur internet parallèlement au journal papier. Cinq articles sur Autolib‘ sont également disponibles en format pdf.
– Un article sur ce sujet est également paru dans le n°2 de Médiacritique(s) « Quand Direct matin se transforme en agence de pub pour…Bolloré ».
– Enfin, Arrêt sur images a également consacré deux courts articles sur ce sujet qui peuvent compléter les ressources : Direct matin (Bolloré) fait la pub d’Autolib (Bolloré) et Autopromo autolib : Bolloré récidive.
Pour prolonger le TP
Dans le cadre du Rassemblement des Associations de Journalistes (RAJ), le collectif des Incorrigibles alimente le débat sur la qualité et l’indépendance de l’information à travers trois vidéos (ci-dessous), autant d’excellents supports pour prolonger le débat sur la question de l’indépendance de l’information.
La vraie vie des journalistes / 1. La chef de rubrique
[dailymotion id=x7mftt]
La vraie vie des journalistes / 2. Le photographe
[dailymotion id=x7oplt]
La vraie vie des journalistes / 3. la rédactrice pigiste
[dailymotion id=x7opof]
Pour aller plus loin
Le CorteX propose également des ressources et des articles sur la fabrication de l’information, entre autres :
- TP – Sciences politiques – TP Fabrique de l’information, affaire Le Point Bintou
- Outillage – Scénarisation de l’information : la technique du Carpaccio
Et plus particulièrement la médiatisation des sciences :
-
Contenus de cours – Médias & science : matériel pédagogique
Nicolas Gaillard
Evolution & créationnisme – Le plus grand spectacle du monde par R.Dawkins

La théorie de l’évolution est une théorie scientifique nous dit-on. Soit. Mais sur quelles preuves se base-t-elle ? Qu’est-ce qui permet de dire qu’elle est plus vraie que fausse ? Comment répondre aux différentes attaques créationnistes (des plus radicales aux plus insidieuses) ? Sur quels exemples s’appuyer lorsque l’on est amené à présenter des faits solides et explicites ? Voilà l’ambition du biologiste Richard Dawkins en publiant Le plus grand spectacle du monde.
Pourquoi ce livre ?
J’avais besoin, je pense, de trouver des réponses simples et rapides à certaines questions, questions tirées de certains arguments (valides parfois, fallacieux le plus souvent) utilisés par les diverses formes de créationnismes et qui me posaient problème. Le résultat est un ouvrage assez complet mais parfois éloigné de l’objectif de départ [1]. Dawkins commence par un détour d’importance concernant le vocabulaire (qu’est-ce qu’une théorie scientifique et pourquoi l’évolution en est une comme les autres), et sur les idées reçues contre lesquelles Darwin et ses successeurs ont dû lutter pour faire entendre leur point de vue. Puis il revient longuement sur les différents aspects de la théorie, notamment avec de nombreux exemples clairs et utilisables. Un passage vraiment captivant traite, par comparaison, de la sélection artificielle et de la sélection naturelle. Un autre concerne l’évolution dans les temps géologiques : Dawkins y accumule les arguments tous plus convaincants les uns que les autres, de la dendrochronologie [2] en passant par toutes les datations basées sur la décroissance radioactive de certains éléments (pour l’âge des fossiles, celui des différentes couches sédimentaires ou bien de la Terre elle-même par exemple). Il présente enfin une série d’expériences permettant de tester les prévisions de la théorie évolutive. C’est un passage vraiment fantastique, notamment quand Dawkins expose en détail l’impressionnante expérience de Richard Lenski et de ses bactéries.
La suite du livre est tout aussi captivante : l’auteur bat en brèche plusieurs arguments créationnistes comme le fameux problème du « chaînon manquant » (qui n’en est pas un), ou de la complexité irréductible (qui n’est pas irréductible).
Mais…
Malgré une attention particulière à ne pas user d’un jargon finaliste ou même « lamarckiste » (Dawkins l’indique à plusieurs reprises), j’ai pu noter plusieurs formulations maladroites : « Comme les doigts individuels n’ont pas à porter de gros poids, ils ne sont pas particulièrement développés » ou « […] les pattes qui se sont modifiées pour porter les ‘ailes’ » (p.305). Attention, je sais qu’il est plus que difficile de construire des phrases sans avoir recours à ces expressions, mais je suis tenté de penser que c’est bien ainsi, en faisant cet effort permanent – et ce d’autant plus dans des livres de vulgarisation ou des documentaires animaliers – que petit à petit, on évitera dès le plus jeune âge de se dire : « Mais alors, le poisson, pour sortir de l’eau, il a transformé ses branchies en poumons ??! »
Denis Caroti
Editions Robert Laffon (Poche), 514 pages, 2010
10,50 €
[1] Beaucoup de descriptions des mécanismes de l’évolution elle-même sont données par l’auteur.
[2] La dendrochronologie est une méthode de datation basée sur les anneaux de croissance dans le bois des arbres.
Épistémologie – Les concepts de la sociologie sont-ils d'une nature spéciale ? par Dominique Raynaud

Nous avons à Grenoble la chance d’avoir un sociologue, épistémologue des sciences sociales qui fait un travail remarquable de rigueur. Il s’appelle Dominique Raynaud, et il travaille à l’Université Pierre-Mendès-France.
Comme nous, il souscrit à un monisme méthodologique, c’est-à-dire qu’il ne pense pas, contrairement à une opinion répandue, que les choses de la matière sensible et celles de la « matière » sociale méritent deux types de méthodes différentes. Pour faire simple, point de méthode différente, plus de sciences dites dures et d’autres dites molles, mais une seule manière de décrire au mieux la réalité à laquelle nous avons accès. Certains objets sont infiniment plus complexes à appréhender, plus « mous » et d’autres plus simples, mais la manière de dire des choses vérifiables dessus n’est qu’une.
Dominique Raynaud nous offre ici une contribution qui vaut son pesant d’or. Le texte ci-dessous est une version écourtée du chapitre 4 de son livre La sociologie et sa vocation scientifique, Paris, éditions Hermann (2006) et montre que la sociologie n’a pas de normes spéciales de scientificité.
Ce n’est pas un sujet facile, mais l’effort qu’il demande ne sera pas vain.
Table of Contents
Résumé
Pour les épistémologies dualistes ou régionalistes, la sociologie relève de normes spéciales de scientificité. La sociologie serait délimitée par le fait que ses concepts ne sont pas des « concepts analytiques » ou « taxinomiques », au sens des sciences naturelles, mais des « concepts idéaltypiques » ou des « désignateurs semi-rigides ».
L’analyse comparée montre deux choses.
(1) Les concepts analytiques et taxinomiques sont d’un usage régulier en sociologie.
(2) Les concepts idéaltypiques et les désignateurs semi-rigides ne sont pas l’apanage de la sociologie : on en trouve l’équivalent en physique et en astronomie.
Du coup, le statut particulier des concepts sociologiques n’est pas un critère adéquat pour doter la sociologie de normes épistémologiques propres.
Introduction
De manière à ce que les termes de la discussion soient clairs, je commencerai par poser quelques définitions utiles.
1° Un « concept taxinomique » est celui qui naît de la relation entre une espèce et un genre. Les critères dichotomique d’absence/présence d’un caractère sont en usage dans toutes les classifications, en particulier en zoologie et en botanique. Par différence, on peut identifier des « concepts typologiques » qui n’emploient pas des critères exclusifs mais inclusifs. C’est notamment le cas de l’idéaltype, un concept introduit par le fondateur de la sociologie moderne, Max Weber (1). Les exemples historiques de domination légitime ne se rattachent jamais à un seul des trois types de domination distingués par Max Weber (2).
2° Le terme de « concept analytique » se fonde sur la distinction proposée par Kant entre les jugements analytiques et les jugements synthétiques. Les jugements analytiques sont ceux qui sont universellement vrais, parce que leur valeur de vérité ne dépend pas de l’expérience. La « vitesse » est un concept analytique parce que la signification de ce concept est toute entière contenue dans sa définition : la vitesse est le rapport de l’espace parcouru par un mobile au temps mis pour le parcourir. Tout au contraire, les « concepts synthétiques », ou « phénoménaux », ont la particularité d’engager des qualités extérieures au concept.
3° Les « concepts quantitatifs », tels que distingués par Rudolf Carnap, constituent une espèce des précédents. Par exemple, la « vitesse » v = dx/dt, l’« accélération » γ = d²x/dt², la « force » F = mγ sont des concepts analytiques quantitatifs parce qu’ils résultent de la combinaison de grandeurs élémentaires mesurables (dans le cas de la vitesse : une certaine quantité d’espace dx et une certaine quantité de temps dt). Au contraire, les « concepts qualitatifs » ne supposent aucune mesure. C’est le cas des concepts de la topologie, comme ceux de « boule » ou d’« anneau de Möbius » (voir ci-contre, l’anneau de Möbius par le graveur Escher).
4° Le nom de « désignateur semi-rigide », introduit par Jean-Claude Passeron, fait directement référence aux « désignateurs rigides » du logicien Saül Kripke (3). On peut définir ces deux termes relativement l’un
à l’autre. Les désignateurs rigides se distinguent par la régionpropriété d’avoir le même référent dans tous les mondes possibles. Par exemple, l’« eau » est identique à elle-même dans tous les mondes où il y a de l’eau ; le nombre « π » est toujours identique à lui-même, etc. Par différence, Passeron nomme « désignateurs semi-rigides » ou « semi-noms propres » les « concepts indexés sur une série de cas singuliers ». Ainsi, le « féodalisme » ne se présente que dans certaines sociétés comme le Japon de l’ère Kamakura, la Chine des Royaumes combattants ou l’Europe médiévale.
En dépit de leur parenté, il faut bien voir qu’idéaltype et désignateur semi-rigide caractérisent deux réactions possibles au problème de l’inadéquation des concepts au réel. D’un côté, l’idéaltype accentue l’écart au réel. Max Weber précise : « par son contenu, cette construction a le caractère d’une utopie » ; « l’idéaltype est un tableau de pensée, il n’est pas la réalité historique ni surtout la réalité « authentique » ». Ainsi parle-t-on de « capitalisme » ou de « libre concurrence », quel que soit le contexte économique qui en constitue une approximation, en sachant qu’il s’agit d’une fiction visant moins l’adéquation au réel que la pureté logique. En ce sens, l’idéaltype « sort » de l’histoire. C’est ce qui justifie notamment le commentaire de Julien Freund : « la description que Weber fait de la bureaucratie est idéaltypique, ce qui signifie […] que les traits qu’il énumère [activité à plein temps, gestion rationnelle, subordination à une autorité, hiérarchie, spécialisation et technicité des fonctions] valent pour toute bureaucratie moderne, indépendamment des variations particulières et contingentes dans les divers pays ». Cependant, Weber particularise parfois l’idéaltype : c’est le cas lorsqu’il spécifie « christianisme » en « christianisme médiéval » ou « charisme » en « charisme anti-autoritaire bonapartiste ». L’idéaltype rentre alors dans l’histoire, ce qui fonde la lecture de Passeron. Car le désignateur semi-rigide, qui n’est pas une utopie, incite à accoler au concept ses traits contextuels les plus saillants. Pourquoi sommes-nous tentés de préciser « capitalisme spéculatif » ou « christianisme médiéval » au lieu de « capitalisme » et « christianisme » sinon pour ne pas désindexer ces concepts ? Face au problème de l’inadéquation du concept au réel, l’idéaltype s’oriente par excès (il accentue la différence) ; le désignateur semi-rigide par défaut (il réduit la différence).
Se pose ensuite la question des critères en fonction desquels distinguer les différentes espèces de concepts qui viennent d’être d’énumérées. Je propose les suivants :
1. Les concepts taxinomiques donnent naissance à des classifications ; les concepts idéaltypiques à des typologies. Les premières recourent à des critères dichotomiques ou exclusifs, les secondes à des critères inclusifs.
Par conséquent, elles peuvent être départagées sur la base du critère 1 :
dans une classification, un élément appartient à une classe et à une seule versus dans une typologie, un élément peut appartenir à plusieurs types simultanément.
La graminée Avena stricta dépend du genre Avena à l’exclusion de tout autre genre ; le régime nazi dépend de la domination charismatique sous certains aspects mais de la domination légale-rationnelle à d’autres points de vue.
2. Concepts analytiques et phénoménaux se distinguent tout d’abord par leur propriété fondamentale (prédicat interne donné par définition versus prédicat externe). Les seconds ont une propriété distinctive qui tient à leur rapport à l’inadéquation des concepts au réel. Les idéaltypes consistent en tableaux abstraits épurés ; les désignateurs semi-rigides ont un caractère ad hoc prononcé, d’où suit le critère 2 :
les concepts analytiques sont toujours vrais versus les concepts phénoménaux ne sont que des approximations de la réalité — soit par orientation abstraite (idéaltype), soit par orientation adhociste (désignateurs semi-rigides).
La vitesse dx/dt permet de mesurer indifféremment la vitesse du son cS = 330 m.s–1 ou la vitesse de propagation d’une vibration dans l’acier cA ~ 5000 m.s–1. L’influence exercée par le mahâtma Gandhi lors de la « Marche du Sel » reste une approximation de la domination charismatique.
3. La définition des concepts quantitatifs suffit à les distinguer des concepts qualitatifs, ce qui conduit au critère 3:
les concepts quantitatifs supposent la réalisation d’une mesure (qui exige à son tour la définition de certains règles comme la transitivité, ou le choix d’une échelle de mesure) versus les concepts qualitatifs ne l’autorisent pas.
Citons, dans le domaine démographique, l’âge qui est un concept quantitatif (un enfant de 3 ans et demi), alors que le statut matrimonial (célibataire, marié, divorcé, veuf) est qualitatif : même si l’on peut envisager un « codage » des caractères, cela ne constitue en rien une « mesure » au sens scientifique du terme.
4. Désignateurs rigides ou semi-rigides se distinguent aisément par la propriété énoncée par Kripke, fondement du critère 4 :
les désignateurs rigides ont toujours le même référent versus les désignateurs semi-rigides ont un référent variable, indexé sur les différents contextes sociohistoriques.
Le nombre π = 3,14159265… est une constante dans tous les mondes possibles ; le capitalisme change de forme selon que l’on vise le « capitalisme productif » des années 1950 ou le « capitalisme spéculatif » des années 2000.
Deux versions de l’épistémologie sociologique
Nous avons défini les concepts utiles et les moyens de les distinguer. La question est de savoir si les sciences naturelles et les sciences sociales — qui s’occupent de classes de faits différents — doivent pour cela recourir à des principes épistémologiques différents. Les critères imaginés par les tenants de positions dualistes ourégionalistes (4) étant innombrables, je m’occuperai ici du statut des concepts en tant qu’il sert d’argument au débat à l’exclusion de toute autre considération. La thèse d’une épistémologie propre de la sociologie repose sur le statut particulier que l’on accorde aux concepts sociologiques. Limitons-nous à un exemple classique, dont l’auteur est connu et apprécié pour le sérieux de ses recherches. Dans Le Raisonnement sociologique, Jean-Claude Passeron soutient — c’est une conséquence de la thèse 2 et de son corrélat 2.3 — que tous les concepts sociologiques ont un statut logique de désignateurs semi-rigides :
« Il n’existe pas et il ne peut exister de langage protocolaire unifié de la description empirique du monde historique », « Le lexique scientifique de la sociologie est un lexique infaisable », « Le statut sémantique des concepts sociologiques se présente […] comme un statut mixte, intermédiaire entre le nom commun et le nom propre », « Les concepts sociologiques sont des noms communs […] qui ne peuvent être complètement coupés de leur référence déictique à des noms propres d’individualités historiques » (5) (mises en gras par D. Raynaud).
L’auteur soutient que les concepts insérés dans une démonstration sociologique diffèrent de ceux qui sont utilisés dans les sciences de la nature. Il assujettit l’épistémologie à l’ontologie sociologique : cette discipline traitant d’objets spécifiques, ses concepts sont spécifiques.
Mais il importe de voir qu’il existe deux manières de soutenir cette thèse :
Thèse forte – la sociologie se distingue des sciences naturelles parce que ses concepts sont d’une nature différente : les sciences naturelles recourent à des concepts analytiques et taxinomiques ; la sociologie recourt à des concepts idéaltypiques ou semi-rigides.
Thèse faible – la sociologie se distingue des sciences naturelles parce que, quoiqu’elle fasse un usage régulier de concepts analytiques et taxinomiques à l’instar des sciences naturelles, elle est la seule à employer des concepts idéaltypiques et semi-rigides.
Examen de la thèse forte
Un des caractères saillants des sciences naturelles, en particulier de la physique, est le fait qu’elles utilisent des concepts analytiques mathématiques.
Or, l’examen le plus vague laisse apparaître que beaucoup de concepts sociologiques ne sont assujettis à aucune singularité socio-historique (rationalité téléologique ou axiologique, décision, déclassement, agrégation, effet pervers, mobilité sociale, etc.). On trouve donc en sociologie des concepts qui ne sont rien moins que des concepts taxinomiques ou analytiques, au sens des définitions 1 et 2 données au début de ce texte. Laissons de côté les concepts taxinomiques et voyons plutôt le cas des concepts analytiques.
Il existe tout d’abord un argument de fait. L’existence d’une sociologie mathématique est le premier argument sérieux de l’existence de ces concepts analytiques en sociologie : statistique descriptive et inférentielle, analyse factorielle sont des chapitres connus des sociologues. Mais d’autres sont également pourvus d’applications sociologiques : analyse combinatoire, théorie des jeux, théorie de la décision, théorie des choix collectifs, processus stochastiques (par exemple, les chaînes de Markov appliquées à la modélisation de la mobilité sociale), théorie des graphes (formalisation des réseaux sociaux), treillis de Galois (extraction des caractéristiques communes des individus d’un réseau), etc. Tous constituent des domaines par excellence où le raisonnement porte exclusivement sur des concepts analytiques.
Se présente ensuite un argument historique que rappelle Marc Barbut (6). Cet argument — opposé au jugement d’André Weil — est que les sciences sociales ont très directement contribué au développement des mathématiques. Barbut signale les contributions de Pascal, Huygens, Leibniz au calcul des probabilités (issu d’un problème de décision) ; celles de Jacques et Nicolas Bernoulli à la statistique inférentielle ; celles de Condorcet, Zermelo, Borel et von Neumann à la théorie des jeux. Mais si les mêmes savants ont contribué au progrès des sciences physiques et à celui des sciences sociales, pourquoi auraient-ils fait de bonnes mathématiques en physique et de mauvaises mathématiques en sociologie ?
Examinons maintenant un concept de cette sociologie mathématique dont il vient d’être question, et prenons le cas de la sociologie des réseaux.
1° Cette spécialité utilise des concepts analytiques quantitatifs (au sens de Carnap), qui tirent leur caractère de la théorie mathématique sous-jacente à la sociologie des réseaux : la théorie des graphes. Distinguons tout d’abord les relations orientées (don, conseil, etc.) des relations non orientées (mariage, interconnaissance, etc.) Les relations du premier type permettent la construction d’un graphe orienté dont la « densité » vaut D= L/(g(g – 1)) où L représente le nombre d’arcs et le g le nombre de sommets du graphe. Le concept de densité est organiquement lié à une mesure : il s’agit, au sens de Carnap, d’un concept quantitatif intensif (non additif) qui satisfait aux règles classiques permettant de définir la mesure :
1° existence d’une relation d’équivalence ;
2° existence d’une relation d’ordre ;
3° choix du zéro (D = 0 pour une collection de sommets déconnectés) ;
4° choix d’une unité (D = 1 dans un graphe complet) ;
5° choix d’une échelle (0 ≤ D ≤ 1).
Je ne vois pas que la sociologie utilise ici des concepts d’un statut logique différent de celui qui caractérise les concepts des sciences physiques. Carnap explique d’ailleurs fort bien ce qui fonde cette absence de différence entre physique et sociologie :
« Les concepts quantitatifs ne nous sont pas donnés par la nature ; ils découlent de la pratique qui consiste à appliquer des nombres aux phénomènes naturels. Quel avantage y a-t-il à cela ? Si les grandeurs quantitatives étaient fournies par la nature, nous ne songerions pas à poser la question, pas plus que nous ne demandons : à quoi servent les couleurs ? La nature pourrait fort bien exister sans couleurs, mais on a plaisir à percevoir leur présence dans le monde. Elles font partie de la nature, tout simplement ; nous n’y pouvons rien. Il n’en va pas de même pour les concepts quantitatifs. Il font partie du langage et non pas de la nature » (R. Carnap, Les Fondements philosophiques de la physique, p. 107).
Il s’ensuit que la présence ou l’absence de concepts analytiques (quantitatifs) dans une discipline ne tient pas à la nature des faits empirique étudiés par cette discipline, mais à une décision de l’observateur de se donner (ou non) des définitions strictes et un système de mesure des observables : c’est ce qu’a su faire la sociologie des réseaux, en appliquant le langage de la théorie des graphes aux relations sociales.
2° Certaines démonstrations sociologiques recourent presque exclusivement à des concepts analytiques de ce type. C’est le cas de la juridicisation croissante des sociétés modernes expliquée par Piaget à partir de la distinction faite par Franck et Timasheff entre relations interpersonnelles et relations transpersonnelles. Supposons un groupe composé des individus A, B, C… Par rapport à A, les liens (A, B), (A, C), (A, D)… sont des relations interpersonnelles (notées rip), les liens (B, D), (C, B), (C, D) sont des relations transpersonnelles (notéesrtp). Les relations interpersonnelles sont des relations directes ; elles sont impliquées dans une action réciproque classique (A cause un préjudice à B ; B demande réparation à A). Les relations transpersonnelles mobilisent quant à elles des formes de jugement indirect (A cause un préjudice à B ; B en informe C ; C juge l’action de A collectivement préjudiciable). Si l’on fait une combinatoire de ces relations dans un graphe complet de n individus, on constate que :
Card (rip) = n (n – 1) et Card (rtp) = n (n – 1)(n – 2) / 2
La croissance des rip et des rtp obéit au fait que les relations interpersonnelles varient comme n2 alors que les relations transpersonnelles varient comme n3. L’écart entre rip et rtp croît en fonction de n. Il est donc faible dans les sociétés peu volumineuses (hordes, tribus), fort dans les sociétés volumineuses (états-nations modernes). À mesure que croit le volume de la société, le règlement des différends fondé sur les rip (action en retour) cèdera la place à un règlement fondé sur les rtp (évaluation juridique par des tiers). C’est pourquoi on peut observer une juridicisation croissante des sociétés modernes. La réduction d’une société à un graphe complet est une idéalisation, mais les concepts qui interviennent dans cette démonstration sont tous des concepts analytiques ; aucun ne peut porter le nom de désignateur semi-rigide.
La thèse de l’absence en sociologie des concepts analytiques est donc inexacte. Elle n’est vraie que de la seule partie de la sociologie qui en condamne l’usage.
Examen de la thèse faible
Pour que la thèse faible soit réfutée, il faut établir la présence de concepts idéaltypiques ou de désignateurs semi-rigides dans les sciences naturelles. Admettons par hypothèse que les concepts de la sociologie sont des idéaltypes ou des désignateurs semi-rigides. Ces espèces sont-elles inconnues dans les sciences physiques ?
Concepts idéaltypiques
La spécialité de la sociologie tient-elle à son usage des idéaltypes ? Si le mot n’est pas utilisé en physique, sa définition est applicable à certains concepts. Renvoyons aux textes :
« Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai, on dit que l’instrument est stigmatique pour le couple de points AoAi […] Un tel stigmatisme est rigoureux si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao, c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, l’instrument altère toujours le caractère ponctuel de l’image […] Le stigmatisme rigoureux est donc une idéalisation ».
« Dans un repère galiléen, toute particule isolée décrit un mouvement rectiligne et uniforme […] Pratiquement, l’univers dans lequel nous vivons est constitué de nombreuses particules et la particule isolée est une vue de l’esprit. Cependant les interactions entre particules diminuent lorsque la distance entre ces particules augmente » (J. Bok et P. Morel, Mécanique/Ondes, Paris, Hermann, 1971, p. 25, 40).
« Lumière monochromatique », « milieu homogène et isotrope », « stigmatisme rigoureux », « particule isolée », « choc élastique », « gaz parfait », « corps noir » sont des concepts analytiques qui n’ont de corrélats empiriques qu’approximatifs. Le physicien manipule des concepts purifiés. Dans le monde réel, il sait que les concepts sont des idéalisations qui décrivent approximativement les phénomènes réels qui apparaissent spontanément. En quoi cela fait-il une différence avec la sociologie ?
Désignateurs semi-rigides
Le référent d’un désignateur rigide est identique à lui-même dans tous les mondes possibles ; celui d’un désignateur semi-rigide doit varier en fonction du contexte. Esclavage romain/colonial, judaïsme ashkénaze/séfarade, etc. Dans tous ces cas on retrouvera l’idée d’une « indexation sur une série mobile de cas singuliers ». Mais la sociologie est-elle seule à utiliser des désignateurs semi-rigides ? La réponse est négative. Les astronomes distinguent les concepts analytiques explicatifs (rayon, masse, magnitude absolue, température de surface, pression, etc.) et les concepts phénoménaux (étoiles, amas, galaxies). Prenons le cas des étoiles. Si l’on réunit les « désignateurs » couramment utilisés par les astronomes, les étoiles sont identifiées comme :étoiles de Wolf-Rayet, nébuleuses planétaires, super-géantes, géantes rouges, sous-géantes, naines, naines blanches, naines brunes, étoiles carbonées, novae, supernovae, étoiles à neutrons, trous noirs, étoiles variables périodiques ou non, pulsantes ou non pulsantes, Céphéides, étoiles RR Lyrae, Mira, δ Scuti, βCMa, ZZ Ceti, P Cygni, étoile de Barnard, étoiles binaires, pulsars, etc. On trouve là une telle diversité que certains, comme Audouze, n’hésitent pas à parler de « zoologie stellaire » (J. Audouze et J. Lequeux, Cours d’astrophysique 1976-1977, Palaiseau, École Polytechnique, 1977, p. 35).
On trouve dans cette liste l’équivalent exact des « désignateurs semi-rigides » ou « semi-noms propres ». Les Céphéides (massives) et les étoiles RR Lyrae (peu massives) sont des étoiles variables dénommées par le nom propre d’un cas paradigmatique (δ Cephei pour les Céphéides). C’est également en ce sens qu’on parle des étoiles de type ZZ Ceti, etc. La dénomination des étoiles variables a largement utilisé ce procédé : un « nom propre » (au sens de Kripke) est pris comme « profil » de reconnaissance d’autres objets célestes. Par suite, il devient un « semi-nom propre » indexé sur une série de cas singuliers.
On ne voit guère ce qui distingue ce procédé intellectuel de celui préconisé par Passeron, ou même par Weber, lorsqu’il définit les formes de charisme en relation avec l’économie : charisme bonapartiste, charisme de Périclès ou charisme américain. Là encore, il s’agit d’identifier un type, non tant par ses caractéristiques abstraites, que par les propriétés singulières exhibées par le cas paradigmatique.
Classification ou typologie stellaire ?
Admettons enfin que la sociologie recoure à des typologies versus classifications. Est-elle la seule dans ce cas ? Prenons un exemple qui révèle assez bien la limite de cette distinction.
Les étoiles sont assujetties à la classification de Harvard, fondée sur la température de surface et la magnitude absolue. On distingue les classes O, B, A, F, G, K, M (des hautes aux basses températures) elles-mêmes subdivisées en sous-classes par un suffixe décimal 0…9. Chacune correspond à un ensemble de propriétés physiques. Les astronomes se réfèrent à cette « classification » en employant indistinctement les mots « classe » ou « type spectral ». Que signifie cette hésitation? L’analyse montre qu’il ne s’agit pas d’une inadvertance : le choix de « type » est légitime. Il existe même des raisons tout à fait fondées de préférer le syntagme « type spectral » à celui de « classe spectrale », en dépit du flottement terminologique qui caractérise leur usage.
Rappelons les principales, qui sont au nombre de six.
1. Les types spectraux ne permettent d’identifier correctement que les étoiles (naines) de la « séquence principale » du diagramme de Hertzsprung-Russell : il existe toujours des étoiles plus froides ou plus chaudes de même type spectral.
2. Ces anomalies ont été à l’origine d’une nouvelle classification dite de Yerkes ou MKK (Morgan, Keenan, Kellman, 1943) en « classes de luminosité » ; on ajoute le suffixe 0, Ia, Ib, II, III, IV, V, sd (VI), wd (VII) pour caractériser l’étoile : le Soleil est par exemple une étoile G2 V. La classification a par ailleurs été complétée par l’introduction de nouveaux types : W (puis Q et P) en amont de O et des types C (subdivisé en R et N), S et L, T en aval de G.
3. Ces classifications n’absorbent pas la diversité du phénomène « étoile ». Le concept d’« étoile G » est un profil de reconnaissance qui laisse des différences résiduelles entre deux étoiles G du même type ou du même sous-type (Soleil, α Centauri, β Comae Berenices, etc.). C’est le diagnostic qui ressort de ce texte de Schatzman :
« La classification spectrale à deux dimensions est à la fois un acquis fondamental de l’astrophysique stellaire et la grille de référence par rapport à laquelle s’établissent toutes les singularités. En effet de nombreuses étoiles ne se plient pas aisément aux règles de la classification MKK : elles sont particulières. C’est le cas des étoiles à raies d’émission de type B, dites Be, dont un prototype est αCas ; des étoiles de type A et B ayant des raies intenses d’éléments très peu répandus comme le gadolinium, le mercure ou les terres rares, ou aussi des raies anormalement intenses de certains élements connus (Mn, Si, Fe) : on les nomme Ap et Bp ; des étoiles de type K et M à éruptions ou à raies d’émission : on les note Ke ou Me (exemples : α Cen C et UV Cet), des étoiles à baryum, etc. », E. Schatzman et F. Praderie, Astrophysique. Les étoiles, Paris, CNRS, 1990, p. 39 (mes italiques).
Ce texte montre on ne peut mieux l’écart perçu entre la classification spectrale et les objets célestes singuliers que rencontre l’astrophysicien dans ses observations. Reconnaître pleinement ces singularités n’impose ni d’abandonner la classification — au motif qu’elle serait dénuée de pouvoir descriptif —, ni de négliger les caractères particuliers des objets observés — au motif qu’ils devraient se plier entièrement à la description qu’en donne la classification.
4. La double classification par types spectraux et par classes de luminosité n’épuisant pas les propriétés des objets connus, les astronomes tombent régulièrement sur des objets célestes atypiques. On a donc proposé de compléter la nomenclature par des indications extérieures. Les astrophysiciens utilisent aujourd’hui un système de quinze suffixes indiquant les propriétés remarquables absentes de la classification. Voici la liste de ces suffixes :
e émission (hydrogène dans les étoiles de type O)
em émission de raies métalliques
ep émission particulière
eq émission à profil P Cygni (absorption des faibles longueurs d’ondes)
er émission inversée
f émission de l’hélium et du néon dans les étoiles de type O
k raies interstellaires
m fortes raies métalliques
n raies diffuses
nn raies très diffuses
p spectre particulier
s raies étroites
v variation dans le spectre
wk raies faibles
L’examen de cette liste montre que les suffixes désignent : tantôt un phénomène atypique (cas des spectres eq, er) ; tantôt — ce qui est plus intéressant pour notre comparaison — un phénomène proprement inclassable (cas des spectres ep, p, v).
5. Ensuite, il faut observer que, contrairement à ce que suggèrent les mots « classes » et « classification », les étoiles peuvent appartenir à plusieurs classes, y compris même à des classes que tout oppose a priori. Reprenons la classification à partir des données récentes recueillies par Hipparcos, chargé d’établir un catalogue de 115 000 étoiles jusqu’à la 12e magnitude. Leur positionnement sur le diagramme de Hertzsprung-Russell forme un nuage en Y (séquence principale + sous-géantes). Le dépouillement des données Hipparcos a révélé le défaut de correspondance exacte entre type spectral et magnitude absolue qui est au fondement de la classification. La définition des « standards » (c’est-à-dire des étoiles paradigmatiques servant de référence à chaque sous-type) est confrontée à ces anomalies. L’analyse des données Hipparcos a récemment conduit Ginestet, Carquillat et Jaschek à la découverte d’étoiles ayant un statut paradoxal, hybride entre « naines » et « géantes » :
« HD 204613 est une étoile de type G1 IIIa : CH1,5 dont les données photométriques et spectroscopiques sont en nette opposition […] la photométrie correspondrait à celle d’une naine et le spectre indiquerait une classe III [géante]. Deux autres étoiles géantes sortent aussi nettement du groupe mais, cette fois, en direction de la classe II : ce sont HD 81817 et HD 176670 », N. Ginestet, J.-M. Carquillat, C. Jaschek, Astronomy and Astrophysics, Supplement Series 142 (2000): 13-24.
Ces cas permettent de douter que l’intérêt des singularités soit un caractère propre de la sociologie. La « zoologie stellaire » n’est pas moins foisonnante de cas singuliers. Mais il existe encore une façon de sauver l’irréductibilité épistémologique de la sociologie : prétendre que l’astrophysicien — au contraire du sociologue — tente, à travers cette zoologie, de confirmer la typicalité des objets célestes. Est-ce le cas ? Deux indices paraissent montrer le contraire :
1° le nombre de publications consacrées aux objets « exotiques » (en dehors de la séquence principale) qui sont pourtant d’une abondance tout à fait négligeable dans l’univers ;
2° le nombre de publications consacrées à des phénomènes singuliers comme l’éruption solaire du 25 juillet 1946 ; la couronne blanche de l’éclipse totale de Soleil du 30 juin 1973 ; l’environnement de β Pictoris ou la supernova 1987A parfois considérée comme supernova « hors la loi » à cause de sa courbe de luminosité.
Les astrophysiciens n’ont pas l’obsession de la typicalité. Ils s’intéressent également aux singularités. Cela fait-il une différence avec la sociologie ?
Conclusion
Certains concepts sociologiques sont des concepts idéaltypiques et des désignateurs semi-rigides ; d’autres sont des concepts analytiques. Certains concepts des sciences physiques sont des concepts analytiques quantitatifs, d’autres des concepts typologiques et des désignateurs semi-rigides. L’ontologie sociologique ne secrète donc pas de concepts ayant une nature spéciale. De ce fait, la thèse forte et la thèse faible sont réfutées. Le statut des concepts n’est pas un argument du dualisme ou du régionalisme, au sens où l’on devrait — à cause de celà — juger la sociologie selon des normes spéciales de scientificité.
Il existe évidemment bien d’autres critères à partir desquels on peut essayer de donner à la sociologie un statut épistémologique particulier, mais ce n’est pas le lieu de les examiner ici (7).
Dominique Raynaud. Contact : dominique.raynaud (at) upmf-grenoble.fr.
Notes
(1) « L’idéaltype […] n’a d’autre signification que d’un concept limite purement idéal, auquel on mesure la réalité pour clarifier le contenu empirique de certains de ses éléments importants », M. Weber, Essais sur la théorie de la science, Paris, Plon, 1992, p. 172.
(2) Weber distingue trois types de domination légitime : la domination légale-rationnelle (le chef tire sa légitimité d’un ordre rationnel défini par les « membres » de la société), la domination traditionnelle (aux yeux des « sujets » le chef est investi d’une légitimité issue de la tradition) et la domination charismatique (le chef tire sa légitimité des capacités extraordinaires que veulent bien lui prêter ses « disciples »). Il est rare de rencontrer ces types à l’état pur. Les cas historiques de domination sont le plus souvent des mixtes (la légitimité de De Gaulle était essentiellement du type légal-rationnel, mais des éléments de charisme l’ont probablement renforcée).
(3) Kripke donne la définition suivante : « un désignateur désigne un certain objet rigidement s’il désigne cet objet partout où celui-ci existe ; si, de surcroît, l’objet existe nécessairement, le désignateur peut être appelé « rigide au sens fort » », S. Kripke, La Logique des noms propres, Paris, Éditions de Minuit, 1982, pp. 36-37. Outre les noms propres (« Neptune »), les désignateurs rigides absorbent les constantes (« π », rapport de la circonférence du cercle à son diamètre) et les concepts d’usage partitif (« eau », « oxygène », etc.).
(4) Plusieurs expressions ont été utilisées pour dire que la sociologie n’était pas une science comme les autres. On a parlé du dualisme des sciences naturelles et sociales – au sens où il existerait deux blocs de sciences disjoints. Cette expression, qui implique une séparation radicale des mondes naturel et humain, fait référence au Methodenstreit allemand, dominé par la figure de Dilthey. On parle aussi de régionalisme, dans un sens très librement dérivé de Bachelard et de Bunge, au sens où chaque discipline possèderait des caractères propres. Le régionalisme n’a pas les mêmes implications que le dualisme. D’abord, parce qu’il peut se dispenser de penser une opposition frontale entre sciences naturelles et sciences sociales. Ensuite, parce qu’il n’est pas tenu de postuler une unité au sein de ces ensembles de disciplines – ce que fait le dualisme. Cette unité étant discutable, le régionalisme nécessite moins d’hypothèses. Toutefois, il existe des passerelles entre dualisme et régionalisme. Si on s’intéresse à une seule discipline, ces expressions deviennent à peu près équivalentes, puisqu’elles cherchent à identifier les caractères distinctifs d’une discipline par rapport aux autres.
(5) J.-C. Passeron, Le Raisonnement sociologique, op. cit., pp. 363, 371.
(6) M. Barbut, Les mathématiques et les sciences humaines. Esquisse d’un bilan, L’Acteur et ses Raisons. Mélanges en l’honneur de Raymond Boudon, Paris, PUF, 2000, pp. 205-224.
(7) Pour une analyse critique de plusieurs autres critères, voir D. Raynaud, La Sociologie et sa vocation scientifique, Paris, Editions Hermann, 2006.