Effet placebo chez les animaux : est-ce si évident ?

Pour certain·es, c’est une évidence : les animaux non humains n’ont pas les capacités cognitives suffisantes pour être sensibles à l’effet placebo. Pour d’autres, les animaux expérimentent l’effet placebo au même titre que les humain·es. Mais la réalité n’est-elle pas plus complexe ?…

Un argument courant des pseudo-médecines

En travaillant sur la naturopathie animale, je suis tombé·e sur un argumentaire couramment employé pour défendre l’efficacité supposée de l’homéopathie, de l’acupuncture et d’autres techniques de soins non éprouvées : les soins énergétiques seraient efficaces, car ils fonctionneraient sur les animaux non humains qui, eux, ne seraient pas sensibles à l’effet placebo.

Or, je me suis rappelé·e avoir lu et entendu à maintes reprises dans des contenus produits par des personnes de la sphère sceptique / zététique, que si, les animaux non humains seraient sensibles à l’effet placebo. Le plus souvent sans plus de détail, ce qui laisse penser que l’effet placebo observé chez les animaux serait comparable à celui des observés chez les humain·es.

Dans un élan de curiosité (et dans le souci de ne pas tirer de conclusions hâtives sur ce sujet que je connaissais mal), j’ai pris le temps de mener quelques recherches sur l’effet placebo chez les animaux non humains. Et le moins que l’on puisse dire, c’est que ce n’est pas un sujet aussi simple qu’il n’y paraît au premier coup d’œil…

Conditionnement et suggestion

La définition de Wikipedia est assez claire :

« L’effet placebo correspond au résultat psycho-physiologique positif (bénéfique) constaté après l’administration d’une substance ou la réalisation d’un acte thérapeutique, indépendamment de l’efficacité intrinsèque attendue du traitement. »

Effet placebo, Wikipedia

Autrement dit, cela signifie que l’on peut observer des effets bénéfiques chez une personne à qui l’on a pourtant proposé une substance (ou un acte thérapeutique) dont on sait qu’elle est absolument inefficace pour traiter la problématique concernée. Cet effet placebo peut aussi être observé en l’absence de placebo (substance ou acte sans efficacité). Cela s’explique en raison de ce que l’on nomme les « effets contextuels ».

Parmi les mécanismes psycho-physiologiques à l’œuvre dans l’effet placebo observé chez les humain·es, on peut citer notamment :

  • La suggestion1 : par exemple, le fait qu’un médecin suggère à ses patient·es (sans même leur proposer de traitement) que leur état de santé va rapidement s’améliorer, induit des améliorations plus importantes que chez les patient·es auxquels le médecin n’a pas tenu ces propos rassurants. Un autre aspect du pouvoir de la suggestion peut s’observer, par exemple, lorsqu’un médecin suggère à ses patient·es qu’un traitement placebo aura des effets bénéfiques importants sur leur problématique : cela augmente de manière significative les effets bénéfiques ressentis par ces patient·es.
  • Le conditionnement2 : nous serions d’autant plus sensibles à l’effet placebo que nous avons été, par le passé, traités avec des médicaments efficaces, surtout si le placebo est administré sous une forme comparable à celle des médicaments pris par le passé. Ces effets résultent notamment de ce que l’on peut observer dans les mécanismes du conditionnement pavlovien.

Et chez les animaux non humains alors ? Pour commencer, ils ne semblent pas réceptifs au pouvoir de la suggestion. En effet, il sera probablement vain de chercher à potentialiser les effets d’un traitement administré à un chien, un chat ou un cheval en suggérant à l’animal que ce traitement est diablement efficace, en vantant sa supériorité sur d’autres traitements ou bien encore en valorisant le fait qu’il soit naturel…

Dans de nombres études cependant, on peut observer un effet placebo par conditionnement chez certains animaux : cela a notamment pu être observé concernant la réponse à la douleur, la réponse comportementale, ou bien encore l’immuno-modulation3. Les animaux semblent donc sensibles à l’une des composantes de l’effet placebo : le conditionnement (les chiens de Pavlov, ça vous dit quelque chose?). Ainsi, on peut observer dans certaines circonstances un effet placebo chez des animaux à qui on administre un traitement placebo en même temps qu’on les expose à un stimulus auquel on les a exposés lorsqu’on leur a administré par le passé un traitement éprouvé. Mais à ce sujet, les études sont parfois contradictoires et doivent conduire à la prudence. C’est ce que concluent notamment les auteurices de plusieurs études menées sur l’effet placebo par conditionnement sur la gestion de la douleur chez des rats : leurs résultats se contredisent et les amènent à conclure à la difficulté de penser des protocoles expérimentaux adaptés à l’évaluation de l’effet placebo chez les animaux4. Il serait donc un peu aventureux, en l’état de la recherche, de conclure à l’existence généralisée d’un effet placebo par conditionnement chez les animaux. Difficile en effet de conclure à de tels effets chez toutes les espèces (ce sont surtout les rats qui sont étudiés) et pour toutes les pathologies ou troubles.

Influence humaine

Un autre aspect important à prendre en considération, c’est l’influence du contact humain-animal sur la réponse observée chez un animal domestique à une intervention thérapeutique. Plusieurs études suggèrent en effet que la présence réconfortante d’un·e humain·e, les marques d’affection et de tendresse agiraient positivement sur certains paramètres physiologiques. C’est notamment le cas dans cette étude5 menée sur des chevaux, où les auteurices indiquent qu’ « une séance d’acupuncture ne présente pas plus de bénéfices pour le traitement de l’asthme équin que l’action de caresser les chevaux », ajoutant que « la manipulation et les caresses prodiguées aux chevaux qui sont sévèrement affectés par l’asthme équin apportent un soulagement au niveau de l’obstruction des voies respiratoires, que les aiguilles d’acupuncture soient utilisées ou pas. » (au sujet de l’acupuncture justement, Denis Caroti avait produit un article ici, qui évoque rapidement l’évaluation de l’acupuncture sur des souris)

Mais… ce que l’on observe surtout, c’est un effet placebo indirect, autrement nommé « effet placebo du soignant de l’animal » (« caregiver placebo effect » dans la littérature). Dans des études menées sur des chiens et des chats notamment, une proportion non négligeable de propriétaires et de soignant·es conclut en effet à l’efficacité d’un traitement placebo, en relevant une amélioration nette des symptômes, là où des mesures objectives concluent à une absence d’amélioration de l’état de santé des animaux concernés… Ainsi, les humain·es en charge des animaux domestiques auraient tendance à percevoir des effets inexistants lorsqu’on administre un traitement placebo à leurs animaux. Dans cette étude6 menée sur des chiens atteints d’arthrose par exemple, un tel effet placebo indirect a été observé aussi bien chez les propriétaires que chez les vétérinaires : en effet, environ 40 % des vétérinaires et 50 % des propriétaires ont observé une nette amélioration de la boiterie des chiens traités par placebo, alors que le traitement placebo n’avaient objectivement qu’un effet minime…

Cet effet placebo par procuration peut notamment s’expliquer par le fait que les humain·es sont particulièrement sensibles à divers facteurs qui leur font surestimer l’efficacité réelle d’une thérapie. « Le prix élevé d’une consultation, un diplôme ronflant, un thérapeute à la mode et une longue queue devant le cabinet jouent aussi sur l’évaluation de notre mieux-être consécutif au soin » (dixit Richard Monvoisin dans cet article qui décortique l’effet placebo et questionne la dimension alternative des médecines… alternatives !).

Le principal effet placebo observé dans la prise en charge thérapeutique des animaux ne concerne donc pas les animaux… mais les humain·es !

Que conclure ?

L’ensemble de ces mécanismes peut expliquer les améliorations perçues après des soins énergétiques ou un traitement homéopathique par exemple. Améliorations qui peuvent tenir à l’interaction avec des humain·es bienveillant·es, mais aussi à la perception biaisée que ces mêmes humain·es ont des traitements mis en œuvre… Cette perception risquant d’être d’autant plus biaisée lorsque les personnes impliquées dans les soins sont « engagées » dans des croyances fortes desquelles il serait coûteux de se dégager : on observe que ça fonctionne parce que l’on croit que ça fonctionne, parce que l’on veut que ça fonctionne.

Et même si cela n’est pas spécifique aux animaux, il me paraît important de mentionner deux points importants qui peuvent conduire à conclure (à tort) à l’efficacité de soins non éprouvés (ou à l’existence d’un effet placebo) :

  • Le caractère spontanément résolutif de bon nombre de pathologies : ces maladies qui guérissent seules après un certain temps, avec ou sans intervention de notre part. On aurait alors tendance à penser, à tort, que notre intervention est la cause de la guérison, alors que la guérison serait de toute façon intervenue seule dans les mêmes délais (voir l’effet atchoum, ou “post hoc ergo propter hoc”).
  • L’alternance de phases de rémission et de poussées aiguës dans d’autres maladies. On pourrait là encore penser à tort qu’un soin est la cause d’une rémission, alors qu’il s’agit de l’évolution naturelle de la maladie.

En bref, l’effet placebo chez les animaux, c’est clairement pas une évidence ! La nuance est de mise et les considérations abordées ici doivent conduire à la plus grande prudence lorsqu’il est question d’évaluer l’efficacité d’un traitement administré à des animaux, que ce soit dans le cadre d’une recherche expérimentale ou dans le cadre du suivi vétérinaire des animaux domestiques.

Résumé visuelle des 4 effets discutés ici : suggestion, conditionnement, comportement humain et interprétation humaine
Résumé visuel des 4 effets discutés ici : suggestion, conditionnement, comportement humain et interprétation humaine

Pour aller plus loin :

Article – David Ramey, « Is there a placebo effect for animals ? », 25 octobre 2008 : https://sciencebasedmedicine.org/is-there-a-placebo-effect-for-animals/

Article – Brennen McKenzie, « Presentation of placebos on animals », 8 mars 2018 : https://skeptvet.com/Blog/2018/03/presentation-of-placebos-in-animals/

Article – Emily Anthes, « A crucial blind spot in veterinary medecine », 7 novembre 2019 : https://www.theatlantic.com/science/archive/2019/11/danger-pet-placebo/601489/

Vidéo – Brennen McKenzie, « Placebos in pets », 20 novembre 2020 : https://www.youtube.com/watch?v=1QnIKJgpOVg

L’esprit jubile : recension de la BD « L’esprit critique »

Qu’est-ce que l’esprit critique ? On pense tous l’avoir mais sait-on vraiment le définir ? C’est la question à laquelle ont voulu répondre Isabelle Bauthian (biologiste de formation, scénariste et rédactrice culturelle et scientifique) et Gally (dessinatrice) dans cette bande-dessinée publiée aux éditions Delcourt (130 pages). Et… c’est tout bonnement une petite merveille !

Case issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 4.

D’un point de vue narratif et esthétique

Lors d’une soirée, Paul rencontre une jeune femme qui se présente comme druide. Après une discussion animée autour de photos de fées, Paul rentre chez lui, se connecte sur ses réseaux sociaux et déverse sa haine de l’irrationnel. C’est alors qu’il apparaît, enfin… elle : L’esprit critique !

On prend énormément de plaisir à faire un bout de chemin avec ces personnages extrêmement attachants. Paul, croyant en La science sans aucune méthode, perdu dans la complexité du monde qui s’ouvre devant lui grâce à Elle, doppelgänger métamorphe critique aux cheveux roses qui donne au lecteur une soif de connaissance comme jamais. Paul, c’est tout simplement nous qui découvrons cet univers de l’esprit critique. Il exprime nos interrogations et nos doutes sur cette conception à laquelle nous n’avons pas forcément beaucoup réfléchit. Elle, elle est l’incarnation de l’esprit critique et de sa perfectibilité.

Grâce à ses pouvoirs elle fait sortir Paul de son petit confort, de sa petite routine pour l’emmener vers des contrées inconnues (voyage dans le temps et dans l’espace). L’odyssée de Paul commence avec une plongée dans l’histoire des sciences, des bâtons d’Ishango à Kepler et Galilée en passant par les philosophe grecs (Platon, Thalès, Aristote, Ptolémée Anaximandre de Millet, etc.). On regrette juste l’absence d’une excursion auprès des premiers sceptiques à l’instar de Pyrrhon d’Élis. Le voyage de notre personnage se poursuit ensuite sur la méthode scientifique moderne (évaluation des hypothèses, principe de réfutabilité, notion de preuve, pseudo-sciences, etc.) puis sur la déconstruction partielle de nos systèmes cognitifs principalement avec l’approche des biais (tous représentés de manière très parlante). Le périple continue avec les méthodes d’évaluation de l’information (approches des statistiques, théière de Russell, évaluation d’une étude scientifique, sophismes, etc.) et se conclut sur une note de tolérance et sur les limites de l’esprit critique (distinction entre faits et foi, valeurs, importance des émotions, différences de points de vue idéologiques, politiques et sociaux). 

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 21.

D’un point de vue éducatif et pédagogique

L’alchimie du couple, l’humour malicieux, la bienveillance, la douceur du trait de Gally, la joie qui se dégage de cette BD… nous rend tous simplement heureux. C’est bête à dire, mais particulièrement pertinent dans un ouvrage qui veut nous faire sortir de notre zone de confort. Une tendresse véritable alimente des représentations réfléchies et travaillées en particulier au niveau du genre. Elle, l’esprit critique, est à la fois professeure, chercheuse, super-héroïne, militaire, dragonne, étudiante, etc. Autant de modèles hautement positifs et encourageants pour des secteurs où les femmes sont encore peu représentées allant de pair avec une mise en avant de femmes scientifiques (notamment l’astronome américaine Maria Mitchell) trop souvent invisibilisées par une historiographie grandement patriarcale.

C’est une mine d’or pour qui veut commencer à modeler son esprit critique avec des outils précis quoiqu’un peu survolés. Histoire des sciences et des idées, fonctionnement de la recherche moderne, biais cognitifs, sophismes et paralogismes, etc. Presque tout y est. Chaque planche, chaque case est d’une richesse incroyable. Certaines fonctionnent parfaitement en solitaire et pourraient être affichées dans les écoles, les collèges et les lycées (coup de cœur pour la planche de la « Méthode scientifique moderne »). On regrettera peut-être le rythme extrêmement intense de la BD qui transcrit l’enthousiasme de ses autrices mais sans doute trop soutenu pour un néophyte qui commencerait à s’y intéresser et qui devra sans aucun doute reprendre ses lectures plusieurs fois. Peut-être que plusieurs tomes auraient pu être à la fois plus détaillés et prendre plus de temps sur certains concepts. Mais ce n’est pas tellement gênant finalement puisque cette lecture est tellement plaisante qu’on prendra beaucoup de bonheur à s’y replonger.

En ce qui concerne « La » science, on aurait aimé une approche plus précise notamment des différents modes de construction des connaissances et non pas uniquement de la méthode hypothético-déductive ; et donc plutôt une approche « des » sciences. Par exemple, on regrettera, page 44, la formulation : « La science moderne est objective, expérimentale et autocorrective ». En effet, concernant l’objectivité, la sociologie des sciences nous a démontré le contraire ; tandis qu’au niveau de l’expérimentation, elle n’est pas l’apanage de tous les domaines. Quid de l’histoire, de la sociologie, etc.

Il faut donc voir cet ouvrage comme une vaste introduction, qui permettra au lecteur novice de savoir où creuser pour affiner ses outils de réflexion et de compréhension du monde. Et ça, c’est déjà pas mal !

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 46-47.

D’un point de vue humaniste

La bienveillance et la tendresse ne sortent pas de nulle part, mais bien d’une très grande confiance en l’être humain et en ses capacités. Dans cette époque morose où nous sommes submergés d’information, où les polémiques s’enchaînent, où la société se divise, où l’univers médiatique appuie l’idée que l’irrationalité semble l’emporter… c’est une sublime bouffée d’air frais. Nous pouvons changer, nous en tant qu’être humain, et finalement changer la société qui nous entoure en nous basant sur des outils simples et dont l’efficacité est vérifiable sans forcément se mettre au-dessus de la mêlée. Pratiquer l’esprit critique ce n’est pas devenir une machine apathique mais au contraire comprendre et maîtriser ses émotions « nécessaires au raisonnement ». Pratiquer l’esprit critique ce n’est pas défendre le scientisme, mais connaître les limites de nos connaissances et tracer la frontière entre les faits et nos opinions (même si les autrices préfère le terme « foi ») . On regrette un peu que les philosophies des lumières et leurs apports essentiels à l’émancipation des sciences n’aient pas été abordées, mais on pardonne facilement au vu de la richesse des connaissances déjà présentes.

Planche issue de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 56.

Pour conclure

En bref, on rigole, on est ému, on apprend, on voyage… C’est une véritable aventure initiatique à mettre entre toutes les mains… Bon, à partir d’un certain âge peut-être parce qu’assez ardue. De plus, certains concepts sont illustrés de manière… originale. L’explication de la différence entre moyenne et médiane avec la b*** de Rocco Siffredi reste mon préféré. Beaucoup de choses pourront vous sembler floues, complexes, dures à conceptualiser, mais ce n’est que le début de votre expédition en terre inconnue. Avec un peu de recherches extérieures pour recouper les sources – exercice ô combien sain et indispensable – vous arriverez à vous y retrouver. De plus, la bande dessinée propose une bibliographie et une section « pour aller plus loin ».

Pour les autres, ceux déjà rompus à l’exercice, vous y redécouvrirez les marottes du scepticisme et vous amuserez à trouver les différents easter egg zététiques et références geeks cachées un peu partout. Mais pour approfondir vos connaissances sur le sujet, ce n’est sans doute pas l’objet adapté. Dans tous les cas, si vous êtes convaincu, courez l’acheter et faites vivre ses autrices ; si vous n’êtes pas convaincu, courez l’acheter parce que vous manquez sans doute d’esprit critique. Comment ça un faux dilemme ?

Cases issues de la bande-dessinée L’esprit critique de Isabelle Bauthian et Gally, Octopus, Delcourt, 2021, p. 93.

Peut-on modéliser le monde social ?

Suite à ma conférence donnée le samedi 26 mars 2022 à Bruxelles au skeptics in the pub organisé par le comité para, je reviens dans cet article sur quelques points, dans le but de préciser certaines choses en complément de mon intervention. On va (re)parler de modèles en sciences et en sciences sociales tout particulièrement, en prenant comme exemple le modèle de ségrégation urbaine dû à Thomas Schelling. Ensuite, je reviendrai sur des remarques et des questions qui ont été soumises lors de mon intervention et auxquelles je n’ai pas apporté, à mon goût, de réponse satisfaisante. Il est conseillé de visionner la conférence dans un premier temps afin d’avoir à l’esprit l’entièreté du contexte de la discussion, et en particulier l’ensemble des sources sur lesquelles je m’appuie et que je ne recite pas en détail ici.

Modéliser le social

Le but de ma conférence était de présenter certains contre-exemples à opposer à des arguments souvent entendus pour soutenir le fait que les sciences sociales, et la sociologie en particulier, doivent jouir d’une épistémologie à part. Elles seraient, dans leur essence même, différentes des sciences dites « naturelles » à tel point que les critères épistémologiques habituellement appliqués à ces dernières, par exemple le fameux falsicationnisme poppérien, ne pourraient avoir prise ou de pertinence à l’égard de leur scientificité.

Je ne reviens pas sur ces questions que j’ai déjà exposées un peu plus en détail dans mon intervention. D’autres articles s’y sont d’ailleurs attelés ici-même. Ce qui m’intéresse ici, c’est de revenir sur un des modèles que j’y ai présenté, à savoir le modèle de Thomas Schelling ayant pour but de modéliser certains aspects des processus de ségrégation urbaine.

Le modèle de Schelling

Ce modèle, hautement stylisé, considère un processus dynamique prenant place sur un quadrillage. Sur ce quadrillage, on considère des agents de deux types représentés par deux couleurs (par exemple, rouge et bleu) disposés initialement sans ordre précis, et laissant un certain nombre de cases vacantes. On encode ensuite une dynamique où, à chaque pas de temps, les agents rouges et bleus peuvent changer de place en suivant une règle extrêmement simple. Chaque agent a huit plus proches voisins que l’on appelle son voisinage, ou quartier. On considère que les agents d’une couleur donnée ont un certain degré de tolérance envers les agents de l’autre couleur : chaque agent accepte que son voisinage soit constitué d’un certain pourcentage d’agents d’autres couleurs. Si ce pourcentage est supérieur au seuil de tolérance, alors l’agent « déménage », c’est-à-dire prend, sur le quadrillage, la place vacante la plus proche qui le satisfait de nouveau. Or, en ayant déménagé, il a légérement changé le quartier d’où il est parti tout autant que le quartier où il est arrivé, ce qui a pour conséquence de modifier l’état dans lequel se trouvent les occupants de ce quartier : le seuil de tolérance de certains agents présents dans ces quartiers a peut-être été dépassé. S’en suit une réaction en chaine.

Simulation avec un seuil de tolérance de 50%.
(Crédit : https://github.com/b3rnoulli/schelling-segregation-model)

En simulant cette dynamique pour un grand nombre de pas de temps, on observe la chose suivante : même avec un seuil de tolérance relativement élevé, par exemple 70% (ce qui signifie que chaque agent accepte d’être entouré jusqu’à 70% d’agents de l’autre couleur), en partant d’une situation où tous les agents sont disposés au hasard, on obtient inéluctablement une forte ségrégation. Ce qui veut dire que, selon ce modèle, même des individus assez tolérants peuvent, sans même s’en rendre compte, prendre des décisions individuelles qui, une fois agrégées les unes avec les autres, finissent par produire une forte ségrégation au niveau macro-social. D’autre part, on observe aussi que si le seuil de tolérance est très bas, donc si on a des individus très peu tolérants, alors on obtient une situation assez instable où la ségrégation est, paradoxalement, très faible : les individus qui arrivent quelque part sont si peu tolérants qu’ils déménagent rapidement, avant qu’ait pu se former un voisinage leur ressemblant assez pour qu’ils restent.

Si vous êtes intéressés, vous pouvez faire jouer vous-même la simulation via ce site : https://ncase.me/polygons/ et tester plusieurs configurations et paramétrages de départ.

Un peu d’épistémologie des modèles

Ce modèle, comme tous les modèles, est stylisé à l’extrême et repose sur des hypothèses loin de recouvrir l’ensemble des réalités dont on a connaissance au sujet des phénomènes de ségrégation. Par exemple, les seuls facteurs intervenant dans la dynamique du processus sont les décisions des individus qui habitent la ville, réduits à des couleurs dans une case, et ne reposant que sur un choix binaire (rester/déménager) commandé par un seuil de tolérance. Beaucoup d’aspects, comme les politiques publiques en termes d’aménagement, parfois elles-mêmes ségrégationnistes, le marché de l’immobilier ou encore les décisions des propriétaires (parfois eux-mêmes racistes) ne sont pas implémentées dans ce modèle. En gardant en tête ces limites – et tout modèle, de la physique quantique à la génétique des populations, a ses limites – le modèle de Schelling nous dit-il tout de même quelque chose d’intéressant ?

Un modèle est une représentation simplifiée de la réalité et ce que l’on perd en détail, on le gagne en manipulabilité. En d’autres termes, il y a une sorte d’équilibre entre, d’une part, un niveau de détails que l’on veut atteindre, et d’autre part la facilité avec laquelle on peut le manipuler et donc lui faire dire des choses. Pensez à une carte géographique : si la carte est trop complexe, par exemple si c’est la carte d’une région et qu’elle représente chaque rue de toutes les villes de la région, cette complexité va empiéter sur ce que l’on va pouvoir faire de la carte, c’est-à-dire sur l’aide cognitive qu’elle va nous apporter pour nous repérer. Si elle est trop simple, alors elle sera plus facilement manipulable, mais, bien sûr, on pourra faire moins de choses avec. Par exemple, on saura que telle ville est au dessus de telle autre et qu’il faut prendre cette route pour les relier, par contre une fois arrivée dans la ville il faudra utiliser une autre source d’information pour trouver, par exemple, la meilleure pizzéria. Dans tous les cas, même si elle est très simple, l’important est qu’elle parvienne à capturer un certain aspect du monde et de ses mécanismes. L’équilibre à trouver entre complexité et manipulabilité dépend entièrement de ce que l’on veut faire avec ce modèle, c’est-à-dire quel aspect du monde on souhaite qu’il nous rende intelligible – et jusqu’à quelle précision. On sait que les hypothèses sur lesquelles il repose sont parcelaires et manquent de nombreux détails qui pour d’autres raisons sont extrêmement importants à prendre en compte, et une erreur serait de tomber, en physique comme en sociologie, dans un réalisme naïf qui nous fait directement prendre nos modèles pour ce à quoi ressemble la réalité que l’on tente d’approcher.

Pour revenir au modèle de Schelling, ce qui intéressant est que, justement, même dans le cas où des hypothèses pouvant expliquer plus directement la ségrégation (comme par exemple le racisme de certains propriétaires) ne sont pas prises en compte et qu’au niveau micro-social les agents seraient d’accord pour qu’il n’y ait pas de ségrégation, une ségrégation apparaît inéluctablement. Ce qu’il nous montre, ce n’est évidemment pas la réalité dans toute sa complexité – car, en fait, aucun modèle ne fait une telle chose. Utiliser ce modèle et en parler, ce n’est pas non plus nier que d’autres facteurs jouent également dans le phénomène de ségrégation – à moins d’être d’une extrême naïveté épistémologique ou bien de vouloir faire dire à ce modèle des choses qu’il ne dit pas, dans le but, par exemple, de minimiser des politiques racistes. Non, modéliser la ségrégation avec le modèle de Schelling, c’est simplement analyser le problème comme une composition de plusieurs phénomènes conjugués et extraire l’un de ces phénomènes supposés pour le modéliser à part. En regardant ce que ce simple phénomène produirait comme effet – ici un effet dit « pervers » où le résultat macro-social va à l’encontre des opinions ou des attentes micro-sociales – il nous apporte une information importante. Au niveau méthodologique, un modèle n’est ni plus ni moins qu’un guide cognitif, des planches en bois posées sur le sable mouvant de la réalité pour nous aider à la regarder de plus près.7

Notons que ce modèle possède par ailleurs un certain succès empirique, puisqu’aux États-Unis où la ségrégation raciale a été très étudiée, il apparaît que le niveau de tolérance au niveau individuel augmente au cours du temps alors qu’une ségrégation urbaine élévée se maintient encore aujourd’hui.

Pour plus d’informations à ce sujet, je ne peux que vous conseiller ce cours en vidéo (en anglais) du sociologue Thomas Grund sur la ségrégation en général et sur le modèle de Schelling en particulier. https://www.youtube.com/watch?v=me9DBTsmUgo

Ce type de modèles et d’approches du monde social se reconnaît sous le vocable de « sociologie analytique », un ensemble de programmes de recherche assez peu connus en France – où la sociologie repose plus traditionnellement sur une approche holiste. Notons que le processus d’idéalisation en sociologie n’est absolument pas nouveau puisque la notion de type idéal, qui recouvre bien cette idée de décrire une réalité complexe en en stylisant à l’extrême certains aspects, remonte à Max Weber (1920). 8

Ce n’est pas de la sociologie

Je voudrais maintenant aborder un type de commentaires que l’on m’a adressé pendant la conférence et auquel je voudrais donner ici une réponse un peu plus claire. Ce type de commentaires, le voici :

« C’est sympa, mais ce n’est pas de la sociologie ».

J’ai présenté dans ma conférence un exemple de résultat typique de l’approche mécanistique propre à la sociologie analytique : on parvient à reproduire une régularité empirique portant sur la distribution des votes lors d’élections proportionnelles dans de nombreux pays différents et à différentes époques – ce qui est déjà en soi un résultat intéressant – en modélisant simplement l’influence sociale de proche en proche à l’aide d’un modèle en réseaux. À chaque nœud du réseau, représentant un individu, l’influence qu’il peut avoir sur les personnes avec qui il est en contact est modélisée par une certaine probabilité de les convaincre de voter pour tel ou tel candidat. En mettant la bonne distribution de probabilité (de forme classique pour ce type de phénomènes), on reproduit effectivement la distribution finale des votes observée macroscopiquement.

On m’a fait la remarque que ce n’était pas de la sociologie, mais de la théorie des réseaux – c’est-à-dire un simple modèle mathématique. Or, certains éléments de ce modèle possèdent une signification empirique, c’est-à-dire font référence à des grandeurs mesurables. Certes, le phénomène est expliqué au sein d’un cadre où l’on a accepté de manière a priori certaines hypothèses – et en particulier la forme de la probabilité modélisant l’influence sociale de proche en proche sur le réseau. Une explication plus « profonde » consisterait à dériver cette hypothèse à partir d’autres hypothèses appartenant à la sociologie ou à la psychologie cognitive, par exemple. Mais ça n’en reste pas moins une explication sociologique puisqu’en supposant cela, on redérive de manière non triviale une observation empirique portant sur le monde social. On pourrait faire le parallèle avec les modèles en mécanique newtonienne : on modélise un phénomène à l’aide d’un ensemble de forces qui s’exercent sur un système, mais la forme même de ces forces n’est adoptée que parcequ’elles parviennent ainsi à redériver un certain nombre d’observations empiriques. Pour autant, ils restent des modèles explicatifs – c’est simplement que l’explication est adossée à un certain cadre que l’on doit se donner a priori, contenu dans ce que Imre Lakatos appelait le noyau dur des théories. Le modèle cité plus haut n’est donc pas un simple modèle de la théorie des réseaux, mais le modèle d’un phénomène social, puisqu’il contient des éléments qui ont une signification empirique et qui portent sur le monde social (ici, le nombre de votes qu’un candidat obtient, le nombre de candidats dans sa liste, etc.) De la même façon, par exemple, que la théorie de la relativité générale n’est pas simplement de la géométrie lorenztienne (le cadre mathématique dans lequel cette théorie est écrite) puisqu’elle contient des hypothèses de correspondance entre des éléments de ses modèles et des éléments observables empiriquement.

Il se trouve que l’on peut dériver certains résultats empiriques portant sur un aspect du monde social sans faire référence – ou alors d’une manière minimale – aux intentions des individus prenant part au processus. Si on regarde la taille des villes en fonction de leur rang, par exemple au sein d’un pays, on tombe quasiment à chaque fois sur la même distribution (dite « en loi de puissance ») qui est typique des phénomènes d’agrégation asymétriques (où des choses s’agrègent et ont plus de probabilité de s’agréger là où quelque chose est déjà agrégé). On retrouve la même distribution pour d’autres phénomènes qui ne sont pas sociaux, comme par exemple les amas d’étoiles. Il est assez étonnant qu’un phénomène comme l’expansion d’une ville, qui en soit fait intervenir un nombre incalculables d’intentions et d’intérêts conflictuels, mais aussi des facteurs non humains, etc. finissent par produire une telle régularité. On m’a alors rétorqué que si un modèle pouvait reproduire un phénomène social sans qu’il n’y ait rien d’humain dedans, c’est-à-dire qui marche même « si c’est pas des humains », alors ce n’était pas de la sociologie.

Il y a deux réponses à apporter ici. Premièrement, le comportement humain est, comme tout le reste, modélisé au sein d’une théorie de l’action servant de support à une explication basée sur l’exhibition de mécanismes microsociaux qui, une fois agrégés, reproduise le phénomène macro-social à expliquer. Il faut, très souvent, modéliser l’action humaine pour que le mécanisme explicatif puisse s’incarner. Certes, cette modélisation est souvent stylisée pour pouvoir être facilement manipulable au sein de modèles, mais il n’en reste pas moins qu’elle existe et est souvent nécessaire (mais parfois, non!) On modélise l’action humaine jusqu’à la finesse nécessaire pour reproduire ce que l’on cherche à reproduire – de la même façon que modéliser une planète comme un point matériel qui ne subit que la force du soleil est une approche très stylisée et qui repose sur des hypothèses que l’on sait, en quelque sorte, fausses, mais cela permet néanmoins de reproduire de manière non triviale un certain nombre d’observations.

Deuxièmement, cet argument, me semble-t-il, dissimule une circularité dans le raisonnement. Devant le constat que l’on peut modéliser certains phénomènes sociaux à l’aide d’une théorie de l’action on ne peut plus minimaliste, dire que ce n’est pas de la sociologie c’est déjà faire le présupposé d’à quoi doivent ressembler les explications en sociologie, donc cela ne permet pas d’écarter logiquement ce type d’explications (à base de modèles) puisque c’est la prémisse de laquelle ce raisonnement démarre. Si on part du principe que les explications en sociologie ne peuvent pas reposer sur des mécanismes fondés sur des modélisations stylisées de l’action inviduelle, alors face aux inombrables contre-exemples offerts par la sociologie analytique, on ne peut sortir de la circularité qu’en remettant en question ce principe. En effet, peut-être que les phénomènes sociaux, malgré la grande complexité avec laquelle ils peuvent nous apparaître, sont, dans certains de leurs aspects, modélisables bien plus simplement que ce que l’on croyait. C’est bien l’une des caractéristiques de la science de nous être parfois si subversive en ce qu’elle bouscule nos a priori et certainement nos croyances à propos de notre caractère si spécial en tant qu’humain et du fait que le social ne saurait être – même en partie – dompté par aucun modèle.

Conclusion : tout est modèle

Pour conclure, je pense qu’en fait même si on n’utilise pas de modèle aussi stylisé que ce qu’on a présenté, qu’on ne cherche pas à généraliser, qu’on en reste à aller voir en détail ce qui se passe sur le terrain, et que notre but est de décrire aussi précisément que possible ce qu’il s’y joue, il n’en reste pas moins qu’on est toujours en train… de faire un modèle. En effet, malgré le fait que nous sommes des êtres sociaux et que de ce fait le ou la sociologue peut interagir dans un langage naturel avec les sujets de son étude, il n’en reste pas moins que cette interaction est toute sauf « directe ». En effet, outre que la présence de l’ethnologue modifie l’objet même de sa recherche et qu’il existe un grand nombre de biais possibles bien connus de la profession, décrire une situation c’est déjà la styliser inmanquablement. Tout simplement parce que les mots que nous utilisons réfèrent à des catégories proprement humaines et à des concepts qui ne sont rien d’autres que des généralisations – par définition – idéaliséees. Un concept est déjà modélisateur. Une enquête de terrain, nécessaire à la connaissance sociologique, c’est déjà le modèle de quelque chose. On a déjà tranché dans la réalité sociale, on l’a déjà immanquablement simplifiée. On ne peut à aucun moment la connaître qu’à travers le cadre conceptuel que l’on se donne.

On ne peut donc récuser une approche basée sur des modèles (au sens de la sociologie analytique) sur le seul principe qu’ils simplifient la réalité, puisqu’il semble proprement impossible de faire autrement. Bien sûr, on peut montrer qu’ils la simplifient trop. Cela ne peut néanmoins pas reposer sur nos a priori d’à quoi elle devrait ressembler, puisque c’est justement nos modèles qui peuvent nous le dire en dernière instance ! Non, le seul juge reste la confrontation avec les données empiriques et les autres modèles concurrents. Cela et uniquement cela peut nous indiquer si la simplification a été trop un peu trop raide ou bien, le cas échéant, qu’elles en sont ses limites.

Croyances, connaissances et boule de neige

Quand nous abordons dans nos cours la question de la distinction entre croyances et savoirs (ou connaissances, je ne ferai pas la distinction ici), cette distinction repose sur un postulatqui pose bien des problèmes.Croyances et savoirs sont-ils, en effet, si facile de les distinguer ? L’objet d’une telle discussion anime les épistémologues depuis des lustres et en quelques heures ou lignes, il serait bien entendu illusoire d’apporter une réponse nuancée. Il est par contre possible de faire réfléchir à cette question, et de bien des manières. Nous proposons ici un atelier très simple à mettre en place, décliné sous la forme d’un débat boule de neige et permettant de faire émerger la complexité de cette problématique, donnant ensuite quelques pistes pour y répondre.

Le débat « boule de neige »

Principe du débat

Le débat « boule de neige » est, comme son nom l’indique, un débat permettant « d’accumuler » les contributions de plusieurs élèves/étudiants/personnes sur un sujet donné9. Il se déroule en différentes étapes et l’objectif est de faire participer toutes les personnes, pour échanger des arguments et construire une réponse collective sur un sujet donné. Chaque étape est chronométrée, permettant de rythmer les discussions. Seuls dans un premier temps, les participants se regroupent petit à petit en différentes « boules » pour échanger leurs arguments et discuter.

Déroulement du débat

Pour commencer, il faut tout d’abord choisir une affirmation, une phrase sur laquelle on souhaite faire réfléchir.

  • On commence le débat boule de neige par une phase de réflexion individuelle avec la consigne suivante : « Êtes-vous d’accord ou pas avec cette affirmation ? » puis « Trouver des raisons/arguments justifiant votre position. » Cette première étape peut durer entre une et trois minutes afin de laisser le temps à chacun de prendre conscience du problème posé par l’affirmation.
  • Dans une deuxième étape, on regroupe les participants deux par deux, toujours avec les même consignes auxquelles on ajoute qu’il faut maintenant présenter ses arguments et cerner les points d’accord et de désaccord. Cette phase peut durer entre deux et cinq minutes maximum : en effet, à deux, il arrive souvent que les arguments échangés ne soient pas très nombreux. Mieux vaut alors enchaîner sur l’étape suivante.
  • La troisième étape permet de regrouper par quatre les participants (on réunit les groupes précédents deux par deux). Les consignes sont identiques. C’est sans doute l’étape la plus prolifique et pertinente du débat, aussi prévoir entre 10 et 15 minutes est tout à fait raisonnable.
  • On réunit ensuite les « boules » de quatre pour former des groupes de huit, toujours avec les mêmes consignes, précédées de cette recommandation : « désignez une personne de chaque groupe pour résumer en quelques phrases les différents arguments avancés précédemment ». À huit, la discussion est souvent animée, mais on remarque aussi que certains peuvent prendre plus (trop) souvent la parole : l’occasion de rappeler quelques règles utiles comme le bâton de parole (avec restrictions sur le nombre de fois autorisées) ou la désignation d’un responsable donnant la parole au fur et à mesure des demandes (mains levées).
  • Selon la disposition de la salle et l’envie ou pas de l’animateur-trice, on peut former des groupes de seize. Mêmes consignes.
  • La dernière étape consiste à réunir tous les participants : debout, en cercle, tout le monde débat ensemble. Si un consensus se dégage, on peut demander de l’indiquer. Dans le cas contraire, on demande de rapporter les différents points de divergences.

  • Le rôle de l’animateur-trice dans toutes ces étapes est de gérer le temps et, dans la dernière étape, de s’occuper de la prise de parole du groupe (ou de désigner quelqu’un pour le faire). Pendant toute la durée des débats, il-elle circulera autour de chaque groupe, aidant ou relançant si nécessaire les participants à nuancer, envisager d’autres pistes, sans répondre directement aux questions portant sur le fond du sujet. Il est important de garder un certain retrait vis-à-vis des échanges de chaque groupe afin d’éviter au maximum le regard du « sachant » à un moment où chacun est invité à exprimer son point de vue de manière totalement égale aux autres.

Croyances ? Connaissances ?

Le choix de l’affirmation

Pour faire réfléchir et discuter élèves, étudiants ou enseignants en formation, j’ai toujours choisi la même affirmation : « Les croyances s’opposent aux connaissances« . Elle permet de faire émerger un ensemble de questions et de problèmes que les participants, ensemble, vont tenter de résoudre. Par le jeu des échanges, les personnes les plus convaincues dès le début se rendent compte que d’autres avis peuvent être légitimes, en fonction de la force des arguments avancés. Certains m’ont parfois suggéré d’inverser le sens de l’affirmation, ce que j’ai fait, sans observer de grands changements dans les débats entendus.

Points de vigilance

Le rôle de l’animateur du débat est crucial : il faut être capable de laisser débattre les participants sans intervenir comme signalé ci-dessus, mais il est aussi nécessaire de savoir relancer les échanges quand ceux-ci sont au point mort. On pourra par exemple poser des questions au groupe comme « Êtes-vous d’accord sur le sens du mot croyance ? » ou « D’après vous, quels types de croyances s’opposent aux connaissances ? ». On pourra également demander de bien penser à justifier chaque point de vue donné, ou encore de faire la liste des points d’accord ou de désaccord entre les participants.

On peut également conseiller, avant chaque nouvelle « boule », que chaque groupe distinct résume la teneur de ses échanges précédents, permettant ainsi de ne pas tout répéter et d’avancer dans le débat.

Quand arrive le regroupement à plus de 8, se pose la question de la parole. Après quelques minutes passées à débattre, je demande à chaque groupe s’il est satisfait de la manière dont se passent les échanges. Il se peut que laisser la gestion de la parole sans règle explicite fonctionne bien, mais on peut aussi donner quelques conseils comme utiliser un bâton de parole (ne parle que celle ou celui qui a le bâton ou quelque autre objet), ou désigner une personne responsable d’indiquer à qui vient le tour de parler.

Enfin, la dernière « boule » – le groupe entier donc – se réunit pour la dernière partie du débat. Il est alors utile de rappeler que l’objectif de ce dernier regroupement est de parvenir à exprimer de manière collective les différents avis qui ont émergés, avec leurs justifications, leurs arguments ou toutes raisons amenant à considérer qu’une opinion mérite d’être entendue.

Ce type de débat peut aussi être utilisé pour prendre une décision collective : la dernière étape étant utilisée pour faire émerger les différentes propositions et choisir parmi elles le cas échéant.

Quant à la manière d’utiliser ce débat pour traiter de la question de fond sur la différence entre croyances et connaissances, ce sera l’objet d’un prochain article.

L’effet Matilda ou l’invisibilisation des femmes de science

En pensée critique, on connaisait l’effet Mathieu 10 faisant référence à la moindre recognition (notamment en science) de ceux qui parte avec un capital de départ (matériel, social ou culturel) moins élévé. On doit à Margaret Rossiter, historienne des sciences états-unienne, une variante, l’effet Matilda, un clin d’oeil à la suffragiste, libre-penseuse, abolitionniste, Matilda J. Cage, une des premières à dénoncer l’absence des femmes dans les récits historiques et scientifiques.

Parmi les sans-droits et sans-noms des oubliettes de l’histoire des sciences, une écrasante majorité a en commun d’être de genre féminin. Les femmes scientifiques sont moins reconnues de leur vivant, notamment en raison de leur statut plus précaire et subordonné. 11 Leur contribution est aussi invisibilisée dans les récits scientifiques, par paresse – on s’attarde uniquement sur les figures, principalement masculines, déjà connues -, inertie ou biais sexiste.

Margaret W. Rossiter revient sur certaines de ces figures oubliées dans son article sur l’effet Matilda 12. Une des premières connues est Trota, une médecin de l’Italie du douzième siècle, qui documenta et traita, de manière inédite, des pathologies féminines. Son nom devint connu par l’action de son époux et de son fils, tous deux médecins également. Un moine, chargé de rédiger un traité sur la médecine au Moyen-Age, décida toutefois qu’une telle contribution ne pouvait être que le fait d’un homme et donna à son nom la forme latine masculine. Une erreur qui la fit passer, en tant qu’homme, à la prospérité. Il faudra attendre le vingtième siècle pour que cette erreur soit réctifiée par l’historien de la médecine allemand Karl Sudhoff, qui, au passage, dégrada sa qualification au rang d’assistante sage-femme, un statut qui retira toute mention à ses découvertes dans les ouvrages scientifiques postérieurs.

Trota – aussi appelée Trotula – représentée dans une gravure du quatorzième siècle.

Plus proche de nous, Frieda S. Robscheit-Robbins, doctoresse en médecine allemande experte du traitement de l’anémie, fut privée du Prix Nobel en 1934 au profit de son co-auteur. L’histoire retient par contre, sa « présence »et ses coiffes toujours élégantes 13. Si les femmes non- mariées sont d’office non reconnues, les travaux et découvertes des femmes mariées à d’autres scientifiques reviennent, quasi systématiquement, à leur conjoint, même dans les cas, nombreux, où leur contribution excède celle de leur partenaire masculin.

En qualifiant cette stratégie d’invisibilisation systématique, l’effet Matilda invite à accroître notre vigilance et à considérer, au moment de se pencher sur l’histoire des découvertes scientifiques, qu’il est fort probable que derrière chaque grand homme se cache non seulement une multitude de collaborateurs oubliés mais aussi un grand nombre de femmes.

Si vous faites partie de celles et ceux qui ont contribué à réparer cette injustice en effectuant des recherches sur des femmes scientifiques oubliées? Contactez nous !

La COVID-19? Un bon prétexte pour causer démarche scientifique

Les Presses Universitaires de Grenoble (PUG) ont profité de la crise du coronavirus pour proposer de la pensée critique au temps de cerveau disponible. Des membres et anciens membres du CORTECS ont ainsi pris la parole dans la série « Le virus de la recherche ». De belles pépites à lire et relire pour changer de Netflix.

« Non, non merci bien, moi vous savez le COVID ce n’est pas franchement ma tasse de thé… » On ne peut pas dire que Raul ait été d’emblée emballé par l’invitation des PUG. Il s’est finalement ravisé pour souligner que « contrairement aux activités de voyance, la science ne peut dire de l’avenir que ce que le passé nous permet d’inférer ». Une invitation à distinguer faits scientifiques et interprétation de ces faits, disponible en libre accès ici.

Nos deux amis, Nicolas et Richard, en routards de la pensée critique, invitent à la prudence quand il s’agit de se faire une opinion sur de telles questions de santé publique qui présentent un combo d’économie, d’infectiologie, de statistiques bayésiennes, de science politique et de philosophie morale. Grande est la tentation de donner son avis sur tout et n’importe quoi dans ce contexte.

À propos du critère de réfutabilité et des hypothèses ad hoc

Le critère de réfutabilité est bien connu dans le milieu zététique : élément clé permettant de distinguer sciences et pseudosciences, il est pourtant plus difficile à manier qu’il n’y paraît. Afin d’éviter que le corps astral de Karl Popper ne se retourne dans son plan cosmique sépulcral, notre collègue Jérémy Attard nous aide à nous y retrouver, rappelant les bases de ce concept majeur d’épistémologie, puis en pointant les écueils à contourner lorsqu’il est question de le vulgariser.

[toc]

Simplifier, sans déformer

Dans notre enseignement de la zététique nous avons souvent coutume de déclarer : « Une proposition irréfutable n’est pas scientifique ! » ce qui pourrait sous-entendre qu’une telle proposition ne mérite pas notre attention. Nous entendons par « proposition irréfutable » indistinctement les propositions du type « demain il va pleuvoir ou bien il ne va pas pleuvoir » comme celles du genre « oui, certes, on a des photos de la Terre vue de l’espace, mais c’est des montages de la NASA pour nous cacher que la Terre est plate ! » Le premier cas correspond à une proposition vraie indépendamment de l’expérience et donc qui n’a pas beaucoup de chance de nous apporter une quelconque information substantielle sur le monde ; le second est un cas bien connu d’immunisation contre la réfutation consistant à rajouter une hypothèse ad hoc pour sauver une thèse à laquelle on tient. Lorsque nous parlons de ce critère de réfutabilité, nous faisons évidemment référence à l’éminent philosophe des sciences Karl Popper qui l’a établi et popularisé dans les années 1930 [1]. Cependant, de même qu’il ne viendrait à l’idée de personne, a priori, de présenter l’effet placebo tel que décrit dans la première méta-analyse de Henry Beecher en 1955 sans tenir compte des travaux plus récents qui le remettent assez profondément en question, il nous semble étrange de résumer l’épistémologie, et notamment la réfutabilité, à Karl Popper sans prendre en compte ce qu’il s’est passé après lui. Il ne s’agit pas, dans un enseignement de zététique consacré aux bases épistémologiques, de faire un cours à proprement parler d’épistémologie, bien entendu. Il s’agit simplement de glisser quelques nuances, qui apporteront un peu de profondeur au problème sans pour autant nous perdre dans des considérations stratosphérico-métaphysiques désincarnées des besoins d’outils pratiques de celles et ceux venu-e-s nous écouter.

Photo et citation de Karl Popper

Il s’agit, d’abord, de réaliser une meilleure vulgarisation que celle que nous faisons. Dans toute démarche de vulgarisation, il y a un équilibre subtil à trouver entre la simplicité du propos, dans un but pédagogique de transmission, et sa solidité scientifique. Ce que l’on gagne en simplicité, on le perd très souvent en rigueur et inversement. Ce que nous proposons ici est une façon de présenter le critère de réfutabilité qui améliore cet équilibre par rapport à la façon dont il est habituellement enseigné. N’oublions pas que comprendre le critère de réfutabilité est un objectif pédagogique avant tout : donner un outil simple d’utilisation pour identifier rapidement, au moins dans un premier temps, ce qui distingue une science d’une pseudoscience. Mais une trop grande simplification, pour toute pédagogique qu’elle soit, peut se retourner contre son but initial si l’on ne transmet pas en même temps l’idée que « c’est un peu plus compliqué que ça » ainsi que des pistes pour aller chercher plus loin.

En effet, si l’on creuse un peu l’histoire des sciences d’une part, et la philosophie des sciences d’autre part, on se rend rapidement compte de deux choses : 1/ les théories les plus scientifiques sont fondées sur des propositions irréfutables ; 2/ le fait d’ajouter des hypothèses pour « sauver » une théorie constitue la majeure partie du travail des scientifiques. Une fois ces deux faits établis, et donc mis à jour le caractère un peu « léger » de notre critique usuelle de l’irréfutabilité, nous verrons comment l’améliorer sans trop d’efforts et ainsi ne plus tendre l’homme de paille14 pour nous faire battre. En effet, une personne défendant un contenu pseudoscientifique et un tant soit peu au fait de l’histoire ou de la philosophie des sciences pourrait nous rétorquer que la science, telle qu’on la présente, fonctionne en réalité de la même manière (et elle n’aurait pas tort…) C’est aussi l’occasion de donner quelques références supplémentaires en épistémologie si l’on veut aller creuser le sujet.

La théorie peut-elle réfuter l’expérience ?

C’est un fait bien accepté qu’une théorie scientifique doit pouvoir rentrer en contradiction avec l’expérience. Le raisonnement est relativement simple : une théorie scientifique prétend dire quelque chose de non trivial sur le monde, et donc tirer sa validité de l’expérience. Si une théorie est irréfutable, c’est-à-dire si elle ne produit que des énoncés tautologiques, vrais en dehors de toute expérience, sa validité ne va pas être conditionnée par celle-ci. L’expérience est pourtant in fine la seule manière que l’on a de rentrer en contact avec la réalité objective dont on prétend pouvoir obtenir une information fiable. Une théorie qui ne produit que des énoncés tautologiques ou qui est immunisée d’une manière ou d’une autre contre la réfutation ne pourra donc pas obtenir d’information non triviale sur le monde, et ainsi ne pourra pas être considérée comme scientifique. En d’autres termes, ce qui est intéressant lorsque l’on prétend dire quelque chose sur le monde, ce n’est pas simplement d’avoir raison, mais d’avoir raison alors qu’on aurait très bien pu avoir tort : c’est de ce type de validation qu’une théorie tire sa valeur scientifique.

Il faut donc que la théorie ait une possibilité de rentrer en contradiction avec l’expérience. Mais, plus précisément, qu’est-ce qui rentre en contact avec l’expérience, dans une théorie ? Prenons un exemple concret, tiré de la physique : le principe de conservation de l’énergie. Dans le cadre de la physique newtonienne, celui-ci s’énonce de la manière suivante : « L’énergie totale d’un système isolé se conserve », un système isolé étant défini comme un système qui n’échange ni énergie ni matière avec l’extérieur. En gros, l’énergie peut changer de forme au sein du système mais ne peut pas disparaître ou apparaître si le système est isolé. Posons-nous alors la question : est-ce que ce principe est réfutable par l’expérience ? On a envie de dire oui, à première vue : si l’on observe un système qu’on a de bonnes raisons de considérer comme isolé et dont l’énergie totale augmente ou diminue, alors on pourrait dire que l’on a réfuté ce principe. Pourtant, penser de cette façon est une erreur à la fois au regard de l’histoire que de la philosophie des sciences. En effet, historiquement, à chaque fois que ce principe a été remis en question, on ne l’a jamais abandonné : on l’a au contraire considéré comme vrai a priori, ce qui a poussé les physicien-ne-s à inventer de nouvelles entités ou des nouveaux phénomènes (par exemple, des formes d’énergies ou des particules inconnues jusqu’alors) pour « sauver » ce principe contre l’expérience : la théorie peut en quelque chose parfois réfuter l’expérience15.

Et cette méthode a très souvent porté ses fruits puisqu’elle a conduit à la découverte de Neptune, des forces de frottements, des neutrinos ou encore du boson de Higgs : dans chacun de ces cas précis, face à une réfutation par l’expérience, on a imaginé des hypothèses pour expliquer pourquoi l’expérience ne collait pas avec ce que l’on avait prédit, tout simplement parce que la solidité de la théorie était posée comme une certitude acquise au vu de ses nombreux succès expérimentaux précédents. On trouvera de nombreux exemples de cette façon de fonctionner en particulier dans les travaux de Thomas Kuhn. Celui-ci, dans son ouvrage majeur [2], décrit en effet l’activité « normale » du ou de la scientifique comme étant la résolution de problèmes au sein d’un paradigme donné. Les « problèmes » dont il s’agit ne sont donc absolument pas considérés, de ce point de vue, comme des réfutations de la théorie dans son ensemble, mais simplement comme des anomalies qu’une reconfiguration de la théorie doit pouvoir absorber. Les anomalies fondamentales, comme celle de l’avancée du périhélie de Mercure, ne sont considérées comme telles que rétrospectivement, et peuvent très bien être parfaitement connues de la communauté scientifique pendant des décennies sans que cela n’implique la remise en question profonde de la théorie sous-jacente.

Du point de vue philosophique, maintenant, cela n’a pas vraiment de sens de considérer qu’un principe fondamental comme celui de la conservation de l’énergie puisse être vrai ou faux : en effet, si face à une contradiction avec l’expérience, on déclare que ce principe est faux, on ne peut plus rien faire ; on n’a pas réglé le problème, on est juste sorti du cadre au sein duquel c’était un problème – ce qui n’est pas du tout la même chose. Par exemple, le problème de l’accélération de l’expansion de l’univers, en cosmologie, est fondamentalement un problème de conservation de l’énergie. Si l’on déclare qu’en fait l’énergie ne se conserve pas, que ce principe est faux, l’accélération de l’expansion n’est plus un problème – son aspect problématique n’existe qu’au sein d’un paradigme où l’énergie se conserve. L’ennui est qu’une fois considéré ce principe comme réfuté, on se retrouve démuni pour faire de nouvelles prédictions, puisque tout ce que l’on avait pour parler de ce pan de la réalité était justement le principe de conservation de l’énergie !

Les programmes de recherche

Ainsi, devant ce double constat, il est intéressant d’affiner ce critère de réfutabilité et d’emprunter à Imre Lakatos, philosophe hongrois et disciple de Karl Popper, la notion de programme de recherche [3]. Pour Lakatos, un programme de recherche est constitué d’une part d’un noyau dur formé de définitions, de principes, de propositions définissant un cadre avec lequel on va investiguer un pan du réel, et d’autre part d’une certaine quantité d’hypothèses auxiliaires desquelles on va déduire, à l’aide des règles du noyau dur, des prédictions qui pourront rentrer en contradiction avec l’expérience. Ce sont ces prédictions-là qui doivent être réfutables, et rien d’autre. Si une prédiction rentre en contradiction avec l’expérience, alors on va modifier des hypothèses auxiliaires afin de résoudre cette contradiction. Un programme de recherche génère alors une suite de théories où l’on passe de l’une à l’autre par un changement d’hypothèses auxiliaires. Le problème, bien sûr, est qu’il y a toujours beaucoup de façons de réajuster notre édifice théorique afin de faire coller une prédiction avec l’expérience16. Karl Popper en est d’ailleurs lui-même bien conscient. Comme l’écrit Lakatos :

« Popper (…) en convient : le problème est de pouvoir distinguer entre des ajustements qui sont scientifiques et d’autres qui sont pseudoscientifiques, entre des modifications rationnelles et des modifications irrationnelles de théorie. Selon Popper, sauver une théorie à l’aide d’hypothèses auxiliaires qui satisfont des conditions bien définies représente un progrès scientifique ; mais sauver une théorie à l’aide d’hypothèses auxiliaires qui n’y satisfont pas représente une dégénérescence. »17

La planète Vulcain : trajectoire calculée mais jamais observée…

Pour le falsificationnisme méthodologique dont se réclame Karl Popper, on a le droit de rajouter ou de modifier certaines hypothèses suite à une contradiction avec l’expérience si cette modification augmente le niveau de réfutabilité de la théorie, c’est-à-dire si cela nous pousse à faire de nouvelles prédictions indépendantes du fait de simplement résoudre la contradiction initiale. Si ces nouvelles prédictions, réfutables, sont validées, alors on a augmenté notre connaissance sur le monde, et c’était une bonne chose de « protéger » notre théorie de la réfutation par l’ajout d’hypothèses. L’exemple de la découverte de Neptune est parlant. Au début du dix-neuvième siècle, la planète du système solaire la plus lointaine alors connue était Uranus, et il s’est vite avéré que sa trajectoire semblait ne pas se soumettre à ce que la théorie de Newton prédisait. Plusieurs solutions s’offraient aux astronomes de l’époque, comme par exemple admettre que la théorie de Newton n’était plus valable à cette échelle. Cependant, la première explication qui fût considérée était qu’il existait une planète encore inconnue à l’époque, dont l’attraction gravitationnelle sur Uranus rendrait compte de sa trajectoire problématique. L’éminent astronome français Le Verrier18 calcula alors les caractéristiques de cette planète (en supposant qu’elle existait) à l’aide des lois de Newton, c’est-à-dire en les considérant comme valides. Neptune fut effectivement observée en 1846 à l’observatoire de Berlin, et ce qui aurait pu être une défaite de la théorie de Newton finit en réalité par en constituer une victoire de plus. Le programme de recherche, selon Lakatos, est alors dans sa phase progressive. Par contre, dès l’instant où la modification d’hypothèses ne permet pas de faire des prédictions réfutables mais simplement de résoudre la contradiction sans augmenter notre niveau de connaissance sur le monde, on se trouve alors dans une phase dégénérative, et la nécessité d’un nouveau programme de recherche, reposant sur un noyau dur différent, se fait sentir. La difficulté est évidemment qu’au pied du mur, on ne peut jamais savoir avec certitude si l’on est dans un cas où l’on peut encore modifier des hypothèses auxiliaires et augmenter notre connaissance ou bien si l’on est face à une aporie intrinsèque du programme de recherche. Ce n’est que rétrospectivement que la situation s’éclaircit. Dans la continuité de la découverte de Neptune, les astronomes de l’époque avaient aussi conjecturé l’existence d’une autre planète hypothétique, Vulcain, censée se trouvait entre le Soleil et Mercure et expliquait une anomalie, tout aussi bien connue, dans la trajectoire de cette dernière. Pour autant, cette planète ne sera jamais observée19. Il faudra attendre 1915 et la théorie de la relativité générale d’Einstein pour comprendre le mouvement apparemment inexplicable (dans le paradigme newtonien) de Mercure.

Willard Quine [4] parle aussi de ce phénomène – en allant toutefois encore plus loin dans sa critique. Il soutient la thèse du holisme de la confirmation, aussi connue sous le nom de thèse de Duhem-Quine : une proposition particulière ne fait pas face « toute seule » au tribunal de l’expérience, mais c’est l’ensemble de la théorie à laquelle elle appartient et in fine l’ensemble de notre savoir qui est testé lorsque l’on fait une expérience particulière. L’ensemble de notre savoir est un système conceptuel où il existe des connections fortes entre les différents domaines de recherche qui pourrait être pensés a priori comme indépendants. Il traduit donc autrement le fait déjà énoncé qu’il y a toujours plusieurs manières de modifier la toile d’araignée de nos connaissances pour ajuster une prédiction à l’expérience. Il énonce alors un principe de parcimonie : il est rationnel, parmi tous les ajustements possibles, de choisir en premier lieu celui qui modifie le moins de choses dans le reste de nos connaissances. Cela rejoint la métaphore de la grille de mots croisés de Susan Haack [5]. L’état d’ébriété d’un expérimentateur en neurosciences utilisant une IRM ou la fausseté de ses hypothèses seront toujours des explications plus parcimonieuses, face à une contradiction avec l’expérience, que la remise en question des lois de la mécanique quantique régissant le phénomène de résonance magnétique nucléaire sous-jacent au fonctionnement d’un dispositif d’IRM.

Irréfutabilité et méthode

Cette façon de voir les choses, pas beaucoup plus compliquée que la simple présentation du critère de réfutabilité, permet de résoudre le double problème rencontré plus haut. Les principes de bases d’une théorie sont ses règles de grammaire ; cela n’a aucun sens, ni logique, ni pratique, de penser qu’ils puissent être réfutés à l’intérieur de cette même théorie. Pour reprendre ce que dit Lakatos, cité plus haut, ce n’est pas tant une théorie qui est scientifique ou pseudoscientifique, mais plutôt la méthode avec laquelle on va la reconfigurer pour faire face à une réfutation. Plus précisément, face à une réfutation, on va modifier des hypothèses auxiliaires pour faire coller la théorie à l’expérience. La différence entre des astronomes découvrant Neptune et des platistes est alors double : 1/ face à une observation contradictoire, les astronomes « sauvent » une théorie qui est extrêmement bien corroborée par ailleurs, ce qui n’est pas le cas des platistes ; 2/ la reconfiguration de la théorie, dans le premier cas, satisfait à une exigence épistémologique contraignante de parcimonie et de prédictibilité, ce qui n’est pas le cas pour les platistes.

Comme on l’a dit, il reste indispensable, en zététique, de mettre en garde contre les propositions irréfutables en général. C’est un premier pas nécessaire, notamment pour mettre le doigt sur le fait que le propre de la science n’est pas de confirmer à tout prix ses prédictions mais d’échouer à les mettre en défaut – ce qui est impossible, ou trivial, plutôt, si l’on n’a affaire qu’à des propositions irréfutables. Pour autant, il ne semble pas non plus très coûteux de nuancer un peu ce propos, et de reconnaître que dire simplement d’une proposition isolée qu’elle est irréfutable et donc qu’elle n’est pas scientifique est un peu léger comme critique.

Lorsque la proposition en question est un principe de la théorie, sa valeur épistémique ne se juge pas par son aspect réfutable mais à l’aune de son potentiel heuristique, c’est-à-dire de sa capacité à nous faire découvrir de nouvelles entités ou des nouveaux phénomènes. Par exemple, le fait que le principe de refoulement au sein de la théorie psychanalytique soit irréfutable n’est pas un problème en soi ; le problème épistémologique de ce corpus théorique est que ses principes ne mènent à aucune prédiction validée qui aurait pu être réfutée.

S’il s’agit au contraire d’une prédiction dont la réfutation pourrait être résolue par l’ajout d’une hypothèse auxiliaire, la critique ne tient pas non plus : ce n’est pas le fait de sauver une proposition ou un noyau dur tout entier par l’ajout d’hypothèses qui est critiquable, c’est la manière avec laquelle cela est fait. Ainsi, face à toutes les observations terrestres et astronomiques que nous pouvons réaliser, on peut toujours les ajuster pour nous persuader que la Terre est plate. Cet ajustement, comme la plupart, est logiquement possible ; le problème est qu’il ne permet de faire aucune nouvelle prédiction, qu’il est hautement coûteux en hypothèses et qu’il ne tient pas face au modèle concurrent et éminemment plus parcimonieux de la Terre sphérique.

Les outils d’autodéfense intellectuelle issus de cette réflexion sont les mêmes qu’ailleurs : dans l’élaboration d’une connaissance synthétique et objective sur le monde, prédictibilité et parcimonie sont deux maîtres mots pour mener à bien cet art difficile.

Références

[1] K. Popper, La logique des découvertes scientifiques, Payot, 1973 (1934).

[2] T. Kuhn, La structure des révolutions scientifiques, Flammarion, 1972 (1962).

[3] I. Lakatos, A methodology of research programs, Cambridge, 1978.

[4] W.V. Quine, Les deux dogmes de l’empirisme, Harper, 1953

[5] Susan Haack, Le bras long du sens commun : en guise de théorie de la méthode scientifique, Philosophiques, vol. 30 , n°2, 2003, p. 295-320.

[6] W. V. Quine, On empirically equivalent Systems of the World, Erkenntnis, 3, 13–328, 1975.

Quand les sciences sociales s’intéressent aux coutumes bizarres

Les récits historiques et archives – ou, du moins, celles qui nous parviennent – regorgent d’exemples de pratiques bizarres ou franchement barbares. Prenons, par exemple, l’exemple de l’ordalie ou jugement de Dieu pratiquée en Europe durant le Moyen-Âge. Elle consiste à soumettre un suspect à une épreuve douloureuse et potentiellement mortelle dont l’issue, déterminée par Dieu lui-même, décidait de l’innocence ou de la culpabilité du suspect. L’ouvrage What the Fuck?! L’économie en absurdie de Leeson (2018) nous donne des outils pour décrypter ces usages.

Rien d’étonnant à ce que, en se plongeant, dans le passé, le récit de pratiques comme la vente aux enchères publique de femmes mariées pratiquées en Angleterre entre la fin du 18ème et du 19ème siècle suscite la réprobation et l’indignation. Cette réaction est même, à de maints égards, salutaire, et alimentée par la représentation médiatique et cinématographique du passé lointain. Le Moyen-Âge y est volontiers présenté comme une période obscure, où régnaient la pauvreté, la crédulité et la barbarie.

Vente aux enchères de femme mariée (1812-1814), Thomas Rowlandson

L’objectif de ce livre est de prendre le contrepied de cette réaction pour pousser le lecteur à se questionner sur ce qui conduit les personnes à adopter et à se prêter à de telles pratiques. Face à cette question, deux stratégies sont possibles. La première consiste à juger ces pratiques comme relevant de l’irrationnel et de l’exotique. De nombreuses pratiques archaïques ont, d’ailleurs, donné lieu à des descriptions denses mettant en avant leur caractère révolu et unique sur le plan de l’histoire de l’humanité 20. La second stratégie consiste à retracer, dans le passé, les facteurs qui expliquent la création, le maintien et la disparation de tels usages et qui pousseraient tout un chacun, placé dans les mêmes circonstances, à se prêter aux mêmes bizarreries.  A l’exotisme s’oppose donc la pensée analytique, basée sur une théorie du comportement humain, valable au-delà des circonstances historiques et géographiques.

Outil d’analyse et méthode employée

La grille d’analyse que choisit l’auteur de l’ouvrage est celle de la théorie du choix rationnel. Cette théorie repose sur un postulat et un outil :  

  • Postulat : Les individus sont rationnels dans un sens très précis : ils disposent de préférences qu’ils s’efforcent de poursuivre de la façon la plus efficiente possible (selon un calcul coût/ bénéfice) dans la limite de l’information dont ils disposent (et de leur capacité à la traiter)
  • Outil : Les calculs coût/ bénéfices des individus dépendent des contraintes et des « coups de pouce » (les incitations) auxquels ces derniers sont soumis. Ces incitations sont de divers types : institutions politiques, droit,… Si la rationalité (au sens défini plus haut) ne varie pas à travers les âges et les lieux, les incitations, elles, varient.

L’hypothèse est donc la suivante : une fois ces incitations décryptées, des pratiques étranges révèlent leur logique. Attention, il ne s’agit pas ici de justifier de telles pratiques mais de les analyser de la façon la plus rigoureuse possible.   L’intérêt de cette approche est de permettre de considérer l’irrationalité ou la folie de nos ancêtres comme l’hypothèse la plus coûteuse. Avant d’y recourir, autant épuiser des explications considérant que les personnes hier et aujourd’hui développent des stratégies ingénieuses pour régler les problèmes ils sont confrontés. Armés de cette grille analytique, la lectrice et le lecteur peut débuter son tour de l’absurde – le livre étant rédigé comme une visite commentée, où les analyses sont rythmées par les questions et réactions du public 21. La méthode employée est celle du récit analytique : la pratique ancienne est décryptée ainsi que le contexte idéologique, juridique et politique dans lequel elle s’insère (les fameuses incitations). L’auteur démontre ensuite comment les incitations expliquent l’existence de pratiques bizarres, et comment un changement dans ces incitations produit une disparition graduelle de la croyance ou sa persistance sous de nouvelles formes. L’analyse est fouillée sur la base de documents historiques, présentés en note. Pour les plus experts, une annexe modélise la pratique étudiée sur la base d’équations mathématiques.

L’exemple de l’ordalie

L’ordalie par le feu

Reprenons l’exemple de l’ordalie pour illustrer le propos. Quelques faits de base d’abord. Ce type de jugement a perduré entre le 9ème et le 13ème siècle en Europe. Deux types furent particulièrement courant. L’ordalie par le feu commandait de faire plonger la main du suspect dans de l’eau bouillante ou la faire brûler par du fer chaud (iudicium aquae fervantis and iudicium ferri). Si le suspect n’était pas blessé, un miracle avait démontré son innocence. L’ordalie par l’eau froide consistait en jeter à l’eau le suspect (probatio per aquam frigidam). Si le malheureux flottait, il était reconnu coupable. Ce jugement était très encadré (on ne rigole pas avec l’invocation de Dieu) et était réservé aux crimes les plus graves (selon les normes de l’époque) et aux cas où la vérité ne pouvait être connue par d’autres moyens (témoignage confondant ou aveux) (p.10).

Face à cette pratique, quelles sont les possibilités d’un suspect ? Précisons d’emblée qu’au Moyen-Âge la croyance en Dieu était très répandue et l’influence de l’Église très forte. Elle transparait d’ailleurs tout au long du livre. S’il est coupable, le suspect a fortement intérêt à avouer tout de suite, accepter la sentence et éviter une souffrance supplémentaire et inutile. S’il est innocent, le choix est plus difficile mais, comme l’individu a, en plus, de fortes chances de croire en Dieu, il peut tenter l’ordalie en espérant échapper à une sanction terrible et injuste.

Étrangement, les prêtres semblent parfaitement informés de ce raisonnement chez le suspect. En effet, les archives sur l’ordalie concluent au miracle dans la majorité des cas (entre 62,5% et 89 %). En reprenant les récits de jugement par le feu, l’auteur montre qu’un temps très long s’écoule entre le chauffage de l’eau ou du fer et le châtiment. La cérémonie est complexe et laissée à la totale discrétion du prêtre. Cela laisse largement la possibilité au fer et à l’eau de refroidir. Dans le cas de la mise à l’eau, les archives suggèrent que les prêtres sélectionnent les personnes les plus susceptibles de couler pour ce châtiment (les hommes lourds).

Aujourd’hui, avec l’ADN, les empreintes et autres avancées scientifiques, nous avons moins besoin de manipuler les suspects de la sorte. De plus, dans les sociétés connaissant un déclin des croyances religieuses, le jugement de Dieu n’est guère une manière de distinguer les coupables et les innocents. Cependant, nous pratiquons aussi nos « ordalies » à nous. L’auteur montre ainsi qu’aux États-Unis, la croyance en la toute-puissance de la technologie est plus développée que celle dans les croyances religieuses. Le système judiciaire y pratique donc le recours « détecteur de mensonge », une invention maison. Officiellement, il s’agit d’une technologie de pointe permettant de savoir si le suspect ment sur la base de manifestations physiologiques. En réalité, l’instrument si peu fiable qu’il ne sert quasiment à rien. Enfin, si : il sert à évaluer la motivation du suspect à se soumettre à une telle épreuve. S’il y va sans crainte, tel jadis un innocent face à l’eau bouillante, alors les enquêteurs pourront écarter la piste.

Cet ouvrage mérite sa place dans la bibliothèque de tout penseur critique et enseignant en pensée critique. Il invite à se méfier de notre tendance à considérer les pratiques passées comme exotiques et montre que les sciences sociales disposent d’outils pour analyser des institutions juridiques bizarres. Le raisonnement pourra être appliqué avec profit aux institutions actuelles. C’est aussi une mine d’or pour enseigner la pensée critique dans le supérieur ou, pourquoi pas, avec des lycéens sur la base d’exemples particulièrement bien choisis.


Esprit critique et vaccination obligatoire : une séquence pédagogique au lycée Langevin

Johanna et Guillaume Tonussi sont tous les deux enseignants en Sciences de la Vie et de la Terre au lycée Langevin de Martigues (13). A la rentrée 2017, ils ont décidé de travailler avec leurs élèves de première et Terminale S sur un sujet controversé et d’actualité : l’obligation vaccinale portée à 11 vaccins. L’objectif est double : à la fois décortiquer les différentes étapes que traverse chaque individu pour arriver à se forger son propre avis sur une question vive relative à des connaissances scientifiques mais également faire ressortir les méthodes permettant la compréhension critique des informations. Ce travail a été conduit toute l’année, dans le cadre de l’Enseignement Moral et Civique, avec l’intervention du professeur de philosophie. Johanna et Guillaume ont accepté de partager leur bilan (document à télécharger ici) qui explique toutes les étapes de la séquence, les documents utilisés, des exemples de productions des élèves ainsi qu’une grille d’évaluation. Merci et bravo à eux pour ce travail de qualité !

Le document complet est à récupérer ici, voici néanmoins la présentation de la séquence pédagogique :

Présentation et objectif

Le but de cette séquence est de décortiquer les différentes étapes que traverse chaque individu pour arriver à se forger son propre avis sur une question vive relative à des connaissances scientifiques. Il s’agit de faire ressortir les méthodes permettant la compréhension critique des informations. La problématique étudiée ici est « Doit–on rendre obligatoire 11 vaccins ? ». Il est à noter que tout autre question vive relative à des connaissances scientifiques (Questions vives à propos du glyphosate, des boues rouges de Cassis, des droits des animaux…) peuvent être traitées selon la même méthode didactique)

Niveau

1ère S ou Terminale S. La séquence peut en effet être traitée sur ces deux niveaux pendant les heures d’enseignement moral et civique car les programmes s’y prêtent.

Dispositif

Cette séquence intervient dans le cadre de l’Enseignement Moral et Civique : 1 heure quinzaine en demi-groupe sur la moitié de l’année.

Lien avec les programmes

  • Classe de Première :

Spécificité et rôle des différents médias et éléments de méthode permettant la compréhension critique des informations dont ils sont porteurs et des réactions qu’ils suscitent (commentaires interactifs, blogs, tweets…).

  • Classe de Terminale :

Les problèmes bioéthiques contemporains

A noter : l’avantage de traiter la question vive « Doit-on rendre 11 vaccins obligatoires ? » en EMC en classe de Terminale scientifique est qu’une partie du programme de SVT porte sur l’immunologie et la vaccination. Ainsi les élèves abordent la vaccination selon deux aspects : en cours de SVT sous l’angle scientifique et en EMC d’un point de vue social, économique, politique et éthique.

  • Pour les deux niveaux, article de la charte de la laïcité travaillé :

Article 6 ‐ La laïcité de l’École offre aux élèves les conditions pour forger leur personnalité, exercer leur libre arbitre et faire l’apprentissage de la citoyenneté. Elle les protège de tout prosélytisme et de toute pression qui les empêcheraient de faire leurs propres choix.

Disciplines concernées

SVT et Philosophie

Le professeur de SVT anime les séquences d’EMC. Le professeur de philosophie intervient en appui du professeur de SVT sur certaines séances. Il est à noter que tout autre professeur de discipline différente (pas forcément en SVT) peut intervenir du moment qu’il est compétent sur le sujet. Il serait intéressant de travailler avec un professeur de SES par exemple sur les questions économiques relatives aux vaccins.

Atelier Esprit critique et autodéfense intellectuelle en 2nde

Nathalie Laot-Godebert enseigne les SVT au lycée Langevin de Martigues. Dans le cadre de l’Accompagnement Personnalisé (AP), elle a fait travailler ses élèves de seconde sur la thématique « Esprit critique et autodéfense intellectuelle ». Comme beaucoup de collègues, elle a décidé de partager son travail, en présentant la manière dont elle a organisé ses séances, leur contenu, ce qui a marché et ce qui a été plus difficile. Merci à Nathalie et bravo pour tout cela, c’était la première fois qu’elle se lançait dans ce type d’enseignement et nous avons tenté de l’épauler au mieux dans cette aventure !

 [toc]

Objectifs

Donner les outils scientifiques pour se faire une opinion éclairée face à une information ou un phénomène qui sort de l’ordinaire au travers de l’étude des médecines dites « alternatives ». Plusieurs raisons m’ont poussé à travailler sur cette thématique :

  • Au niveau scientifique : savoir construire un protocole expérimental avec tous les outils nécessaires, douter de son opinion pour en tester la véracité, éventuellement changer d’avis pour une opinion plus juste.
  • Au niveau sociétal : un grand nombre de personnes se tournent vers « l’alternatif » (consommer autrement, voyager autrement, donner se rapprocher de l’essentiel, du « naturel »…), le domaine de la santé n’est pas épargné : on cherche à se « soigner autrement ». C’est un sujet a priori proche des élèves.
  • Au niveau affectif : le choix d’une approche thérapeutique est très personnel, lié à notre vécu et à notre conception de ce qu’est bien vivre et bien s’entretenir : or, plus l’adhésion à une pratique donnée est ancienne, plus sa remise en question semble difficile. Ce sujet illustre donc bien l’escalade d’engagement décrite en psychologie sociale et qui permet de pointer et décrire certains biais cognitifs pour les élèves.

Compétences travaillées

  • Reconnaître les biais de raisonnement qui peuvent venir fausser notre jugement.
  • Utiliser les méthodes permettant de construire de la connaissance fiable.
  • Sensibiliser aux mécanismes de rumeur dans les médias et sur le net et à la recherche de sources.
  • Appliquer les outils méthodologiques et expérimentaux.

Public

24 élèves de seconde, toutes classes confondues. Une semaine avant le début du projet, chaque élève devait indiquer parmi une liste de toutes les thématiques proposées par les enseignants d’AP, quatre thématiques par ordre de préférence (de 1 à 4 avec en 1 la thématique la plus souhaitée). Sur les 24 élèves, la majorité avait choisi le thème « Esprit critique et autodéfense intellectuelle » en choix 2 ou 3.

Organisation

Les séquences se sont déroulées sur des créneaux de 2h. En tout, j’ai pu effectuer six séances.

Séance 1

Présentation de la zététique, de ses divers champs d’investigations. Bases épistémologiques et différents biais de raisonnements. Notamment :

  • Partir sur des faits : en l’absence de faits, ne pas entrer dans la théorisation.
  • Bien cerner l’hypothèse à tester et prendre des mesures non ambiguës (un sourcier est capable de trouver de l’eau à partir de 2 mètres de profondeur et non pas entre 0 et x mètres, quelle quantité d’eau, etc.).
  • On ne teste qu’un seul paramètre à la fois.
  • Faire un échantillonnage sans biais de validation subjective (exemple du rêve prémonitoire, il faut un critère temporel qui permet de dire que c’est prémonitoire ; la personne doit avoir fait le rêve deux ou trois jours avant l’événement (à fixer) et non pas 1000 jours avant).
  • Le principe du double aveugle.
  • Éviter les pièges des probabilités et statistiques (par exemple le paradoxe des anniversaires).

Récupérer le diaporama utilisé : ici

Points positifs : Les élèves apprécient les supports visuels qu’ils ont l’habitude de manipuler : vidéos youtube, blogs, articles chocs diffusés sur les réseaux sociaux. L’expérience réalisée avec Dave Guillame (https://www.youtube.com/watch?v=F7pYHN9iC9I) leur a permise de comprendre à quel point il est possible de récolter beaucoup d’informations sur leur vie.

Points négatifs : les élèves ne distinguent et ne mémorisent pas tous le nom des différents biais cognitifs « validation subjective », « dissonance cognitive », « prétentions floues »…

Séance 2

Apprentissage des outils méthodologiques et expérimentaux au travers d’une expérience de « détection de l’eau ». Cette séance, élaborée par Stanilas Antczak et Florent Tournus, est entièrement décrite dans le livre Esprit critique es-tu là ? 30 activités zététiques pour aiguiser son esprit critique. La présentation des résultats s’est faite sous forme d’un histogramme « fait maison » pour illustrer la répartition aléatoire des réponses, formant une distribution normale, en forme de « courbe de Gauss ».

Dans cette activité, j’ai joué le rôle de la personne possédant le « pouvoir » de détecter de l’eau. Mais j’ai également dû prendre un élève complice. Ainsi, la séance précédant celle de l’expérience, j’ai demandé à une élève du groupe de jouer ce rôle pour m’aider à « deviner » où se trouvaient les verres remplis d’eau. Nous avons convenu d’un signe : les pieds ouverts en V = « il y a de l’eau », les pieds fermés = « il n’y a pas d’eau ». Ce signe a été particulièrement efficace compte tenu de sa discrétion et de la configuration de la salle et des paillasses qui me permettaient de jeter un œil sur les pieds de l’élève assise en face de moi. Cette élève a toujours eu l’habitude de s’asseoir au premier rang donc ça n’a pas attiré les soupçons. La grande difficulté pour le complice est de mémoriser très rapidement les 10 verres sans se tromper avant qu’ils ne soient cachés. Si c’était à refaire, j’aurais pu conseiller de ne retenir que les verres remplis…
Je n’ai pas choisi de travailler avec un second complice désigné pour m’assister, car cela aurait trop attiré l’attention sur lui. J’ai donc joué le jeu seule sans assistant, le complice restant dans le public.

MatHistogramme expérienceériel utilisé :
– 10 verres
– 10 boîtes non transparentes pour cacher les verres
– 10 cartons notés de 1 à 10 pour numéroter les verres
– Le matériel pour la partie « étude statistique » (voir photo)
– Un tableau avec feutres ou craies pour noter les réponses

Pour la construction du matériel de la partie statistique j’ai utilisé des feuilles rigides plastifiées pour rétroprojecteur, et des tubes de sarbacane pour le moulage ; les boules à tirer pour la sarbacane m’ont ensuite servi pour remplir chaque partie !

Configuration de la salle :
Une salle de classe avec 2 portes pour, lors du test en double aveugle, permettre au groupe 1 de remplir les verres et de sortir sans croiser le groupe 2 qui rentre dans la salle pour tester mon pouvoir de détecter les verres remplis ou non.

Points positifs : L’expérience a très bien fonctionné, à tel point qu’ils ont eu du mal à proposer l’hypothèse d’un complice dans la salle. J’ai donc dû les mettre un peu sur la piste en leur demandant « pensez-vous que vous devez connaître les verres remplis pendant le test ? Si non, comment faire pour que ni vous ni moi ne le sachiez ? » […] « Ah mais oui c’est vrai, il y a peut-être l’un de nous qui vous donne les réponses en fait… ». La mise en place d’un double aveugle avec un générateur de hasard type pièce pile/face a pu alors être mise en place avec les élèves.

Points négatifs : La partie analyse statistique des résultats a été un peu plu laborieuse à mettre en place et pas forcément fiable car je manquais d’effectif pour construire une belle courbe de Gauss.

Séance 3

Mise en application par les élèves d’un travail d’enquête sur un sujet en lien avec les affirmations extraordinaires dans le champ des thérapies non conventionnelles

Consignes : Travailler par binôme/trinôme sur la recherche de sources d’une affirmation extraordinaire dans le domaine de la santé et des thérapies dites alternatives, choisie et considérée communément comme vraie.

Déroulement possible : Choisir une affirmation sur un sujet que vous souhaiteriez traiter (à la seule condition que l’affirmation centrale à vérifier soit de type scientifique). Guidé et encadré durant une séance de 2h, vous construirez une enquête sur l’affirmation choisie en présentant la séance suivante un diaporama (10 minutes/groupe pour la présentation + échanges/questions).

Modalités :

  1. Une diapo-introduction qui formule la question (avec un point d’interrogation), son contexte, ses enjeux
  2. Une diapo présentant les différentes hypothèses, théories, scénarios sur le sujet : qui les défend, où, pourquoi ?
  3. Une diapo présentant les biais, effets, erreurs que vous relevez pour chaque hypothèse.
  4. Une diapo qui décrit votre enquête personnelle et la méthode employée pour rechercher les informations qui vous manquent. Quelles erreurs relevez-vous dans les différentes théories ?
  5. Une diapo-conclusion présentant le résultat de votre enquête (même s’il est incomplet : l’important est moins ce que vous trouvez que la manière dont vous avez cherché)

Votre diaporama devra contenir :

  • Des illustrations pertinentes et de qualité. Les extraits vidéos de films, documentaires, publicités sont bienvenus !
  • Les principaux mots-clefs (très peu de texte, l’essentiel se dit à l’oral)
  • La bibliographie utilisée, citée, la source des illustrations, la webographie, à chaque diapositive !

Exemples de sujets :

  • L’hypnose : fin thérapeutique ou escroquerie ?
  • Y-a-t-il un effet placebo sur les animaux ?
  • Le jeune a-t-il une efficacité thérapeutique propre ?

Votre sujet peut dépasser le cadre des thérapies dites alternatives et s’étendre au domaine plus large de la médecine/santé/bien-être :

  • Quelles sont les prétentions des colliers d’ambre sur les enfants ?
  • Des guérisons extraordinaires se produisent-elles à Lourdes plus qu’ailleurs ?

Vous trouverez sur cette page wikipedia bon nombre d’autres médecines non-conventionnelles  :https://fr.wikipedia.org/wiki/Liste_des_m%C3%A9decines_non_conventionnelles

Points positifs : Élèves motivés

Points négatifs : …mais un peu perdus. La plupart des groupes ont eu du mal à cerner les prétentions de départ des personnes décrivant un phénomène, ils ont voulu directement s’attaquer à la partie scientifique en disant d’emblée que c’est « faux », même avec un très faible bagage de preuves. J’ai relevé une absence d’analyse des biais de raisonnement, des erreurs de logique et de citations des sources. L’outil internet est vaste et les élèves se perdent vite dans le visionnage de vidéos, au point qu’ils finissent par s’éloigner lentement mais sûrement de leur sujet. Je leur ai donc proposé une série de sites à partir desquels ils pouvaient travailler (site du Cortecs, tatoufaux.com…). Et malheureusement, le résultat s’est bien souvent transformé en un copier-coller intégral d’un sujet déjà traité.

Séance 4

Séance consacrée à la recherche de sources et à la mise en forme du diaporama. C’est la partie la plus laborieuse : j’ai conseillé d’insister sur la formulation de la question de départ et ajouter le maximum de ressources illustratives (une vidéo sur le phénomène, un article, un témoignage) ainsi que sur les biais et erreurs relevés. Malgré ces conseils, très peu sont parvenus à appliquer ne serait-ce que le principe de parcimonie face à certaines allégations. Ils ont tous conclu que le phénomène qu’ils avaient étudié n’était pas prouvé, alors que j’attendais davantage qu’ils travaillent sur l’élaboration d’arguments permettant d’arriver vers cette conclusion, que la conclusion en elle-même.

Séance 5

Présentation des diaporamas de chaque groupe. Voir ici la production d’un groupe sur la paralysie du sommeil.

Points positifs des deux dernières séances : un travail de recherche et de présentation assez sérieux

Points négatifs : … mais un « départ » assez difficile, ne serait ce que dans le choix du sujet, j’ai dû leur proposer une liste et quasiment tous ont pioché leur sujet dans cette liste. J’aurais préféré qu’ils partent de leur propre croyance personnelle justement, et qu’ils étayent ensuite, car il n’y a pas meilleurs arguments que ceux qui sont parvenus à nous faire changer de point de vue… Sinon, le risque est de partir directement vers le « démontage » du phénomène en lui-même. C’est mon grand regret.

Séance 6

Intervention de Denis Caroti du Cortecs (théories du complot, sophismes, curseur de vraisemblance et principe de parcimonie…)

Points positifs : intervention d’une personne extérieure, sujets stimulants et contenu complémentaire des premières séances.

Points négatifs : un peu d’inertie dans le groupe, qui devait remobiliser aussi des notions vues auparavant.

Conclusion

L’accompagnement personnalisé autorise une grande liberté pédagogique face à des thématiques novatrices. La position du projet dans l’année (3ème trimestre) et le créneau horaire (de 16h à 18h) ne permet pas toujours d’avoir des élèves en forme ; à cela se rajoute la difficulté d’échanger avec des élèves qui ne sont pas les nôtres (groupes d’élèves de différentes classes) ou qui n’ont pas choisi en 1er vœu le thème. Les MPS (Méthodes et Pratiques scientifiques et les TPE (travaux personnels encadrés) peuvent laisser la place à davantage de temps et de possibilité d’expériences en classe, en tout cas le temps que la prochaine réforme du bac ne dessine plus précisément les contours d’autres intitulés d’enseignements qui laisseront libre cours à la démarche d’investigation des élèves.