Méthodologie – Comment se faire un avis sur une controverse scientifique quand on n'est pas spécialiste du sujet ?

Si nous enseignons des outils d’analyse critique et une méthodologie d’enquête, c’est dans l’objectif de permettre à tout un chacun de se faire une opinion, y compris sur des sujets complexes éloignés de nos champs de compétence. Cette année, avec des étudiants en première année d’IUT Techniques de Commercialisation et à la demande de certains de leurs enseignants, j’ai décidé de me focaliser sur la recherche et le tri d’informations. Je disposais de sept séances d’une heure et demie, et d’un ordinateur par étudiant : il n’en fallait pas plus pour les lancer sur des sujets aussi ramifiés que les controverses sur les organismes génétiquement modifiés (OGM), les risques de la vaccination contre l’hépatite B et la nocivité présumée des lignes à très haute tension. Mes objectifs : que les étudiants soient capables de trouver des informations contradictoires et de croiser ces informations, qu’ils sachent questionner la fiabilité d’une source et remonter à l’origine de l’information, qu’ils sachent repérer les arguments d’autorité et les arguments fallacieux pour qu’à la fin, ils puissent se faire un avis étayé. Voilà comment je m’y suis pris !
Guillemette Reviron

Pour la deuxième année consécutive, je suis intervenue à l’IUT de Béziers auprès d’étudiants de première année. Les étudiants étaient répartis en trois groupes de 28.

L’année dernière, j’avais adapté mes cours de Sciences et auto-défense intellectuelle :  j’enseignais les outils sous la forme de cours magistraux et les étudiants devaient réaliser un dossier en petit groupe sur un sujet de leur choix relevant du « paranormal ». Le résultat ne fut pas fameux : je disposais de moins d’heures de cours qu’avec mes étudiants en L2 de sciences, j’avais moins de temps pour suivre des étudiants bien plus nombreux et le thème ne les motivait pas vraiment. Cette année, j’ai donc décidé de fonctionner complètement différemment et d’utiliser l’extraordinaire équipement informatique de l’IUT en lançant les étudiants sur des enquêtes concernant trois grandes controverses scientifiques :

  • le groupe A a enquêté sur la nocivité des lignes à très haute tension
  • le groupe B a enquêté sur les risques de la vaccination contre l’hépatite B
  • le groupe C a enquêté sur la nocivité des organismes génétiquement modifiés (OGM) (nous avons restreint la recherche au cas du maïs OGM NK 603).

PhotoLes étudiants ont travaillé en groupes de 3 ou 4, en autonomie, et se sont organisés comme ils l’entendaient. Ils avaient pour mission de se faire un avis étayé sur leur controverse et de réaliser un dossier présentant leur enquête (voir leurs travaux ici). J’ai volontairement choisi trois sujets sur lesquels je n’avais jamais vraiment travaillé auparavant pour limiter mon influence dans leur travail – j’ai plus essayé de les suivre que de les attirer vers certaines sources. Ces thèmes avaient aussi la particularité d’être éloignés a priori de leur champs de compétence, mon but étant de leur enseigner une méthode efficace de recherche, même pour les non spécialistes.
Mon rôle pendant les séances consistait à leur expliquer au gré de leurs trouvailles comment jauger la fiabilité d’une source, à leur présenter quelques outils d’analyse critique et, surtout, à être de très mauvaise foi pour les inciter à tirer toujours un peu plus les fils de leur enquête et à étoffer leur argumentation. Une médecin était l’auteure d’un rapport, je les incitai à vérifier qu’elle n’avait pas de lien d’intérêt avec un laboratoire pharmaceutique. Le site Doctissimo.fr déclarait être une équipe indépendante, une petite phrase sur un site ne suffisait pas à me convaincre – et la poursuite de leur enquête m’a donné raison. Le CRIIGEN est le Comité de Recherche et d’Information Indépendantes sur le Génie Génétique, un simple nom n’a jamais garanti le niveau d’expertise et d’indépendance d’une structure, il fallait fouiller plus. Cela a beaucoup déstabilisé les étudiants : si aucune source n’était complètement fiable, à qui fallait-il se vouer ? Petit à petit, ils se sont familiarisés avec l’idée que l’accumulation d’informations contradictoires, si elle est troublante au début, est nécessaire pour se faire une opinion : il est d’autant plus aisé d’évaluer la fiabilité d’une source ou d’une information qu’on a beaucoup douté et beaucoup fouillé.

J’ai décrit ci-dessous le contenu des séances en détail, et j’ai conclu en présentant les écueils rencontrés.


Séance 1

Je voulais commencer par faire comprendre aux étudiants pourquoi l’information qui nous est livrée dans un média – quel qu’il soit – n’est pas fiable à 100% et qu’il est  absolument nécessaire de retourner à la source d’une information, de se renseigner sur les gens qui s’expriment, de croiser les sources, etc.
Avant toute chose, sans rien leur dire de plus que mes nom et prénom, je leur ai demandé de répondre au questionnaire suivant :

Quelle est, selon vous, sur une échelle de 1 à 6, la dangerosité
1. des ondes du micro-onde
2. de l’utilisation quotidienne du téléphone portable
3. de l’exposition quotidienne au wifi
4. des OGM pour la santé humaine
5. des lignes à très haute tension
6. des antennes relais
7. de la vaccination ROR
8. de la vaccination contre l’hépatite B

(Je n’ai pas encore eu le temps de dépouiller les questionnaires. J’indiquerai ici les résultats dès que cela sera fait)

Ensuite, j’ai projeté à chaque groupe un reportage de quelques minutes sur leur sujet (sans rien leur dire de plus).

Groupe A – La nocivité des lignes à très haute tensions (THT) a-telle été mise en évidence ? – Extrait du Journal Télévisé de France 3 Nord (11 octobre 2011)
Lignes_THT_danger _France3Nord_11_10_2011

Groupe B – Un lien de causalité entre la vaccination contre l’hépatite B et la sclérose en plaque a-t-il été mis en évidence ? – Reportage sur une exposition de peinture réalisée par une association de victimes du vaccin contre l’hépatite B, sur TVTours (2009)
Exposition_des_victimes_du_vaccin_hépatite_B_on_en_parle_TVTours_2009

Groupe C – La nocivité des OGM pour l’humain a-t-elle été mise en évidence ? Cas du maïs OGM NK 603. Reportage intitulé L’autorisation du maïs de Monsanto suscite l’inquiétude, ITélé (2 août  2013)
OGM_l_autorisation_du_mais_Monsanto_suscite_l_inquietude_02_08_13_9h47

Je leur ai ensuite demandé leur avis sur la vidéo et j’avoue avoir été assez surprise par leur réaction ; étant donné le point de vue alarmiste pris dans les reportages, je m’attendais à ce que les étudiants s’insurgent sur les dangers auxquels on les exposait. Pourtant, ils ont tout de suite critiqué la mise en forme de l’information, le tri des intervenants, parfois leur statut, le peu de place laissé à la parole contradictoire… Quand je leur ai demandé si le reportage leur permettait de se faire un avis, tous les étudiants qui ont pris la parole étaient unanimes : non, ils n’étaient pas assez informés. J’ai donc attrapé la balle au bond : quand je leur avais demandé de répondre au questionnaire, aucun étudiant n’avait refusé de répondre en se déclarant incompétent. Ils avaient tous exprimé un avis sur chacun des huit points. D’où leur venait donc cet avis ? Avaient-ils travaillé sur le sujet, étaient-ils spécialistes de la question ? Il leur fallut concéder qu’ils s’étaient forgé leur avis à travers les médias, en regardant le même type de reportages que celui qu’ils venaient de critiquer.

Ce fut l’occasion de discuter sur la différence entre un simple avis ou un acte de foi et une opinion étayée, de la nécessité de se méfier de ce qui nous paraît (in)vraisemblable, du biais de confirmation d’hypothèse, du niveau de preuves requis face à un phénomène extra-ordinaire, de l’impossibilité logique à démontrer que quelque chose n’est jamais dangereux, de la charge de la preuve qui incombe à celui qui prétend.
Je leur ai présenté le travail que je leur demandais et j’ai conclu cette séance avec le TP sur l’affaire Bintou-Le Point et le fait, qu’à notre connaissance, le journaliste Jean-Michel Décugis n’a jamais été sanctionné pour ne pas avoir vérifié ses sources : nous avons évoqué les contraintes temporelles du journaliste, la scénarisation de l’information, la formation souvent généraliste des journalistes, leur statut souvent précaire, autant de choses qui empiètent sur la qualité de l’information donnée.


Séance 2

Les étudiants disposaient chacun d’un ordinateur avec un accès internet.

Je leur ai demandé, pour cette première étape de recherche,

1. De faire de courtes recherches sur l’hépatite B et son vaccin / les lignes THT / les OGM – de quoi s’agit-il ? Que leur reproche-t-on ? Quel marché cela représente-t-il ? Quelles sont les alternatives ? Quelle est la législation française ?…

2. D’identifier les acteurs du débat, sans se préoccuper de leurs arguments, si ce n’est de repérer s’ils sont plutôt pour ou plutôt contre.

3. De donner le statut de ces acteurs : scientifique (quels titres ? quelle structure ?), victimes, témoins, association, laboratoire de recherche, institutions gouvernementales, institutions internationales…

Au début, les étudiants recensaient comme « acteurs du débat » des médias généraux (Libération, Le Monde, Le Figaro, Rue 89…) ou Wikipédia. Il m’a fallu revenir sur les constats de la séance précédente pour qu’ils se rappellent pourquoi on ne pouvait s’appuyer sur ce type de sources. Ceci dit, dans les articles qu’ils découvraient, les journalistes citaient des individus, des institutions, des associations… Ils n’avaient qu’à les recenser.
Techniquement, les étudiants ont passé beaucoup de temps à lire les articles d’un bout à l’autre ; je leur ai donc expliqué qu’on pouvait, à cette étape initiale, se contenter de parcourir rapidement le texte pour en extraire la seule information qui nous intéressait : qui est cité ?

J’ai souvent dû couper les étudiants qui, pour me faire part d’une de leur trouvaille, commençaient par « ils disent que », « sur ce site, j’ai trouvé que… ». L’objectif de la séance n’était pas d’analyser le discours mais d’identifier les acteurs du débat. Qui dit ? Qui est derrière ce site ? Répondre à ces questions est essentiel pour évaluer par la suite le degré d’expertise de l’intervenant.


Séance 3

L’objectif de la première partie de cette séance était de cerner les enjeux du débat. Si la mission des étudiants est de se faire un avis sur la dangerosité de certaines applications technologiques, la controverse ne se fait pas uniquement sur ce point. Je voulais qu’ils se fassent une idée des autres axes de la polémique, ne serait-ce que pour repérer quand un débat sur la dangerosité est détourné vers un autre aspect du problème (esthétique, financier, non respect d’un choix individuel ou collectif, lobbying, conflit d’intérêt…)

La deuxième partie de leur recherche devait s’orienter vers les critiques sur la fiabilité des intervenants. Ils ont choisi quatre ou cinq des principaux acteurs du débat et ont enquêté plus en détail : conflits d’intérêts, vérification des titres exacts, reproches qui leur sont faits par leurs contradicteurs et  vérification des dires, évènements passés qui peuvent engendrer un doute sur leur fiabilité ou leur niveau d’expertise…

Du point de vue méthodologique, j’ai dû intervenir sur plusieurs points :

1. Si l’on cherche des critiques sur une institution, il n’est pas très efficace de la chercher sur son propre site

2. Faire attention aux arguments d’autorité (institut, comité de recherche…). Je leur ai  donné l’exemple du CorteX (un collectif de recherche sans statut juridique jusqu’à cet été). Je leur ai également expliqué que n’importe qui peut créer une association, qu’aucune justification de l’expertise des protagonistes n’est demandée.

3. Mettre plusieurs mots dans le moteur de recherche est plus efficace. On peut commencer par « critique Organisation Mondiale de la Santé » ou « critique OMS », lire les titres des articles sélectionnés dans lesquels apparaissent des mots clés plus précis (lobbying, fraude, conflit d’intérêt…) et réinjecter ces mots dans le moteur de recherche (OMS « conflit d’intérêt »). Pour se perfectionner sur la recherche d’informations sur internet, on pourra consulter cette page.

4. Lorsqu’on tombe sur une page ou sur un long rapport, une manière d’accéder rapidement au passage qui nous intéresse consiste à taper le nom de la structure dans la fenêtre ouverte en cliquant sur Rechercher dans la page

4. Toujours noter qui critique

5. J’ai expliqué ce qu’était un conflit d’intérêt et qu’une telle accusation, pour être pertinente, devait être ciblée et sourcée (par exemple, en démontrant qu’une personne précise salariée par un laboratoire pharmaceutique était également  auteur d’un rapport de l’Organisation Mondiale de la Santé (OMS) sur les risques de la vaccination contre l’hépatite B). Dans le domaine de la santé, la déclaration de conflit d’intérêt potentiel est obligatoire pour tout médecin qui s’exprime à propos d’un produit pharmaceutique ; si on ne la trouve pas, il est toujours possible de contacter la personne évoquée et de lui demander où se trouve sa déclaration


Séance 4

J’ai proposé aux étudiants de lire deux articles du CorteX. Le premier, Vulgarisation – Le jeu des 20 pièges, comment éviter les arguments d’autorité ?, avait pour objectif de récapituler ce que nous avions entrevu de manière informelle sur les arguments d’autorité au gré de leurs recherches. Le deuxième, le Petit recueil de 18 moisissures argumentatives pour concours de mauvaise foi, était une manière de les préparer à la deuxième partie de la séance : recenser et jauger les arguments des différentes parties.

La consigne était de faire l’inventaire des arguments avancés par les différentes parties en notant sur quel type de sources elles s’appuient (un témoignage, de nombreux témoignage, une enquête citoyenne, une étude scientifique, une méta-analyse etc.)


Séance 5

Les étudiants ont continué la recension des arguments avancés par les différentes parties. Ce travail leur a paru plus difficile que les étapes précédentes. Ils ont eu du mal à discerner ce que j’appelais la source d’un argument et avaient tendance à s’arrêter à des affirmations du type « l’étude d’untel et untel démontre que… ». Je les ai donc poussé à chercher et obtenir les études/rapports/enquêtes/etc. correspondants.
Ils ont aussi été déstabilisés par les affirmations non sourcées, basée sur des arguments d’autorité, comme « des chercheurs américains ont démontré que… ». Je pense qu’ils craignaient d’être pénalisés s’ils ne trouvaient pas la source. Je leur alors rappelé que la charge de la preuve incombe à celui qui prétend : le fait que l’affirmation ne soit pas sourcée est une information en soit.


Séance 6

Pour les deux dernières séances, j’avais prévu de leur faire analyser une ou deux sources en particulier : enquête sur les auteurs (s’ils n’avaient pas déjà enquêté sur eux) et initiation à la critique de la méthodologie (taille de l’échantillon, tri des données a posteriori, critique de questionnaires d’enquête, etc.). Cependant, comme de nombreux groupes avaient pris du retard, nous avons utilisé cette séance pour revenir sur certains points, en particulier, la recherche des sources des différentes parties (enquêtes citoyennes, études scientifiques, rapport ministériels, rapport d’agences, témoignage(s), etc.).


Séance 7

Pour cette dernière séance, j’ai demandé aux étudiants de choisir une des sources trouvées précédemment, de la lire et d’en faire une analyse critique. Bien sûr, analyser une seule source ne suffit pas pour prétendre avoir fait le tour du sujet, mais je voulais saisir l’occasion de discuter avec eux sur le fait que la conclusion d’une étude ne peut être prise en compte qu’à partir du moment où la méthodologie employée est sans défaut.  Pour l’enquête sur le maïs OGM NK 603, la plupart des groupes ont choisi l’étude de G.-E. Séralini dont beaucoup d’analyses sont disponibles sur le net. Les groupes qui ont travaillé sur la nocivité des lignes à très haute tension ont majoritairement étudié une enquête du CRIIREM élaborée à partir de questionnaires, ce qui nous a permis d’aborder les limites de ce type d’études. Ils ont cherché et trouvé les questionnaires et devaient également se renseigner sur la manière dont ces questionnaires avaient été distribués et rendus. La question était de savoir s’il y avait un tri des données était possible. Comme d’habitude, il m’a fallu rappelé que si cette information n’était pas disponible, cela n’était pas de la responsabilité des étudiants mais qu’ils devaient le signaler comme une faille dans la description de l’enquête.

Dans le groupe sur les risques de la vaccination contre l’hépatite B, les sources choisies ont été plus variées. Certains ont choisi une étude publiée dans un journal scientifique (et se sont aperçus que cela n’est pas forcément un gage de sérieux), d’autres des témoignages.


Les écueils rencontrés

Le travail en groupe et la mauvaise organisation des étudiants
Les étudiants ont travaillé en groupe, mais ont eu du mal à se répartir le travail. Ils ont choisi, pour la plupart, de se répartir les différentes parties du plan. Le premier travaillait sur l’introduction, le deuxième sur les enjeux du débat, le troisième sur les acteurs du débat, etc. Malgré mes incitations récurrentes à travailler ensemble sur chaque partie (comment chercher les arguments d’une des parties si on n’a pas répertorié les différentes parties en présence ?), les étudiants se sont obstinés dans leur manière de faire. Je n’ai pas trouvé de solution pour les faire changer d’avis et de pratique.

La limite de temps
Le projet était ambitieux et le temps limité. J’ai dû revoir mes prévisions à la baisse et j’ai par exemple renoncé à leur projeter à la fin de leur enquête le reportage visionné lors de la séance 1. C’était pourtant une manière de mesurer l’impact de leur travail sur leur analyse du message médiatique.
J’ai également dû restreindre le nombre de sources analysées, ce qui est un problème aussi bien pour l’apprentissage de la méthodologie que pour la pertinence de leur conclusion.

Les consignes mal comprises
Les étudiants ont eu du mal à comprendre ce que j’attendais d’eux à chaque séance. Ils sont très nombreux à m’avoir dit que c’était très éloigné de ce qu’on leur avait demandé jusqu’ici. J’ai donc passé beaucoup de temps à recadrer les groupes les uns après les autres, individuellement, et certains groupes avec qui j’ai passé moins de temps en ont pâti. Il faudrait peut-être prévoir pour chaque séance une fiche explicative, avec des exemples simples et concrets (fils trop peu tirés, type d’informations que l’on recherche, l’endroit où elles se trouvent, etc…)


Dossiers des étudiants

Groupe A – La nocivité des lignes à très haute tensions (lignes THT) a-telle été mise en évidence ?

Groupe B – Un lien de causalité entre la vaccination contre l’hépatite B et la sclérose en plaque a-t-il été mis en évidence ?

Groupe C – La nocivité des OGM pour l’humain a-t-elle été mise en évidence ? Cas du maïs OGM NK 603

Effet boule de neige – le frustule extraterrestre de Wickramasinghe

La fabrique du scoop est un vice multiforme, et la reprise du scoop tout cru par d’autres médias un art stupéfiant. L’effet boule de neige décrit très bien ce mécanisme lors duquel quelqu’un reprend une information sans chercher à la mettre en doute. L’histoire du journalisme en est truffée. L’une des plus intéressantes du moment est probablement celle du frustule de Chandra Wrickramasinghe, d’une part par ses implications (une vie extraterrestre), d’autre part par la leçon qu’elle donne aux journalistes et aux vulgarisateurs : si l’on ne connait pas les processus de publication, les biais classiques et les traquenards du milieu, il est très difficile de ne pas prendre une vessie pour un frustule.
 
La plume de Pierre Barthélémy remplit ici son office. Merci à l’auteur d’avoir accepté de voir son texte reproduit.
Les notes adjointes sont celles de Richard Monvoisin.

Des chercheurs croient avoir trouvé une trace de vie extraterrestre

C’était, jeudi dernier, à la « une » du site Internet du quotidien The Independent : des chercheurs britanniques affirment détenir la preuve de la vie extraterrestre. Normalement, toutes les chaînes d’information du monde auraient dû interrompre leurs programmes pour donner la nouvelle et les rotatives de tous les journaux se seraient arrêtées, le temps pour les rédacteurs en chef de faire changer les plaques. Impossible pour un média digne de ce nom de rater ce scoop répondant à une des plus anciennes questions de l’humanité : sommes-nous seuls dans l’Univers ou pas ? Toutefois, au lieu de cette furia planétaire, il y a eu quelques reprises à droite ou à gauche et l’histoire a fait pschitt…

S’agit-il d’un nouveau complot de l’establishment politico-médiatique destiné à étouffer un scoop prouvant une bonne fois pour toutes que les soucoupes volantes existent ? Non. Mais avant d’expliquer pourquoi ce n’est pas le cas, voici les informations de base. Une équipe britannique emmenée par Milton Wainwright, du département de biotechnologie et de biologie moléculaire de l’université de Sheffield, a publié dans le Journal of Cosmology une étude relatant une curieuse découverte effectuée dans la stratosphère. Le 31 juillet dernier (la date est importante), ces chercheurs ont lâché un ballon-sonde au-dessus de Chester, dans le nord-ouest de l’Angleterre. Il était équipé d’un dispositif simple, un tiroir télécommandé dont l’ouverture a été déclenchée lorsque le ballon a atteint 22 kilomètres d’altitude. La boîte est restée ouverte pendant plus d’un quart d’heure, alors que l’ascension se poursuivait. Elle a été refermée à 27 km d’altitude. Puis le dispositif expérimental a été décroché du ballon et est tranquillement redescendu accroché à un parachute.

L’étude en question précise que le tiroir avait été scrupuleusement nettoyé avant le vol de façon à s’assurer que rien ne viendrait « polluer » la récolte dans la haute atmosphère. Pour les mêmes raisons, les chercheurs avaient installé une protection censée empêcher que des particules situées sur le ballon ne tombent dans la boîte. Une fois celle-ci récupérée, son contenu a été passé non pas à la loupe mais au microscope électronique à balayage. Et là, les scientifiques ont eu la surprise de découvrir la minuscule structure qui figure en photo au début de ce billet.

Pour les auteurs de l’article, cela ressemble fort à un « squelette » de diatomée, ces algues unicellulaires qui s’entourent d’une petite boîte de silice, le frustule. Simplement, comment cette chose a-t-elle bien pu se retrouver à 25 kilomètres d’altitude, se demandent ces chercheurs, puisqu’ils excluent toute contamination de leur dispositif expérimental ? Deux solutions s’offrent à eux, expliquent-ils. Ou bien ce morceau de frustule de seulement quelques micromètres de long appartient à une micro-algue terrestre et il vient d’en bas, ou bien il provient de l’espace et il s’agit d’une preuve de vie extraterrestre. L’étude se résume ensuite à une argumentation qui consiste à démontrer qu’aucun mécanisme terrestre connu ne peut expliquer la présence d’un frustule de diatomée à cet endroit de la stratosphère. Aucun avion, aucune tempête, n’a pu l’apporter si haut. Seule une puissante éruption volcanique aurait eu le pouvoir de la propulser à cette altitude mais d’éruption aussi importante il n’y a pas eu depuis un moment. Or, ajoutent les chercheurs, selon un modèle atmosphérique datant de 1968, une particule de la taille et de la densité de ce morceau de frustule retombe au sol à la vitesse minimale d’un mètre par seconde et ne peut rester en suspension dans la stratosphère.

On en arrive donc au raisonnement suivant, que Sherlock Holmes aurait adoré : une fois toutes ces hypothèses terrestres écartées, la seule explication qui demeure, l’origine extraterrestre, est forcément la bonne. Dans The Independent, Milton Wainwright ne s’embarrasse pas de prudence en disant qu’il est « convaincu à 95 % » que cette structure vient du cosmos. Le communiqué de presse de l’université de Sheffield, qui a accompagné la parution de l’étude, est encore plus affirmatif : « Notre conclusion est que la vie arrive continuellement sur Terre depuis l’espace, que la vie n’est pas restreinte à cette planète et qu’elle n’en est certainement pas originaire », dit un Milton Wainwright visiblement conquis par la théorie de la panspermie. Il ajoute que si la Terre est perpétuellement arrosée par cette vie cosmique, sans doute transportée par les pluies cométaires qui donnent les étoiles filantes, « il nous faudra complètement modifier la façon dont nous voyons la biologie et l’évolution. De nouveaux manuels devront être écrits ! »

Alors, révolution darwino-copernicienne ou pas ? Il faut reprendre les choses point par point. Et commencer par le dispositif expérimental : on nous dit par exemple que le fameux tiroir a été nettoyé par… flux d’air et tamponnage à l’alcool. Soit. Mais rien n’est précisé sur son étanchéité ni sur les précautions prises à son ouverture. Ensuite, le frustule : l’équipe n’a visiblement pas pris la peine de demander son avis à un spécialiste des diatomées pour savoir à quelle espèce terrestre il pouvait appartenir. De plus, avant de se lancer dans leur série d’hypothèses, les chercheurs auraient pu commencer par l’analyse isotopique de cette micro-structure afin de déterminer si elle était oui ou non d’origine terrestre (le communiqué de presse évoque d’ailleurs cette expérience). Il y a aussi la chronologie de l’étude : le vol du ballon-sonde a eu lieu le 31 juillet et l’étude a été acceptée par la revue le 9 août. On est sans doute très près du record du monde de l’expérience la plus rapidement analysée, retranscrite, envoyée et acceptée. Ce qui pose bien sûr la question de ladite revue.

Qui est un tant soit peu familier du sujet sait que le Journal of Cosmology n’est pas vraiment une revue scientifique sérieuse. Il s’agit d’un repaire de chercheurs partis en croisade pour la théorie de la panspermie1. Le principal meneur de ce mouvement s’appelle Chandra Wickramasinghe2 (université de Buckingham) dont il se trouve qu’il est à la fois rédacteur en chef du Journal of Cosmology et… co-auteur de l’étude sur la diatomée stratosphérique ! On comprend mieux la vitesse à laquelle le journal, qui pratique soit-disant le peer-review, a accepté cet article. Ce n’est d’ailleurs pas la première fois que Chandra Wickramasinghe sévit dans ce domaine car il a déjà, à plusieurs reprises, affirmé avoir trouvé des diatomées dans des météorites, ce qui a été à chaque fois réfuté. Il a également assuré que des virus comme celui de la grippe ou du SRAS provenaient de l’espace… Si l’on met tout cela bout à bout et si l’on ajoute qu’une découverte aussi importante que la preuve de la vie extraterrestre paraîtrait obligatoirement dans une revue prestigieuse, on saisit pourquoi la planète médiatique n’est, dans son ensemble, pas tombée dans cet énorme panneau jeudi 19 septembre. Et on a d’autant plus de mal à comprendre comment un journal plutôt sérieux comme The Independent s’est fait enfumer… sans compter une flopée de suiveurs non-vérifieurs comme La Tribune de Genèvela BBC ou le Times of India3.

Pierre Barthélémy

  1. La panspérmie est une théorie controversée selon laquelle les premiers organismes ne seraient pas nés de la matière minérale de la soupe primitive, mais bien d’une « vie » extraterrestre, d’un ancêtre cosmique, pour reprendre un terme consacré. Ce scénario se calque à la théorie d’un univers stationnaire de Fred Hoyle… qui fut le mentor de Wickramasinghe (point suivant).
  2. Nalin Chandra Wickramasinghe (1939-) est un personnage tout à fait fascinant. Pierre Barthélémy n’a pas la place de dire qu’outre être soutien à la dérive sectaire Sokka Gakkaï, ayant co-signé un livre avec son fondateur, Wickramasinghe est connu pour des positions qu’on pourrait qualifier de mystiques.Il fut avec Hoyle l’un des contestataires de l’Archaeopteryx, qu’ils qualifièrent de canular dans Archaeopteryx, the Primordial Bird: A Case of Fossil Forgery (1986). Dans l’affaire McLean v. Arkansas, en 1981 devant statuer sur la constitutionnalité d’un enseignement équilibré évolutionnisme / créationnisme, Wickramasinghe fut le défenseur du créationnisme.
  3. Voici les manchettes, comme autant de travaux pratiques.

BBC

Life on Earth ‘came from space’ say scientists

20 September 2013 Last updated at 11:39 BSTScientists at the University of Sheffield believe they have found evidence that life on Earth originated in space. The research suggests that Earth is constantly bombarded by microbes from outer space, which arrive on comets and meteors.Therefore life on Earth began when the planet became habitable enough for the microbes to survive and evolve.

Dr. Milton Wainwright, who is leading the study, told BBC Radio 5 live’s Up All Night: « We believe that life did not form from chemistry here on earth, it came from space… which has major implications for Darwin’s theory. »

Times of India

Alien life found on balloons after meteor shower

Kounteya Sinha, TNN Sep 20, 2013
LONDON: British scientists announced on Thursday that they have found alien life on Earth.
A team of scientists from the University of Sheffield led by Milton Wainwright from the department of molecular biology and biotechnology found small organisms that could came from space after sending a specially designed balloon 27km into the stratosphere during the recent Perseid meteor shower.
 

The balloon was launched near Chester and carried microscope studs which were only exposed to the atmosphere when the balloon reached heights of between 22 and 27km. The balloon landed safely near Wakefield.

The scientists then discovered that they had captured a diatom fragment and some unusual biological entities from the stratosphere, all of which are too large to have come from Earth.

Wainwright said the results could be revolutionary. « If life does continue to arrive from space then we have to completely change our view of biology and evolution, » he said. The scientists said stringent precautions had been taken against the possibility of contamination during sampling and processing, and said the group was confident that the biological organisms could only have come from the stratosphere.

Wainwright said, « Most people will assume that these biological particles must have just drifted up to the stratosphere from Earth, but it is generally accepted that a particle of the size found cannot be lifted from Earth to heights of, for example, 27km. The only known exception is by a violent volcanic eruption, none of which occurred within three years of the sampling trip. »

« In the absence of a mechanism by which large particles like these can be transported to the stratosphere we can only conclude that the biological entities originated from space. Our conclusion then is that life is continually arriving to Earth from space, life is not restricted to this planet and it almost certainly did not originate here, » he said. The group’s findings have been published in the Journal of Cosmology.

The team is hoping to extend and confirm their results by carrying out the test again in October to coincide with the upcoming Haley’s Comet-associated meteorite shower when there will be large amounts of cosmic dust. It is hoped that more new or unusual organisms will be found.

 

Tribune de Genève

Les extraterrestres ont-ils débarqué en Angleterre?

Par Anne-Elisabeth Celton.  20.09.2013

Des scientifiques affirment avoir découvert à Wakefield en Angleterre des organismes provenant de l’espace. Il s’agirait de la première preuve de vie extraterrestre sur terre.

Cette découverte va-t-elle changer le cours de l’histoire? Des scientifiques de l’Université de Sheffield affirment avoir trouvé à Wakefield (West Yorkshire) des preuves de vie extraterrestre, informe The Telegraph. Au mois d’août, ils ont lancé un ballon spécialement conçu à 27 km au-dessus de la surface de la terre lors d’une pluie d’étoiles filantes dite des Perséides. Objectif: prélever des échantillons via des capteurs déclenchés uniquement entre 22 et 27 km. A son retour, le ballon a atterri à Wakefield. Surprise: l’équipe découvre dessus des organismes microscopiques mais d’une taille bien trop grande selon eux pour faire partie de notre système.

Théorie de l’évolution à revoir

Pour le professeur Milton Wainwright, il s’agit d’une découverte révolutionnaire. «Des particules de cette taille ne peuvent être transportées dans la stratosphère en dehors d’un mécanisme exceptionnel comme par exemple une violente éruption, qui n’a pas eu lieu», explique-t-il. «Ces entités biologiques ne peuvent donc provenir que de l’espace. Notre conclusion est que la vie n’est pas limitée à cette planète. Si des organismes arrivent sur terre depuis là-haut, cela change notre vision de la biologie et de l’évolution.»

L’équipe fera un nouveau test le mois prochain lors d’une pluie de météorites.

Effet paillasson – En route vers l’infiniment moyen… et au-delà !, par Richard Taillet

Effets paillasson, impact, puits, fabrication artificielle de scoop… les mots possèdent de nombreuses manières de nous induire en erreur dans nos représentations. Nous défendons l’idée dans nos pages que penseurs, vulgarisateurs et enseignants critiques ont tout intérêt à choisir des termes non ambigus pour discuter, échanger ou débattre. Le lexique scientifique est censé proposer des mots ne possédant qu’un seul sens, une seule acception. Est-ce toujours vrai ? Cet article, intitulé En route vers l’infiniment moyen… et au-delà ! et publié le 10 septembre 2013 sur le blog Mots de science (reproduit ici avec l’accord de l’auteur, Richard Taillet1, de l’Université de Savoie), nous montre comment, si le diable se cache dans les détails, il peut se cacher également dans les mots les plus convenus, comme infini. Et s’il y explique qu’il « saoule sans arrêt [s]es collègues avec ça« , nous ne pouvons que lui dire : continuez, Monsieur Taillet.
Précision : les notes incrustées dans le texte sont de Richard Monvoisin, et n’engagent pas l’auteur.

 

CorteX_Richard_TailletEn route vers l’infiniment moyen… et au-delà !! 

Richard Taillet, dans Mots de science, 10 septembre 2013

« De l’infiniment grand à l’infiniment petit ! », « Voyage entre les deux infinis »… Qui n’a pas entendu ces expressions censées nous faire rêver (?), dans le cadre de conférences, d’articles de vulgarisation, ou dans la bouche de scientifiques s’exprimant dans les médias ? L’infiniment grand est censé évoquer l’astrophysique, la cosmologie, alors que l’infiniment petit renverrait à la physique des particules, des constituants élémentaires. Ces termes sont surtout infiniment dénués de sens. Ils n’apportent aucune lumière sur l’activité des scientifiques, ni sur leurs sujets d’étude, ni sur rien du tout d’autre d’ailleurs. Un astrophysicien étudie des objets qui peuvent être grands, très grands, voire très très grands (à l’échelle humaine). Le physicien des particules étudie des objets qui sont petits, voire très petits (à l’échelle humaine)… Mais je n’ai absolument jamais entendu aucun scientifique employer les termes infiniment petit ou infiniment grand lorsqu’il s’adressait à un de ses pairs.

« Infiniment éloigné de comprendre les extrêmes, la fin des choses et leur principe sont pour [l’Homme] invinciblement cachés dans un secret impénétrable, également incapable de voir le néant d’où il est tiré, et l’infini où il est englouti. », écrivait Blaise Pascal dans les Pensées2. La science moderne a justement su ramener l’étude de l’Univers d’une part, et celle des particules d’autre part, à des échelles finies. Un des grands succès de la cosmologie est de pouvoir parler de la taille de l’Univers de manière quantitative : l’échelle pertinente est la dizaine de milliards d’années-lumière pour l’Univers visible. De même, la physique des particules permet d’associer une taille aux particules (en insistant un peu, certes, car un physicien des particules commencera par vous parler d’échelle de masse ou d’énergie, puis seulement de taille si vraiment vous le poussez à bout).

L’infini, quand il se présente en physique, joue un rôle important dans le développement des théories : il révèle d’éventuelles pathologies, ou en tout cas pose des questions importantes aux théoriciens (les infinis associés à l’horizon des événements d’un trou noir ont joué un rôle crucial dans la compréhension de la structure de l’espace-temps entourant ces objets et de la signification des coordonnées en relativité générale, la théorie qui permet de les décrire, tandis que les infinis de la théorie quantique des champs continuent d’empêcher les physiciens de dormir).

La conjonction des expressions « l’infiniment petit » et « l’infiniment grand » présente aussi un autre risque : la tentation d’en déduire que ce serait un peu la même chose finalement, qu’ils finiraient par se rejoindre3. C’est poétique, mais ça ne correspond à rien de scientifique. Certes l’étude de la cosmologie fait intervenir des notions avancées de physique des particules, mais pour des raisons totalement étrangères à toute mysticité de deux infinis qui auraient l’envie cosmique de ne faire qu’un.

J’ai régulièrement l’occasion de faire ces remarques à des collègues physiciens (traduire par « je saoule sans arrêt mes collègues avec ça« ) et plusieurs me répondent de façon polie que c’est du pinaillage, qu’au contraire il faut employer ces expressions « infiniment grand », « infiniment petit », car le « grand public » les connaît et peut s’y accrocher.

Décidément, non !

Notre rôle de scientifique vulgarisateur, si l’on accepte cette double casquette, est justement de fournir des points d’accroche solides, en particulier au niveau du vocabulaire. Quelle confiance accorder aux idées transmises par les scientifiques si déjà le choix des mots décrivant les concepts est déclaré de seconde importance ?

Richard Taillet

  1. Richard Taillet, du Laboratoire d’Annecy-le-Vieux de Physique Théorique (LAPTH) (page personnelle) est également l’auteur de plusieurs cours, du L1 au M1, en libre accès sur le site de ballado-diffusion de l’Université de Grenoble.
  2. Blaise Pascal, Pensées, ouvrage à forte consonance religieuse, publié à titre posthume après 1662, dont le contenu est en ligne ici.
  3. À l’instar des deux « extrêmes », gauche et droite en politique qui se rejoindraient. De même que pour les infinis physiques, les extrêmes en politique ne se rejoignent que si l’on prend pour prémisse la scène politique comme un cercle continu.

Esprit critique & kinésithérapie : le nouveau cru est arrivé !

Comme chaque année, depuis 18 ans maintenant, l’école de kinésithérapie du CHU de Grenoble organisait sa journée de recherche (voir le programme et les résumés dans le livret journée recherche 2013). Cette année le CorteX (Richard Monvoisin et Nicolas Pinsault) a participé à l’encadrement de deux mémoires de recherche en lien avec ses thématiques critiques. Ces travaux, menés le plus rigoureusement et impartialement possible, ne manqueront pas d’alimenter les réflexions et discussions autour des thérapeutiques manuelles.
Bonne lecture

Le premier mémoire, fruit du travail de Philippe-Antoine David, porte sur le positionnement des kinésithérapeutes par rapport aux thérapies dites « alternatives » et s’intitule Kinésithérapeutes et thérapies alternatives : entre culture professionnelle et flou identitaire. On note le concours de Julien Lévy1, un sociologue contributeur du CorteX, aux manettes de la méthodologie de ce travail de recherche.

  • Le mémoire (en pdf actualisé le 22/07/2013 : DAVID. P)
  • Le poster (le pdf : Poster PA-DAVID)
  • La présentation orale (à venir)

Le second mémoire est signé Yannick Ponséro et s’intitule Effet de la stimulation des points réflexes neurolymphatiques sur l’extensibilité des ischio-jambiers. Ce mémoire est l’occasion d’examiner plus en détail les fameux points réflexes du Dr Franck Chapman.

  • Le mémoire (en pdf actualisé le 22/07/2013 : PONSERO. Y)
  • Le poster (à venir)
  • La présentation orale (à venir)

Pour tout détail, complément ou remarque :

  •  P.A. David ou Y. Ponséro via

R. Monvoisin – Collectif de Recherche Transdisciplinaire Esprit Critique & Sciences (CORTECS) Bureau des Enseignements Transversaux – Département des Licences Sciences & Techniques  480 avenue Centrale Domaine Universitaire BP 53 – 38041 Grenoble cedex 9 – Monvoisin@cortecs.org.

ou N. Pinsault – Ecole de Kinésithérapie du CHU de Grenoble 19 avenue de Kimberley – BP 158 38431 Echirolles Cedex Tel : 04.76.76.89.41 NPinsault@chu-grenoble.fr

Nicolas Pinsault

1. Voir les contributions de Julien Lévy ici ou

Cours Paranormal, pseudo-sciences & esprit critique à Lyon 1

Ce cours s’adresse aux étudiants de L2 et L3 de toutes les spécialités de l’université Lyon I. Il s’intègre dans les enseignements intitulés « Transversales : Sciences Humaines et Sociales ». Les contraintes administratives nous obligent à organiser ce cours sous la forme d’un stage intensif de 15h réparties sur une semaine.
Depuis 2010, Denis Machon, Maître de conférences au département de Physique, anime ce cours en présence d’une cinquantaine d’étudiants en moyenne. Depuis cette année Maïlys Faraut, doctorante en neurobiologie, intervient également, et nous donne son analyse plus bas.

Analyse de Denis

Genèse

Ce cours est né de l’envie de faire partager la démarche zététique, d’informer et surtout de montrer qu’il est possible de mettre soi-même des démarches d’investigation personnelles sur tout sujet.
Ce cours s’est construit, dans une première étape, à l’aide des documents disponibles : livre d’Henri Broch et de la collection book-e-book et les références citées, sites web (Laboratoire Zététique, Observatoire zététique et, plus récemment, le CorteX), thèse (de Richard Monvoisin), etc. Par la suite, le cours s’est développé à l’aide de lectures complémentaires, de recherches personnelles (principalement en ce qui concerne les bavures scientifiques) et d’exemples piochés dans l’actualité.

Objectifs

Les objectifs de ce cours sont :

1 – De sensibiliser les étudiants à l’autodéfense intellectuelle : problématique des pseudo-sciences, importance de la démarche d’investigation, méthodes de manipulation, medias, etc.

2 – D’informer les étudiants de la possibilité d’accéder à une information contradictoire (bibliographie et sites web) en présentant les acteurs de la zététique.

3 – De traiter des cas précis afin de fournir un argumentaire et de clarifier des situations floues.

4 – L’objectif primordial est la présentation d’une méthode, de pièges à éviter et d’outils pour pouvoir se faire une opinion « éclairée ».

 

Déroulement

Le stage se répartit en 5 séances de 3h.

Séance 1 : une introduction qui pose une problématique. Il s’agit de montrer le fait que d’avoir accès aux études supérieures n’est en rien la garantie d’être à l’abri de confusion entre sciences et pseudo-sciences (même pour des étudiants scientifiques qui constituent le public de ce cours), que cette confusion est très répandue et ouvre la possibilité à de nombreuses dérives, que les pseudo-sciences occupent une part non-négligeable de notre vie.

Points forts : les étudiants sont sensibles à ces informations qui les concernent et leur font sentir qu’ils ne sont pas à l’abri de dérapages pseudo-scientifiques.

Points faibles : les études et les données présentées datent un peu. Des sources plus récentes à nous communiquer ?

Points à modifier/améliorer : il pourrait être intéressant de sonder les étudiants sur leurs « croyances » : qui se soigne par « médecines douces » ? La relativité est-elle une élucubration théorique ? Cela afin que les étudiants se rendent compte qu’ils entrent eux-mêmes dans les statistiques citées en cours. Toutefois, il existe un biais important : connaissant le thème de l’enseignement, ils risquent de fournir des réponses plus « raisonnables ».

 

Séance 2 : pour bien identifier ce que l’on peut appeler science, nous revenons sur la démarche scientifique. Cette qualification de « scientifique » est néanmoins problématique. En effet, pour un public scientifique, elle est acceptée mais pour d’autres publics elle peut-être rejetée car elle semble exclusive (confusion entre « démarche scientifique » et « démarche des scientifiques »). Le terme de « démarche d’investigation » est alors privilégié. Ensuite, nous insistons sur la notion de « affirmation testable » qui définit la barrière entre science et pseudo-sciences. Dès lors que l’on peu tester une affirmation (c’est-à-dire mettre en place une démarche d’investigation expérimentale), il faut surtout ne pas se gêner puisque cela permet de sortir de la discussion de comptoir et juger sur du factuel. Néanmoins, une expérience discriminante (entre deux hypothèses) reste délicate à établir à cause de possibles écueils. Avec la participation des étudiants, on construit alors une « bonne » expérience à partir de l’affirmation « je sais détecter la présence d’une balle sous un gobelet à l’aide de mon pendule ». On définit alors les points essentiels d’un protocole expérimental le plus complet possible.

Points forts : participation des étudiants ; présentation de la démarche scientifique (démarche d’investigation) que certains découvrent malgré leur cursus scientifique.

Points faibles : il y en a sûrement …

Points à modifier/améliorer : il serait formateur de faire la « démonstration » d’un pouvoir qui les surprenne vraiment par un bon tour de prestidigitation afin qu’ils mettent en place une expérimentation rigoureuse.

 

Séance 3 : en utilisant les notions vues en séance 2, on montre les pièges à éviter lors de l’étude d’un phénomène et également on donne des outils pour conduire son esprit critique. Il s’agit principalement de présenter et d’illustrer, par divers exemples classiques (sang de Saint Janvier, Cosmonaute Maya, etc.), les facettes et effets de la zététique illustrés, entre autres, par Henri Broch, et le CorteX.

Points forts : on donne une boîte à outils critiques à l’usage des citoyens.

Points faibles : le caractère « catalogue » de cette partie du cours tend à endormir les étudiants (et les enseignants également).

Points à modifier/améliorer : une des pistes d’amélioration est de passer de notre approche d’apprentissage par explication (de la théorie vers l’expérience où l’on propose d’abord des outils que l’on utilisera ensuite aux séances 4 et 5) à l’approche d’apprentissage par induction privilégiant la séquence expérience puis théorie.

 

Séance 4 : il s’agit ici de mettre en œuvre les pièges et outils vus à la séance précédente à l’aide d’études de cas. Sont abordés : les médias, l’astrologie, le sarcophage d’Arles-sur-Tech, la manipulation et l’homéopathie. Nous présentons ainsi la démarche d’investigation face à ces phénomènes étonnants : d’abord, de quoi parle-t-on ? La première étape est donc une étape de documentation la plus étayée, indépendante et recoupée possible. Ensuite, quels sont les pièges identifiés qui peuvent nous induire en erreur. Quels outils permettent de disséquer le phénomène et son contexte ? Eventuellement, est-il possible de tester soit même, par des expériences, certaines assertions ?

Points forts : beaucoup plus parlant que la séance précédente. Beaucoup d’étonnement de la part des étudiants en face d’informations qu’ils n’ont jamais eues (mais qu’ils n’ont jamais pensées aller chercher).

Points faibles : parfois, des considérations un peu techniques font perdre le fil.

 

Séance 5 : Bien qu’étonnés des informations obtenues lors de l’étude des cas, beaucoup d’étudiants se pensent à l’abri de dérapage « d’esprit critique », protégés par leur carapace « scientifique ». Dans cette dernière séance, il convient donc de montrer que cela n’est pas le cas. L’esprit critique est un travail de tous les jours et les scientifiques sont avant tout des hommes et des femmes avec leurs convictions, leurs croyances et leurs failles. Après avoir insistés sur le bienfait de l’erreur en science, son côté indispensable et sain, nous présentons les bavures scientifiques, c’est-à-dire non les erreurs scientifiques mais les erreurs de scientifiques : les expériences d’Yves Rocard sur le biomagnétisme, celles d’Eddington pour prouver la relativité, les rayons N et la mémoire de l’eau pour clore l’ensemble.

Points forts : cette partie originale touche les étudiants scientifiques en leur montrant qu’une bavure est vite arrivée.

Points faibles : tout comme la partie précédente, des aspects un peu techniques coupent parfois l’attention.

 

Denis Machon



Analyse de Maïlys

Dans le cadre du stage de zététique donné à Lyon 1 par Denis Machon, je suis intervenue avec deux cours d’environ une heure chacun. J’ai également présenté ces deux cours lors de « Student club » dans mon laboratoire (Institut Cellule Souche et Cerveau à Bron), qui sont des réunions où les étudiants présentent leur travail aux autres et parlent de sujets scientifiques qui les intéressent.

Le premier cours concernait le traitement de l’information (scientifique mais aussi non scientifique) par les médias (médias de vulgarisation scientifique ou généralistes).

Pour construire ce cours, je me suis appuyée sur la thèse de Richard Monvoisin ainsi que sur les exercices pédagogiques et exemples proposés sur cortecs.org. Ce cours avait pour but d’illustrer de façon concrète les effets zététiques présentés par Denis Machon lors des enseignements précédents.

Le cours était divisé en 4 points :

1 ) « Les mots » : où j’ai insisté sur l’importance du choix des mots et des images par les médias (effet Paillasson, effet Impact, effet Puits)

2) « Les arguments » : où j’ai présenté comment on pouvait donner plus de valeur à une information qu’elle ne le mérite réellement selon la façon dont elle était défendue (arguments d’autorité, effet Cigogne, effet Bipède)

3) « Les registres » : où j’ai montré des exemples de scénarisation de l’information (tous les carpaccios)

4) « Autres effets » pour rester vigilant : la technique de la « peau de chagrin » (rebaptisée « ballon de baudruche » pour ce cours  pour l’image du scoop qui se dégonfle au fur et à mesure de la lecture de l’article. Je l’ai rebaptisée car je ne trouve pas le concept de « peau de chagrin » très parlant) ; la « vente de la peau de l’ours » pour l’importance de la vérification des sources de l’information et enfin, un dernier point sur les chiffres.

Les personnes qui sont venues me parler du cours l’ont trouvé intéressant notamment parce que je montre que les médias de vulgarisation scientifique les plus connus utilisent souvent les mêmes procédés que les autres médias pour vendre leur information alors qu’ils bénéficient en général d’une « aura de rigueur » de par leur lien avec la science.

Par contre, ce cours dresse un tableau assez pessimiste sur les médias, ce qui a un peu déprimé les étudiants. Un étudiant a par exemple demandé : « Mais alors, si on ne peut rien croire, comment peut-on faire pour avoir de l’information valable ? » ; peut-être parce que je n’ai pas assez proposé de solutions (comme la multiplication des sources d’information par exemple) ?

Lorsque j’ai présenté ce cours en Student club (avant de donner le cours aux étudiants), on m’a reproché d’avoir trop d’exemples tirés de Science & Vie, ce qui faisait un peu comme si j’avais une dent particulièrement contre ce magazine. Au début, j’avais aussi beaucoup d’exemples de médias de vulgarisation scientifique, et peu de médias généralistes ce qui empêchait un peu de réaliser que les deux types de médias fonctionnent de la même façon. Du coup, j’ai essayé de mettre des exemples d’autres magazines que Science & Vie ainsi que de magazines plus généralistes pour permettre de faire le lien.

On m’a également fait remarquer que je parlais des « médias » en général mais que concrètement, je tirais essentiellement mes exemples des médias écrits, et pas tellement de la télévision, ou de la radio ou d’Internet. Il faudra que j’essaie d’élargir mes exemples pour le prochain cours ou que je cantonne mes conclusions aux médias écrits.

Pour ce cours, je n’ai pas du tout traité du monde du journalisme et de son fonctionnement, ce qui pourrait être très intéressant. Je pense notamment aux réflexions de P. Bourdieu (en particulier celles résumées dans son livre «  Sur la télévision »). Il faudra que j’essaie d’introduire un peu ces idées pour l’an prochain.

A la fin du cours, j’ai mentionné le film «  Les nouveaux chiens de garde » qui venait de sortir en salle. Des extraits de ce film pourraient être montrés pour illustrer les liens douteux entre politiques et médias (à disctuer).

Mon deuxième cours était une petite présentation d’expériences de psychologie sociale sur la manipulation. Pour réaliser ce cours, je me suis appuyée sur le livre « Petit traité de manipulation à l’usage des honnêtes gens » de Joule et Beauvois. Le but de ce cours était de montrer comment la façon dont on prend les décisions, qui est plutôt bien adaptée à la vie de tous les jours, peut, dans certaines situations, nous être défavorable. Les expériences de psychologie sociale que j’ai présentées montrent comment on peut changer de manière significative le comportement ou les opinions des gens en jouant sur les concepts d’engagement et d’effet de gel.

Ce cours est bien passé dans le sens où les expériences présentées sont assez amusantes. Cependant, je ne suis pas sûre d’être arrivée à faire passer clairement ce qu’elles montraient réellement, la théorie derrière étant finalement assez complexe.

Je n’ai pas eu trop d’interventions de la part des étudiants lors du cours mais j’en ai eu beaucoup lors du Student club. De manière assez récurrente, les personnes à qui je présente ces expériences se bloquent sur les diverses interprétations possibles de l’expérience, ce qui est intéressant en soi mais qui nuit un peu à la compréhension du fond. Pour chaque expérience présentée, il existe plusieurs interprétations possibles et une expérience, seule, ne permet pas de trancher (ce qui est le principe de construction de la science). Sauf que j’ai eu du mal à faire passer l’idée que l’interprétation proposée n’était pas le résultat de ces expériences seules mais de tout un tas d’expériences, qui, en faisant varier les conditions, sont parvenues à ces conclusions, les meilleures du moment. C’est un point sur lequel il est peut-être nécessaire de bien insister au début du cours, lors de l’introduction par exemple.

 

 

Maïlys Faraut, Université Lyon 1



Télécharger les cours de Maïlys Faraut :

Cours sur la manipulation
Cours sur le traitement de l’information par les médias

Science politique – Réflexion critique autour de la notion d’identité européenne

Notre collègue Clara Egger (Sciences Politiques) nous livre ici de ses contenus de cours, élaboré pour ses étudiants quand elle enseignait à l’Institut D’Études Politiques de Grenoble. Ce cours visait à ébranler, critiquer et requestionner une notion aussi floue que rabâchée : la notion d’identité européenne.
Bonne lecture.
RM

Cette session de cours a été proposée en novembre 2012 à des étudiants de troisième année en sciences politiques à l’Institut d’Etudes Politiques de Grenoble dans le cadre d’une conférence de méthode sur la construction européenne et ses effets.

Le thème de la séance portait sur l’ »Europe des Peuples » et cherchait à interroger les mécanismes de rejet et d’adhésion à la construction européenne. Plus largement, la séance visait à questionner la construction d’une identité européenne par les institutions européennes et analyser les processus d’identification sur lesquels reposent les différents systèmes politiques.

Les étudiants étaient au nombre de 22 et étaient « captifs » pour trois heures. Je les connaissais depuis mi-septembre.

Voici le déroulement de la séquence.

Préparation

En amont du cours, il a été demandé aux étudiants de trouver un support (vidéo, chant, texte, images) illustrant une vision de l’identité européenne. Les étudiants sont invités à expliquer leur choix (support qui les choque, qui les interroge, qui représente leur vision de l’Europe).

 

Introduction du support choisi par l’enseignante

CorteX_clip_europeDans un premier temps, j’ai introduit un support, une vidéo d’un clip de la Commission Européenne de mars 2012 visant à promouvoir l’élargissement auprès des jeunes. La vidéo est restée quelques heures en lignes et a fait scandale car on y voit une jeune femme blanche (habillée comme Uma Thurman dans le film Kill Bill, de Q. Tarantino) se faisant agresser par des guerriers chinois, brésiliens et indiens maniant chacun un art martial national. Pour se défendre la jeune femme se dédouble jusqu’à former un cercle autour des guerriers les invitant à la négociation. Le slogan est : « the more we are, the stronger we are » : plus nous sommes nombreux, plus nous sommes forts. Voir la vidéo ici, ou ci-dessous [1].

[youtube=http://www.youtube.com/watch?v=9E2B_yI8jrI]

 

Débat autour de la notion d’identité européenne autour des supports de chacun

Avant le débat, j’ai introduit quelques règles.

  • On évite les débats « ping-pong », c’est-à-dire les réactions à chaud peu construites et peu argumentées entre deux étudiants aux positions différentes.

  • On essaie de construire des réponses et des arguments construits et originaux.

  • Pas d’attaques personnelles, on réfléchit sur les supports mais on ne juge pas les choix des collègues.

  • Je prendrai toujours le parti de l’argument minoritaire.

Le débat s’est engagé spontanément après le visionnage de la vidéo qui, après avoir fait sourire (la référence à Kill Bill), puis franchement rire (avec le ridicule des arts martiaux sur-joués), a fini par choquer. Les étudiants ont d’abord tout comme moi cru à une parodie des supports de communication de l’Union Européenne. Puis le débat s’est engagé. 

Au début les étudiants ont « réagi » plutôt que de construit des arguments : certains se disaient choqués, d’autres trouvaient la gaffe utile pour montrer « le vrai visage de l’Europe ». Je les ai ensuite invité à mobiliser et présenter leur support pour nourrir le débat. 

  • Une étudiante a évoqué un projet d’exposition européenne, Art et Europe (ici) organisé par des étudiants et visant à faire de l’art un vecteur d’identité européenne.
  • CorteX_Europe_a_coeur_Sculpture_Ludmila_TcherinaUn autre étudiant a parlé des sculptures placés devant les institutions européennes, notamment celle représentant la figure maternelle portant dans ses bras des enfants (ci-contre, « L’Europe à coeur« , sculpture de Ludmila Tcherina).
  • Des étudiants ont aussi utilisé des supports utilisant la religion comme vecteur identitaire pour l’Europe, notamment une citation de Chantal Delsol, philosophe politique, catholique et éditorialiste au Figaro publiée dans sa contribution à l’ouvrage d’ E. Montfort, Dieu a-t-il sa place en Europe? : 

« Si nous regardons la Charte des droits de l’homme musulman, nous y trouvons deux espèces humaines distinctes : celle des hommes et celle des femmes. Or, ce n’est pas ainsi que les Européens voient les choses, puisqu’ils héritent de Saint-Paul le postulat de l’unité de l’espèce humaine. Peut-on imaginer une liberté personnelle qui ne vaudrait que pour une partie d’entre nous ? Les Européens feraient bien de s’interroger là-dessus quand il s’agit de l’entrée de la Turquie en Europe » [2].

 

Comme tout le monde ne présentait pas ses supports, je me suis permise d’inviter ceux qui ne s’étaient pas exprimés. Certains, certes avaient trouvé la vidéo, parmi d’autres n’avaient sans doute pas eu le temps de chercher. J’ai alors demandé s’ils/elles avaient trouvé des supports de pédagogie destinés à des classes primaires ou secondaires, et beaucoup ont réagi en pointant le fait que dans les manuels, la construction européenne est présentée de façon très positive comme un phénomène « naturel » (cf. travaux de G. Reviron, ici), et non issus de choix politiques et d’une construction identitaire. D’autres ont évoqué l’absurdité d’invoquer le mythe d’Europe comme base de l’identité européenne (mythe peu connu, lointain et assez violent : il s’agit tout de même d’un enlèvement et d’un viol déguisé).

CorteX_europe_Da_Verona

Référence à la figure mythologique d’Europe, souvent mis en avant comme figure  tutélaire du continent. Selon le mythe, Europe princesse phénicienne fille d’Agénor a été enlevée par Zeus métamorphosé en taureau blanc pour séduire la jeune femme et éviter la colère de son épouse Héra. Zeus emmène la jeune femme en Crète pour s’accoupler avec elle une fois redevenu humain. De leur union, naissent Minos, Radhamante (tous deux devenus juges des Enfers) et Sarpédon qui s’exile en Anatolie. Europe est ensuite donnée par Zeus comme épouse au roi de Crète.

Arguments échangés

Le débat a beaucoup tourné autour de l’instrumentalisation des symboles pour construire une identité commune, notamment l’absurdité d’une référence au mythe d’Europe : c’est une histoire misogyne et fondamentalement violente. Les étudiants ont aussi mis en lumière une certaine schizophrénie européenne alternant messages de paix et d’amour (notamment via la figure de la mère nourricière) et une vision xénophobe de l’étranger. Des parallèles ont été proposés avec la construction d’une mémoire et d’une mythologie commune au sein des états nationaux. La construction d’une identité européenne a été perçue comme largement artificielle car basée sur une volonté d’imposer un attachement au marché unique alors que l’Europe n’est pas en mesure de construire un projet fédérateur avec et pour ses citoyens. Dès lors, l’identité européenne semble se baser uniquement sur un rejet de l’étranger. En guise de conclusion l’auteur a proposé la lecture de l’article de Denis Duez, « L’Europe et les clandestins : la peur de l’autre comme facteur d’intégration ? » [3].

Retours pédagogiques sur l’expérience

Utiliser des supports a permis de dépassionner le débat. Il faut sans doute rappeler que le groupe d’étudiants est parmi l’un des plus politisés que j’ai connus et que le débat tourne parfois aux attaques personnelles tant la prise de recul est difficile sur des sujets polémiques ou mettant en jeu des opinions personnelles. En outre, j’ai beaucoup apprécié de voir des étudiants qui peinaient à prendre la parole prendre activement part au débat. Les étudiants ont proposé une lecture critique des processus d’identification à l’Europe en analysant avec justesse ses dérives : rejet de l’autre, xénophobie et repli nationaliste et ethnocentrique. Plus largement, ce cours a aussi permis d’étendre la réflexion à la construction des identités nationales.

Je garderai cette idée de mobiliser des supports pour organiser un débat mais je pense préparer les choses plus en amont en y consacrant un temps de préparation et d’analyse plus long afin que chacun puisse s’exprimer et mûrir le débat. J’ai trouvé les supports globalement pertinents mais j’ai regretté que les étudiants ne puisent pas dans « l’histoire officielle » de la construction européenne (en mobilisant des contenus de cours, des articles…).

Clara Egger

 

[1] François Asselineau, Le choc des civilisations prôné dans un clip de la commission européenne, Agoravox, 6 mars 2012. 

[2] Chantal Delsol, « Liberté et christianisme », in E. Montfort, Dieu a-t-il sa place en Europe ?, p.115.

[3] Denis Duez, L’Europe et les clandestins : la peur de l’autre comme facteur d’intégration ?, Politique européenne, 2008/3 n° 26, p. 97-119.

–Vous reprenez ce matériel pour un de vos enseignements ? Vous l’améliorez ? Racontez-nous.—

Épistémologie – Les concepts de la sociologie sont-ils d'une nature spéciale ? par Dominique Raynaud

Nous avons à Grenoble la chance d’avoir un sociologue, épistémologue des sciences sociales qui fait un travail remarquable de rigueur. Il s’appelle Dominique Raynaud, et il travaille à l’Université Pierre-Mendès-France. 
Comme nous, il souscrit à un monisme méthodologique, c’est-à-dire qu’il ne pense pas, contrairement à une opinion répandue, que les choses de la matière sensible et celles de la « matière » sociale méritent deux types de méthodes différentes. Pour faire simple, point de méthode différente, plus de sciences dites dures et d’autres dites molles, mais une seule manière de décrire au mieux la réalité à laquelle nous avons accès. Certains objets sont infiniment plus complexes à appréhender, plus « mous » et d’autres plus simples, mais la manière de dire des choses vérifiables dessus n’est qu’une.
Dominique Raynaud nous offre ici une contribution qui vaut son pesant d’or. Le texte ci-dessous est une version écourtée du chapitre 4 de son livre La sociologie et sa vocation scientifique, Paris, éditions Hermann (2006) et montre que la sociologie n’a pas de normes spéciales de scientificité.
Ce n’est pas un sujet facile, mais l’effort qu’il demande ne sera pas vain.

Résumé

Pour les épistémologies dualistes ou régionalistes, la sociologie relève de normes spéciales de scientificité. La sociologie serait délimitée par le fait que ses concepts ne sont pas des « concepts analytiques » ou « taxinomiques », au sens des sciences naturelles, mais des « concepts idéaltypiques » ou des « désignateurs semi-rigides ».

L’analyse comparée montre deux choses.

(1) Les concepts analytiques et taxinomiques sont d’un usage régulier en sociologie.

(2) Les concepts idéaltypiques et les désignateurs semi-rigides ne sont pas l’apanage de la sociologie : on en trouve l’équivalent en physique et en astronomie.

Du coup, le statut particulier des concepts sociologiques n’est pas un critère adéquat pour doter la sociologie de normes épistémologiques propres.

Introduction

De manière à ce que les termes de la discussion soient clairs, je commencerai par poser quelques définitions utiles.

1° Un « concept taxinomique » est celui qui naît de la relation entre une espèce et un genre. Les critères dichotomique d’absence/présence d’un caractère sont en usage dans toutes les classifications, en particulier en zoologie et en botanique. Par différence, on peut identifier des « concepts typologiques » qui n’emploient pas des critères exclusifs mais inclusifs. C’est notamment le cas de l’idéaltype, un concept introduit par le fondateur de la sociologie moderne, Max Weber (1). Les exemples historiques de domination légitime ne se rattachent jamais à un seul des trois types de domination distingués par Max Weber (2).

2° Le terme de « concept analytique » se fonde sur la distinction proposée par Kant entre les jugements analytiques et les jugements synthétiques. Les jugements analytiques sont ceux qui sont universellement vrais, parce que leur valeur de vérité ne dépend pas de l’expérience. La « vitesse » est un concept analytique parce que la signification de ce concept est toute entière contenue dans sa définition : la vitesse est le rapport de l’espace parcouru par un mobile au temps mis pour le parcourir. Tout au contraire, les « concepts synthétiques », ou « phénoménaux », ont la particularité d’engager des qualités extérieures au concept.

3° Les « concepts quantitatifs »,  tels que distingués par Rudolf Carnap, constituent une espèce des précédents. Par exemple, la « vitesse » v CorteX_mobius_escher=  dx/dt, l’« accélération » γ = d²x/dt², la « force » F = mγ sont des concepts analytiques quantitatifs parce qu’ils résultent de la combinaison de grandeurs élémentaires mesurables (dans le cas de la vitesse : une certaine quantité d’espace dx et une certaine quantité de temps dt). Au contraire, les « concepts qualitatifs » ne supposent aucune mesure. C’est le cas des concepts de la topologie, comme ceux de « boule » ou d’« anneau de Möbius » (voir ci-contre, l’anneau de Möbius par le graveur Escher).

4° Le nom de « désignateur semi-rigide », introduit par Jean-Claude Passeron, fait directement référence aux « désignateurs rigides » du logicien Saül Kripke (3). On peut définir ces deux termes relativement l’un

à l’autre. Les désignateurs rigides se distinguent par la régionpropriété d’avoir le même référent dans tous les mondes possibles. Par exemple, l’« eau » est identique à elle-même dans tous les mondes où il y a de l’eau ; le nombre « π » est toujours identique à lui-même, etc. Par différence, Passeron nomme « désignateurs semi-rigides » ou « semi-noms propres » les « concepts indexés sur une série de cas singuliers ». Ainsi, le « féodalisme » ne se présente que dans certaines sociétés comme le Japon de l’ère Kamakura, la Chine des Royaumes combattants ou l’Europe médiévale.

En dépit de leur parenté, il faut bien voir qu’idéaltype et désignateur semi-rigide caractérisent deux réactions possibles au problème de l’inadéquation des concepts au réel. D’un côté, l’idéaltype accentue l’écart au réel. Max Weber précise : « par son contenu, cette construction a le caractère d’une utopie » ; « l’idéaltype est un tableau de pensée, il n’est pas la réalité historique ni surtout la réalité « authentique » ». Ainsi parle-t-on de « capitalisme » ou de « libre concurrence », quel que soit le contexte économique qui en constitue une approximation, en sachant qu’il s’agit d’une fiction visant moins l’adéquation au réel que la pureté logique. En ce sens, l’idéaltype « sort » de l’histoire. C’est ce qui justifie notamment le commentaire de Julien Freund : « la description que Weber fait de la bureaucratie est idéaltypique, ce qui signifie […] que les traits qu’il énumère [activité à plein temps, gestion rationnelle, subordination à une autorité, hiérarchie, spécialisation et technicité des fonctions] valent pour toute bureaucratie moderne, indépendamment des variations particulières et contingentes dans les divers pays ». Cependant, Weber particularise parfois l’idéaltype : c’est le cas lorsqu’il spécifie « christianisme » en « christianisme médiéval » ou « charisme » en « charisme anti-autoritaire bonapartiste ». L’idéaltype rentre alors dans l’histoire, ce qui fonde la lecture de Passeron. Car le désignateur semi-rigide, qui n’est pas une utopie, incite à accoler au concept ses traits contextuels les plus saillants. Pourquoi sommes-nous tentés de préciser « capitalisme spéculatif » ou « christianisme médiéval » au lieu de « capitalisme » et « christianisme » sinon pour ne pas désindexer ces concepts ? Face au problème de l’inadéquation du concept au réel, l’idéaltype s’oriente par excès (il accentue la différence) ; le désignateur semi-rigide par défaut (il réduit la différence).

Se pose ensuite la question des critères en fonction desquels distinguer les différentes espèces de concepts qui viennent d’être d’énumérées. Je propose les suivants :

1. Les concepts taxinomiques donnent naissance à des classifications ; les concepts idéaltypiques à des typologies. Les premières recourent à des critères dichotomiques ou exclusifs, les secondes à des critères inclusifs.

Par conséquent, elles peuvent être départagées sur la base du critère 1 :

dans une classification, un élément appartient à une classe et à une seule versus  dans une typologie, un élément peut appartenir à plusieurs types simultanément.

La graminée Avena stricta dépend du genre Avena à l’exclusion de tout autre genre ; le régime nazi dépend de la domination charismatique sous certains aspects mais de la domination légale-rationnelle à d’autres points de vue.

2. Concepts analytiques et phénoménaux se distinguent tout d’abord par leur propriété fondamentale (prédicat interne donné par définition versus prédicat externe). Les seconds ont une propriété distinctive qui tient à leur rapport à l’inadéquation des concepts au réel. Les idéaltypes consistent en tableaux abstraits épurés ; les désignateurs semi-rigides ont un caractère ad hoc prononcé, d’où suit le critère 2 :

les concepts analytiques sont toujours vrais versus les concepts phénoménaux ne sont que des approximations de la réalité — soit par orientation abstraite (idéaltype), soit par orientation adhociste (désignateurs semi-rigides).

La vitesse dx/dt permet de mesurer indifféremment la vitesse du son cS = 330 m.s–1 ou la vitesse de propagation d’une vibration dans l’acier cA ~ 5000 m.s–1. L’influence exercée par le mahâtma Gandhi lors de la « Marche du Sel » reste une approximation de la domination charismatique.

3. La définition des concepts quantitatifs suffit à les distinguer des concepts qualitatifs, ce qui conduit au critère 3:

les concepts quantitatifs supposent la réalisation d’une mesure (qui exige à son tour la définition de certains règles comme la transitivité, ou le choix d’une échelle de mesure) versus les concepts qualitatifs ne l’autorisent pas.

Citons, dans le domaine démographique, l’âge qui est un concept quantitatif (un enfant de 3 ans et demi), alors que le statut matrimonial (célibataire, marié, divorcé, veuf) est qualitatif : même si l’on peut envisager un « codage » des caractères, cela ne constitue en rien une « mesure » au sens scientifique du terme.

4. Désignateurs rigides ou semi-rigides se distinguent aisément par la propriété énoncée par Kripke, fondement du critère 4 :

les désignateurs rigides ont toujours le même référent versus les désignateurs semi-rigides ont un référent variable, indexé sur les différents contextes sociohistoriques.

Le nombre π = 3,14159265… est une constante dans tous les mondes possibles ; le capitalisme change de forme selon que l’on vise le « capitalisme productif » des années 1950 ou le « capitalisme spéculatif » des années 2000.

Deux versions de l’épistémologie sociologique

Nous avons défini les concepts utiles et les moyens de les distinguer. La question est de savoir si les sciences naturelles et les sciences sociales — qui s’occupent de classes de faits différents — doivent pour cela recourir à des principes épistémologiques différents. Les critères imaginés par les tenants de positions dualistes ourégionalistes (4) étant innombrables, je m’occuperai ici du statut des concepts en tant qu’il sert d’argument au débat à l’exclusion de toute autre considération. La thèse d’une épistémologie propre de la sociologie repose sur le statut particulier que l’on accorde aux concepts sociologiques. Limitons-nous à un exemple classique, dont l’auteur est connu et apprécié pour le sérieux de ses recherches. Dans Le Raisonnement sociologique, Jean-Claude Passeron soutient — c’est une conséquence de la thèse 2 et de son corrélat 2.3 — que tous les concepts sociologiques ont un statut logique de désignateurs semi-rigides :

« Il n’existe pas et il ne peut exister de langage protocolaire unifié de la description empirique du monde historique », « Le lexique scientifique de la sociologie est un lexique infaisable », « Le statut sémantique des concepts sociologiques se présente […] comme un statut mixte, intermédiaire entre le nom commun et le nom propre », « Les concepts sociologiques sont des noms communs […] qui ne peuvent être complètement coupés de leur référence déictique à des noms propres d’individualités historiques » (5) (mises en gras par D. Raynaud).

L’auteur soutient que les concepts insérés dans une démonstration sociologique diffèrent de ceux qui sont utilisés dans les sciences de la nature. Il assujettit l’épistémologie à l’ontologie sociologique : cette discipline traitant d’objets spécifiques, ses concepts sont spécifiques.

Mais il importe de voir qu’il existe deux manières de soutenir cette thèse :
Thèse forte – la sociologie se distingue des sciences naturelles parce que ses concepts sont d’une nature différente : les sciences naturelles recourent à des concepts analytiques et taxinomiques ; la sociologie recourt à des concepts idéaltypiques ou semi-rigides.
Thèse faible – la sociologie se distingue des sciences naturelles parce que, quoiqu’elle fasse un usage régulier de concepts analytiques et taxinomiques à l’instar des sciences naturelles, elle est la seule à employer des concepts idéaltypiques et semi-rigides.

Examen de la thèse forte

Un des caractères saillants des sciences naturelles, en particulier de la physique, est le fait qu’elles utilisent des concepts analytiques mathématiques.

Or, l’examen le plus vague laisse apparaître que beaucoup de concepts sociologiques ne sont assujettis à aucune singularité socio-historique (rationalité téléologique ou axiologique, décision, déclassement, agrégation, effet pervers, mobilité sociale, etc.). On trouve donc en sociologie des concepts qui ne sont rien moins que des concepts taxinomiques ou analytiques, au sens des définitions 1 et 2 données au début de ce texte. Laissons de côté les concepts taxinomiques  et voyons plutôt le cas des concepts analytiques.
Il existe tout d’abord un argument de fait. L’existence d’une sociologie mathématique est le premier argument sérieux de l’existence de ces concepts analytiques en sociologie : statistique descriptive et inférentielle, analyse factorielle sont des chapitres connus des sociologues. Mais d’autres sont également pourvus d’applications sociologiques : analyse combinatoire, théorie des jeux, théorie de la décision, théorie des choix collectifs, processus stochastiques (par exemple, les chaînes de Markov appliquées à la modélisation de la mobilité sociale), théorie des graphes (formalisation des réseaux sociaux), treillis de Galois (extraction des caractéristiques communes des individus d’un réseau), etc. Tous constituent des domaines par excellence où le raisonnement porte exclusivement sur des concepts analytiques.

Se présente ensuite un argument historique que rappelle Marc Barbut (6). Cet argument — opposé au jugement d’André Weil — est que les sciences sociales ont très directement contribué au développement des mathématiques. Barbut signale les contributions de Pascal, Huygens, Leibniz au calcul des probabilités (issu d’un problème de décision) ; celles de Jacques et Nicolas Bernoulli à la statistique inférentielle ; celles de Condorcet, Zermelo, Borel et von Neumann à la théorie des jeux. Mais si les mêmes savants ont contribué au progrès des sciences physiques et à celui des sciences sociales, pourquoi auraient-ils fait de bonnes mathématiques en physique et de mauvaises mathématiques en sociologie ?

Examinons maintenant un concept de cette sociologie mathématique dont il vient d’être question, et prenons le cas de la sociologie des réseaux.

1° Cette spécialité utilise des concepts analytiques quantitatifs (au sens de Carnap), qui tirent leur caractère de la théorie mathématique sous-jacente à la sociologie des réseaux : la théorie des graphes. Distinguons tout d’abord les relations orientées (don, conseil, etc.) des relations non orientées (mariage, interconnaissance, etc.) Les relations du premier type permettent la construction d’un graphe orienté dont la « densité » vaut D= L/(g(g – 1)) où L représente le nombre d’arcs et le g le nombre de sommets du graphe. Le concept de densité est organiquement lié à une mesure : il s’agit, au sens de Carnap, d’un concept quantitatif intensif (non additif) qui satisfait aux règles classiques permettant de définir la mesure :

1° existence d’une relation d’équivalence ;
2° existence d’une relation d’ordre ;
3° choix du zéro (D = 0 pour une collection de sommets déconnectés) ;
4° choix d’une unité (D = 1 dans un graphe complet) ;
5° choix d’une échelle (0 ≤ D ≤ 1).

Je ne vois pas que la sociologie utilise ici des concepts d’un statut logique différent de celui qui caractérise les concepts des sciences physiques. Carnap explique d’ailleurs fort bien ce qui fonde cette absence de différence entre physique et sociologie :

« Les concepts quantitatifs ne nous sont pas donnés par la nature ; ils découlent de la pratique qui consiste à appliquer des nombres aux phénomènes naturels. Quel avantage y a-t-il à cela ? Si les grandeurs quantitatives étaient fournies par la nature, nous ne songerions pas à poser la question, pas plus que nous ne demandons : à quoi servent les couleurs ? La nature pourrait fort bien exister sans couleurs, mais on a plaisir à percevoir leur présence dans le monde. Elles font partie de la nature, tout simplement ; nous n’y pouvons rien. Il n’en va pas de même pour les concepts quantitatifs. Il font partie du langage et non pas de la nature » (R. Carnap, Les Fondements philosophiques de la physique, p. 107).

Il s’ensuit que la présence ou l’absence de concepts analytiques (quantitatifs) dans une discipline ne tient pas à la nature des faits empirique étudiés par cette discipline, mais à une décision de l’observateur de se donner (ou non) des définitions strictes et un système de mesure des observables : c’est ce qu’a su faire la sociologie des réseaux, en appliquant le langage de la théorie des graphes aux relations sociales.

2° Certaines démonstrations sociologiques recourent presque exclusivement à des concepts analytiques de ce type. C’est le cas de la juridicisation croissante des sociétés modernes expliquée par Piaget à partir de la distinction faite par Franck et Timasheff entre relations interpersonnelles et relations transpersonnelles. Supposons un groupe composé des individus A, B, C… Par rapport à A, les liens (A, B), (A, C), (A, D)… sont des relations interpersonnelles (notées rip), les liens (B, D), (C, B), (C, D) sont des relations transpersonnelles (notéesrtp). Les relations interpersonnelles sont des relations directes ; elles sont impliquées dans une action réciproque classique (A cause un préjudice à B ; B demande réparation à A). Les relations transpersonnelles mobilisent quant à elles des formes de jugement indirect (A cause un préjudice à B ; B en informe C ; C juge l’action de A collectivement préjudiciable). Si l’on fait une combinatoire de ces relations dans un graphe complet de n individus, on constate que :

Card (rip) = n (n – 1)           et          Card (rtp) = n (n – 1)(n – 2) / 2

La croissance des rip et des rtp obéit au fait que les relations interpersonnelles varient comme n2 alors que les relations transpersonnelles varient comme n3. L’écart entre rip et rtp croît en fonction de n. Il est donc faible dans les sociétés peu volumineuses (hordes, tribus), fort dans les sociétés volumineuses (états-nations modernes). À mesure que croit le volume de la société, le règlement des différends fondé sur les rip (action en retour) cèdera la place à un règlement fondé sur les rtp (évaluation juridique par des tiers). C’est pourquoi on peut observer une juridicisation croissante des sociétés modernes. La réduction d’une société à un graphe complet est une idéalisation, mais les concepts qui interviennent dans cette démonstration sont tous des concepts analytiques ; aucun ne peut porter le nom de désignateur semi-rigide.
La thèse de l’absence en sociologie des concepts analytiques est donc inexacte. Elle n’est vraie que de la seule partie de la sociologie qui en condamne l’usage.

Examen de la thèse faible

Pour que la thèse faible soit réfutée, il faut établir la présence de concepts idéaltypiques ou de désignateurs semi-rigides dans les sciences naturelles. Admettons par hypothèse que les concepts de la sociologie sont des idéaltypes ou des désignateurs semi-rigides. Ces espèces sont-elles inconnues dans les sciences physiques ?

Concepts idéaltypiques

La spécialité de la sociologie tient-elle à son usage des idéaltypes ? Si le mot n’est pas utilisé en physique, sa définition est applicable à certains concepts. Renvoyons aux textes :

« Lorsque les rayons issus d’un point objet Ao émergent de l’instrument en convergeant vers un point Ai, on dit que l’instrument est stigmatique pour le couple de points AoAi […] Un tel stigmatisme est rigoureux si l’on admet que le caractère ponctuel de Ai est de même nature que celui de Ao, c’est-à-dire si l’on admet que l’instrument n’introduit aucune altération. En réalité, l’instrument altère toujours le caractère ponctuel de l’image […] Le stigmatisme rigoureux est donc une idéalisation ».
« Dans un repère galiléen, toute particule isolée décrit un mouvement rectiligne et uniforme […] Pratiquement, l’univers dans lequel nous vivons est constitué de nombreuses particules et la particule isolée est une vue de l’esprit. Cependant les interactions entre particules diminuent lorsque la distance entre ces particules augmente » (J. Bok et P. Morel, Mécanique/Ondes, Paris, Hermann, 1971, p. 25, 40).

« Lumière monochromatique », « milieu homogène et isotrope », « stigmatisme rigoureux », « particule isolée », « choc élastique », « gaz parfait », « corps noir » sont des concepts analytiques qui n’ont de corrélats empiriques qu’approximatifs. Le physicien manipule des concepts purifiés. Dans le monde réel, il sait que les concepts sont des idéalisations qui décrivent approximativement les phénomènes réels qui apparaissent spontanément. En quoi cela fait-il une différence avec la sociologie ?

Désignateurs semi-rigides

Le référent d’un désignateur rigide est identique à lui-même dans tous les mondes possibles ; celui d’un désignateur semi-rigide doit varier en fonction du contexte. Esclavage romain/colonial, judaïsme ashkénaze/séfarade, etc. Dans tous ces cas on retrouvera l’idée d’une « indexation sur une série mobile de cas singuliers ». Mais la sociologie est-elle seule à utiliser des désignateurs semi-rigides ? La réponse est négative. Les astronomes distinguent les concepts analytiques explicatifs (rayon, masse, magnitude absolue, température de surface, pression, etc.) et les concepts phénoménaux (étoiles, amas, galaxies). Prenons le cas des étoiles. Si l’on réunit les « désignateurs » couramment utilisés par les astronomes, les étoiles sont identifiées comme :étoiles de Wolf-Rayet, nébuleuses planétaires, super-géantes, géantes rouges, sous-géantes, naines, naines blanches, naines brunes, étoiles carbonées, novae, supernovae, étoiles à neutrons, trous noirs, étoiles variables périodiques ou non, pulsantes ou non pulsantes, Céphéides, étoiles RR Lyrae, Mira, δ Scuti, βCMa, ZZ Ceti, P Cygni, étoile de Barnard, étoiles binaires, pulsarsetc. On trouve là une telle diversité que certains, comme Audouze, n’hésitent pas à parler de « zoologie stellaire » (J. Audouze et J. Lequeux, Cours d’astrophysique 1976-1977, Palaiseau, École Polytechnique, 1977, p. 35).

On trouve dans cette liste l’équivalent exact des « désignateurs semi-rigides » ou « semi-noms propres ». Les Céphéides (massives) et les étoiles RR Lyrae (peu massives) sont des étoiles variables dénommées par le nom propre d’un cas paradigmatique (δ Cephei pour les Céphéides). C’est également en ce sens qu’on parle des étoiles de type ZZ Ceti, etc. La dénomination des étoiles variables a largement utilisé ce procédé : un « nom propre » (au sens de Kripke) est pris comme « profil » de reconnaissance d’autres objets célestes. Par suite, il devient un « semi-nom propre » indexé sur une série de cas singuliers.

On ne voit guère ce qui distingue ce procédé intellectuel de celui préconisé par Passeron, ou même par Weber, lorsqu’il définit les formes de charisme en relation avec l’économie : charisme bonapartiste, charisme de Périclès ou charisme américain. Là encore, il s’agit d’identifier un type, non tant par ses caractéristiques abstraites, que par les propriétés singulières exhibées par le cas paradigmatique.

Classification ou typologie stellaire ?

Admettons enfin que la sociologie recoure à des typologies versus classifications. Est-elle la seule dans ce cas ? Prenons un exemple qui révèle assez bien la limite de cette distinction.

Les étoiles sont assujetties à la classification de Harvard, fondée sur la température de surface et la magnitude absolue. On distingue les classes O, B, A, F, G, K, M (des hautes aux basses températures) elles-mêmes subdivisées en sous-classes par un suffixe décimal 0…9. Chacune correspond à un ensemble de propriétés physiques. Les astronomes se réfèrent à cette « classification » en employant indistinctement les mots « classe » ou « type spectral ». Que signifie cette hésitation? L’analyse montre qu’il ne s’agit pas d’une inadvertance : le choix de « type » est légitime. Il existe même des raisons tout à fait fondées de préférer le syntagme « type spectral » à celui de « classe spectrale », en dépit du flottement terminologique qui caractérise leur usage.

Rappelons les principales, qui sont au nombre de six.

1. Les types spectraux ne permettent d’identifier correctement que les étoiles (naines) de la « séquence principale » du diagramme de Hertzsprung-Russell : il existe toujours des étoiles plus froides ou plus chaudes de même type spectral.

2. Ces anomalies ont été à l’origine d’une nouvelle classification dite de Yerkes ou MKK (Morgan, Keenan, Kellman, 1943) en « classes de luminosité » ; on ajoute le suffixe 0, Ia, Ib, II, III, IV, V, sd (VI), wd (VII) pour caractériser l’étoile : le Soleil est par exemple une étoile G2 V. La classification a par ailleurs été complétée par l’introduction de nouveaux types : W (puis Q et P) en amont de O et des types C (subdivisé en R et N), S et L, T en aval de G.

3. Ces classifications n’absorbent pas la diversité du phénomène « étoile ». Le concept d’« étoile G » est un profil de reconnaissance qui laisse des différences résiduelles entre deux étoiles G du même type ou du même sous-type (Soleil, α Centauri, β Comae Berenicesetc.). C’est le diagnostic qui ressort de ce texte de Schatzman :

« La classification spectrale à deux dimensions est à la fois un acquis fondamental de l’astrophysique stellaire et la grille de référence par rapport à laquelle s’établissent toutes les singularités. En effet de nombreuses étoiles ne se plient pas aisément aux règles de la classification MKK : elles sont particulières. C’est le cas des étoiles à raies d’émission de type B, dites Be, dont un prototype est αCas ; des étoiles de type A et B ayant des raies intenses d’éléments très peu répandus comme le gadolinium, le mercure ou les terres rares, ou aussi des raies anormalement intenses de certains élements connus (Mn, Si, Fe) : on les nomme Ap et Bp ; des étoiles de type K et M à éruptions ou à raies d’émission : on les note Ke ou Me (exemples : α Cen C et UV Cet), des étoiles à baryum, etc. », E. Schatzman et F. Praderie, Astrophysique. Les étoiles, Paris, CNRS, 1990, p. 39 (mes italiques).

Ce texte montre on ne peut mieux l’écart perçu entre la classification spectrale et les objets célestes singuliers que rencontre l’astrophysicien dans ses observations. Reconnaître pleinement ces singularités n’impose ni d’abandonner la classification — au motif qu’elle serait dénuée de pouvoir descriptif —, ni de négliger les caractères particuliers des objets observés — au motif qu’ils devraient se plier entièrement à la description qu’en donne la classification.

4. La double classification par types spectraux et par classes de luminosité n’épuisant pas les propriétés des objets connus, les astronomes tombent régulièrement sur des objets célestes atypiques. On a donc proposé de compléter la nomenclature par des indications extérieures. Les astrophysiciens utilisent aujourd’hui un système de quinze suffixes indiquant les propriétés remarquables absentes de la classification. Voici la liste de ces suffixes :

e émission (hydrogène dans les étoiles de type O)
em émission de raies métalliques
ep émission particulière
eq émission à profil P Cygni (absorption des faibles longueurs d’ondes)
er émission inversée
f émission de l’hélium et du néon dans les étoiles de type O
k raies interstellaires
m fortes raies métalliques
n raies diffuses
nn raies très diffuses
p spectre particulier
s raies étroites
v variation dans le spectre
wk raies faibles

L’examen de cette liste montre que les suffixes désignent : tantôt un phénomène atypique (cas des spectres eq, er) ; tantôt — ce qui est plus intéressant pour notre comparaison — un phénomène proprement inclassable (cas des spectres ep, p, v).

5. Ensuite, il faut observer que, contrairement à ce que suggèrent les mots « classes » et « classification », les étoiles peuvent appartenir à plusieurs classes, y compris même à des classes que tout oppose a priori. Reprenons la classification à partir des données récentes recueillies par Hipparcos, chargé d’établir un catalogue de 115 000 étoiles jusqu’à la 12e magnitude. Leur positionnement sur le diagramme de Hertzsprung-Russell forme un nuage en Y (séquence principale + sous-géantes). Le dépouillement des données Hipparcos a révélé le défaut de correspondance exacte entre type spectral et magnitude absolue qui est au fondement de la classification. La définition des « standards » (c’est-à-dire des étoiles paradigmatiques servant de référence à chaque sous-type) est confrontée à ces anomalies. L’analyse des données Hipparcos a récemment conduit Ginestet, Carquillat et Jaschek à la découverte d’étoiles ayant un statut paradoxal, hybride entre « naines » et « géantes » :

« HD 204613 est une étoile de type G1 IIIa : CH1,5 dont les données photométriques et spectroscopiques sont en nette opposition […] la photométrie correspondrait à celle d’une naine et le spectre indiquerait une classe III [géante]. Deux autres étoiles géantes sortent aussi nettement du groupe mais, cette fois, en direction de la classe II : ce sont HD 81817 et HD 176670 », N. Ginestet, J.-M. Carquillat, C. Jaschek, Astronomy and Astrophysics, Supplement Series 142 (2000): 13-24.

Ces cas permettent de douter que l’intérêt des singularités soit un caractère propre de la sociologie. La « zoologie stellaire » n’est pas moins foisonnante de cas singuliers. Mais il existe encore une façon de sauver l’irréductibilité épistémologique de la sociologie : prétendre que l’astrophysicien — au contraire du sociologue — tente, à travers cette zoologie, de confirmer la typicalité des objets célestes. Est-ce le cas ? Deux indices paraissent montrer le contraire :

1° le nombre de publications consacrées aux objets « exotiques » (en dehors de la séquence principale) qui sont pourtant d’une abondance tout à fait négligeable dans l’univers ;

2° le nombre de publications consacrées à des phénomènes singuliers comme l’éruption solaire du 25 juillet 1946 ; la couronne blanche de l’éclipse totale de Soleil du 30 juin 1973 ; l’environnement de β Pictoris ou la supernova 1987A parfois considérée comme supernova « hors la loi » à cause de sa courbe de luminosité.

Les astrophysiciens n’ont pas l’obsession de la typicalité. Ils s’intéressent également aux singularités. Cela fait-il une différence avec la sociologie ?

Conclusion

Certains concepts sociologiques sont des concepts idéaltypiques et des désignateurs semi-rigides ; d’autres sont des concepts analytiques. Certains concepts des sciences physiques sont des concepts analytiques quantitatifs, d’autres des concepts typologiques et des désignateurs semi-rigides. L’ontologie sociologique ne secrète donc pas de concepts ayant une nature spéciale. De ce fait, la thèse forte et la thèse faible sont réfutées. Le statut des concepts n’est pas un argument du dualisme ou du régionalisme, au sens où l’on devrait — à cause de celà — juger la sociologie selon des normes spéciales de scientificité.

Il existe évidemment bien d’autres critères à partir desquels on peut essayer de donner à la sociologie un statut épistémologique particulier, mais ce n’est pas le lieu de les examiner ici (7).

Dominique Raynaud. Contact : dominique.raynaud (at) upmf-grenoble.fr.


Notes

(1) « L’idéaltype […] n’a d’autre signification que d’un concept limite purement idéal, auquel on mesure la réalité pour clarifier le contenu empirique de certains de ses éléments importants », M. Weber, Essais sur la théorie de la science, Paris, Plon, 1992, p. 172.

(2) Weber distingue trois types de domination légitime : la domination légale-rationnelle (le chef tire sa légitimité d’un ordre rationnel défini par les « membres » de la société), la domination traditionnelle (aux yeux des « sujets » le chef est investi d’une légitimité issue de la tradition) et la domination charismatique (le chef tire sa légitimité des capacités extraordinaires que veulent bien lui prêter ses « disciples »). Il est rare de rencontrer ces types à l’état pur. Les cas historiques de domination sont le plus souvent des mixtes (la légitimité de De Gaulle était essentiellement du type légal-rationnel, mais des éléments de charisme l’ont probablement renforcée).

(3) Kripke donne la définition suivante : « un désignateur désigne un certain objet rigidement s’il désigne cet objet partout où celui-ci existe ; si, de surcroît, l’objet existe nécessairement, le désignateur peut être appelé « rigide au sens fort » », S. Kripke, La Logique des noms propres, Paris, Éditions de Minuit, 1982, pp. 36-37. Outre les noms propres (« Neptune »), les désignateurs rigides absorbent les constantes (« π », rapport de la circonférence du cercle à son diamètre) et les concepts d’usage partitif (« eau », « oxygène », etc.).

(4) Plusieurs expressions ont été utilisées pour dire que la sociologie n’était pas une science comme les autres. On a parlé du dualisme des sciences naturelles et sociales – au sens où il existerait deux blocs de sciences disjoints. Cette expression, qui implique une séparation radicale des mondes naturel et humain, fait référence au Methodenstreit allemand, dominé par la figure de Dilthey. On parle aussi de régionalisme, dans un sens très librement dérivé de Bachelard et de Bunge, au sens où chaque discipline possèderait des caractères propres. Le régionalisme n’a pas les mêmes implications que le dualisme. D’abord, parce qu’il peut se dispenser de penser une opposition frontale entre sciences naturelles et sciences sociales. Ensuite, parce qu’il n’est pas tenu de postuler une unité au sein de ces ensembles de disciplines – ce que fait le dualisme. Cette unité étant discutable, le régionalisme nécessite moins d’hypothèses. Toutefois, il existe des passerelles entre dualisme et régionalisme. Si on s’intéresse à une seule discipline, ces expressions deviennent à peu près équivalentes, puisqu’elles cherchent à identifier les caractères distinctifs d’une discipline par rapport aux autres.

(5) J.-C. Passeron, Le Raisonnement sociologiqueop. cit., pp. 363, 371.

(6) M. Barbut, Les mathématiques et les sciences humaines. Esquisse d’un bilan, L’Acteur et ses Raisons. Mélanges en l’honneur de Raymond Boudon, Paris, PUF, 2000, pp. 205-224.

(7) Pour une analyse critique de plusieurs autres critères, voir D. Raynaud, La Sociologie et sa vocation scientifique, Paris, Editions Hermann, 2006.

De la difficulté d’être darwinien – l’énigme pédagogique des éléphants sans défenses

Voici un extrait de la publication de notre collègue Gérald Bronner « La résistance au darwinisme : croyances et raisonnements » dans la Revue française de sociologie* qui offre un outil magistral aux enseignants.
J’ai (RM) tenté de reproduire l’énigme moi-même dans mes enseignements (voir deuxième partie).

(…)  Si l’on réalisait une enquête pour savoir si les Français adhèrent aux thèses de Darwin, on obtiendrait sans doute des CorteX_Gerald_Bronnerrésultats assez différents de ceux du sondage américain.Il est possible d’imaginer que nos compatriotes se déclareraient plus volontiers darwiniens que leurs voisins d’outre-Atlantique, pourtant il serait sage de rester sceptique face à ces résultats. En effet, pour prendre ce genre de déclarations au sérieux, il faudrait être assuré que le sens commun conçoit clairement ce qu’être darwinien signifie, ce dont il est permis de douter.

Pour tester cette idée, nous avons réalisé une expérimentation (18) qui consistait à soumettre 60 individus à une situation énigmatique qui, précisément, concernait les métamorphoses du vivant. Cette situation réelle avait été relayée, faiblement, par la presse (19) et était de nature à mesurer les représentations ordinaires de l’évolution biologique.

L’énoncé de l’énigme était lu lentement aux sujets volontaires. En plus de cette lecture, cet énoncé était proposé sous forme écrite et l’entretien ne commençait que lorsque le sujet déclarait avoir compris parfaitement ce qui lui était demandé. Il lui était laissé ensuite tout le temps qui lui paraissait nécessaire pour proposer une ou plusieurs réponses à cette énigme. La grille d’entretien avait été conçue pour inciter l’interviewé à donner toutes les réponses qui lui viendraient à l’esprit, attendu que ce sujet n’impliquait pas(en particulier en France), a priori, une charge idéologique ou émotionnelle forte, de nature à susciter des problèmes d’objectivation ou de régionalisation (20).

Trois critères présidèrent à l’analyse de contenu de ces 60 entretiens.

1) Le critère de spontanéité : il consistait à mesurer l’ordre d’apparition des scénarios dans le discours. En d’autres termes, on cherchait à voir quelles seraient les solutions qui viendraient le plus facilement à l’esprit des individus face à l’énigme.

Le critère de récurrence : il consistait à mesurer le nombre d’évocations du même type de scénario dans un entretien.

3) Le critère de crédibilité : à la fin de l’entretien, on demandait à l’interviewé celui, d’entre les scénarios qu’il avait évoqués, qui lui paraissait le plus crédible. On demandait par exemple : « Si vous aviez à parier sur l’une des solutions de l’énigme que vous avez proposées, laquelle ferait l’objet de votre mise ? »

Ces critères furent mobilisés pour mesurer les rapports de force entre les différents discours possibles, les solutions imaginées, pour résoudre l’énigme.

J’ai retenu, en outre, le critère d’évocation simple qui mesurait le nombre de fois où un scénario avait été évoqué globalement, sans tenir compte de l’ordinalité ou des récurrences dans les différents discours et un critère d’évocation pondérée qui croisait le critère de spontanéité et celui de récurrence (21).

La population des sujets de l’expérimentation fut échantillonnée selon deux éléments.

  1. Le diplôme : tous les interviewés devaient être titulaires du baccalauréat. On s’assurait ainsi qu’ils avaient tous été familiarisés avec la théorie de Darwin, à un moment ou à un autre de leur scolarité.
  2. L’âge : la règle préliminaire de cette enquête était de mettre en œuvre l’idée d’une dispersion. Pour contrôler cette dispersion autour des valeurs centrales (l’âge moyen était de 37 ans), j’ai rapporté l’intervalle interquartile à l’étendue. Le premier représentant plus de 50 %(59 %) de la seconde, on s’assurait ainsi d’éviter des phénomènes de concentration des âges. Cette expérimentation fut menée de novembre 2005 à janvier 2006, principalement auprès de personnes vivant en Île-de-France (N = 49), et tous en Métropole(Lorraine N = 4, Haute-Normandie N = 4, Midi-Pyrénées N = 3). Cette population était composée de 33 femmes et 27 hommes, de cadres, professions intellectuelles et supérieures (N = 14), de professions intermédiaires (N = 17), d’employés (N = 7), d’étudiants (N =11), de chômeurs(N = 5), de retraités (N = 4), d’un agriculteur exploitant et d’une femme au foyer.

Cette situation énigmatique, tirée d’un fait réel (22), fut donc soumise à ces 60 personnes sous la forme suivante :

« À l’état sauvage, certains éléphanteaux sont porteurs d’un gène qui prévient la formation des défenses. Les scientifiques ont constaté récemment que de plus en plus d’éléphanteaux naissaient porteurs de ce gène (ils n’auront donc pas de défenses devenus adultes). Comment expliquez cette situation ? »

Vous pouvez tenter de répondre à cette question. Puis cliquez .

* Bronner G., La résistance au darwinisme : croyances et raisonnements, Ophrys, Revue française de sociologie 2007/3 – Volume 48. Télécharger. Avec l’aimable autorisation de Gérald Bronner.

(18) Je remercie ici la promotion de maîtrise de sociologie de l’université Paris-Sorbonne 2005 sans l’aide matérielle de laquelle cette recherche eût été beaucoup affaiblie.

(19) Un encart de quelques lignes dans Libération (19/07/2005).

(20) Blanchet et Gotman (1992).

(21) Cette mesure n’est pas sans évoquer ce que les psychologues sociaux nomment l’analyse prototypique et catégorielle qui consiste à croiser le rang d’apparition de l’élément et sa fréquence dans le discours et à effectuer ensuite une typologie autour d’éléments sémantiquement proches. Un classement d’éléments cognitifs peut alors être obtenu soulignant le caractère central de certains d’entre eux. Sur ce point voir Vergès (1992, 1994).

(22) Sa réalité était sans doute un avantage, un autre était que le fait était passé presque inaperçu. On ne pouvait donc pas s’attendre à ce que les interviewés connaissent la solution de cette énigme comme cela aurait pu être le cas si j’avais choisi de les faire réfléchir sur la célèbre « affaire » des papillons Biston betularia, plus connus sous le nom de « géomètres du bouleau » ou « phalène du bouleau », dont le phénotype dominant changea au XIXe siècle dans la région de Manchester. Cette constatation inspira une expérience fameuse, menée entre 1953 et 1955 par le biologiste Bernard Kettlewell, et relatée dans tous les manuels de biologie évolutive. Cette recherche fournit, pour la première fois, la preuve expérimentale de l’existence de la sélection naturelle.

Le jeu des trois boîtes, ou problème de Monty Hall

Connaissez-vous Monty Hall ? C’est le nom d’un présentateur télé états-unien qui a présenté pendant près de treize ans le redoutable jeu Let’s make a deal mettant en scène un casse-tête probabiliste tout à fait contre-intuitif, et par là même, stimulant la pensée critique. Ce « faux paradoxe » dont la première forme connue a plus d’un siècle est également connu sous le nom du « jeu des deux chèvres et de la voiture ».
Une première version de ce casse-tête nous a été envoyée par Louis Dubé, des Sceptiques du Québec. Suite à sa publication sur cette page, un enseignant de mathématiques en classe préparatoire, Judicael Courant, nous a soumis une version pleine de variantes, ludique, élaborée à quatre mains avec son collègue Walter Appel, qui ne postule plus la bienveillance de l’animateur. De quoi faire chauffer nos neurones.


Version initiale 

CorteX_Monty-Hall

  • 100 $ sont cachés sous l’une de trois boîtes, identifiées : A, B et C.
  • On vous demande de choisir sous laquelle des trois boîtes se trouve l’argent.
  • Ignorant sous laquelle des boîtes se trouve l’argent, vous choisissez au hasard la boîte A.
  • Pour vous aider, on dévoile qu’il n’y a pas d’argent sous la boîte B.

QUESTION : Conservez-vous votre choix : A ?

1. Oui, je garde mon premier choix
2. Non, je change mon premier choix
3. Aucune importance (soit toujours garder, soit toujours changer)
4. Au hasard (l’un ou l’autre à « pile ou face » à chaque coup)

Pour la solution , cliquez sur ce lien : Louis Dubé, des Sceptiques du Québec, le partage avec nous sous une forme simple ; les plus férus de mathématiques pourront le résoudre avec le théorème de Bayes.

 

Variantes

Nous relayons ici les remarques de Judicael Courant sur le jeu des trois boîtes, envoyées au Cortecs en décembre 2014, ainsi qu’une version complètement démoniaque de ce  casse-tête.

Bonjour,
Enseignant de mathématiques et d’informatique en classe prépas, […] je suis cependant déçu par votre page sur le problème des trois boîtes car vous faites l’impasse sur une question qui me semble essentielle pour la résolution du problème : est-on sûr que, lorsqu’on nous dévoile qu’il n’y a pas d’argent sous la boîte B, c’est bien pour nous aider ?
Si on a des raisons d’en douter, la solution peut devenir très différente : par exemple dans le cas extrême ou celui qui a caché l’argent a un côté pervers, on peut penser qu’il ne nous propose de modifier notre choix que parce nous avons trouvé la bonne boîte. On pourrait aussi se demander si, lorsque nous avons choisi la bonne boîte, la personne qui nous aide choisit de façon équiprobable entre les deux boîtes restantes, ou si elle a une préférence (par exemple, elle prend la première dans l’ordre alphabétique).
Je soumets à votre sagacité l’exercice ci-joint que j’ai donné à mes étudiants de MPSI l’an dernier. C’est un énoncé repris sur un collègue, Walter Appel, que j’ai volontairement rendu un peu plus complexe […]. Il me semble en effet qu’il y a un point important à débusquer derrière les études de ce genre : elles partent d’hypothèses a priori, très souvent implicites et non remises en question.

Version initiale

En 1761, Thomas Bayes, théologien protestant, quitte pour toujours cette vallée de larmes. Il arrive aux portes du Paradis et, comme il n’y a plus beaucoup de places et que Bayes a parfois eu des opinions assez peu orthodoxes en manière de théologie, Saint Pierre lui propose le test suivant. T. Bayes est placé devant trois portes identiques, dont deux mènent à l’enfer et une au paradis, et il est sommé de choisir. N’ayant aucune information a priori, Bayes choisit une des portes au hasard. Avant qu’il ait le temps de l’ouvrir, Saint Pierre — qui est bon — lui dit : « Attends, je te donne encore un renseignement… » et lui ouvre une des deux autres portes (menant bien entendu à l’enfer). Que doit faire Bayes ? Garder sa porte, ou changer d’avis et prendre l’autre porte non ouverte ?

Variante 1

Reprendre l’exercice dans le cas où Saint Pierre a passé la soirée précédente à faire la fête, il ne sait plus du tout où mènent les portes et en ouvre une au hasard et se rend compte qu’elle mène à l’enfer.

Variante 2

Vous arrivez vous-même devant Saint Pierre mais vous remarquez qu’il a un pied de bouc : Saint Pierre a tellement fait la fête qu’il n’est plus en mesure de s’occuper des entrées et Satan en a profité pour le remplacer (en se déguisant). Vous imaginez assez vite ce que fait Satan : lorsqu’un candidat a choisi une porte,

  • si elle conduit vers l’enfer, il le laisse prendre la porte choisie 
  • si elle conduit vers le paradis, il lui montre une porte conduisant vers l’enfer et lui propose de changer.

Vous choisissez une porte, Satan vous propose de changer. Que devez-vous faire?

Variante 3

En fait, vous réalisez que Satan est bien plus pervers que cela:

  • si le candidat choisit une porte conduisant vers l’enfer, il lui propose quand même de changer avec la probabilité p1
  • si le candidat choisit la porte conduisant vers le paradis, il lui propose de changer avec la probabilité p2.

Que devez-vous faire?

Atelier Esprit critique & Travail – la Fabrique du futur

J’ai co-animé avec notre compère Philippe Rennard un atelier sur le sujet du travail dans le cadre du cycle de coformation de la Fabrique du futur, à Grenoble. Voici le déroulé de cet atelier et le matériel utilisé pour aborder des notions d’esprit critique dans le vaste domaine du travail, que ce soit dans la présentation de chiffres ou de graphiques ou dans les discours politiques.


Cet atelier avait pour objectif de décortiquer des discours politiques et médiatiques autour du monde du travail afin de mettre en lumière des techniques de manipulations langagières, de raisonnements fallacieux, et l’utilisation abusive de chiffres et de données scientifiques.

Après le décorticage d’exemples, le groupe était ensuite invité à échanger sur les enjeux et les implications de ces petites et grandes manipulations.

1ère étape : un peu d’outillage critique

Avant de partir sur le terrain il est nécessaire de s’équiper.CorteX_Chiffre_chomage_comparaison_graphique_Le_Petit_journal_29_11_2011_image2 J’ai donc présenté une partie des techniques de manipulation des chiffres, de leur présentation fallacieuse et des moyens de s’en prémunir en utilisant essentiellement du matériel tiré de l’article de Nicolas Gauvrit et du matériel de Guillemette Reviron : Mathématiques et statistiques – Graphiques, attention aux axes ! .
Cet outillage est important car il permet de tordre le cou à l’idée d’une objectivité totale dans la présentation de résultats scientifiques, qui bloque le débat et empêche toute contestation sous le prétexte que « c’est arithmétique ! on ne peut donc rien y faire ». Comme le dit Franck Lepage « On ne va pas descendre dans la rue en disant : non à l’arithmétique, non à l’arithmétique ! ».
Comprenons bien que si les données de bases sont objectives, la manière dont on en rend compte ne l’est pas forcément.

2ème étape : utilisation de données scientifiques

Des chiffres du chômage jusqu’aux sondages d’opinion, les discours politiques et médiatiques à propos du travail sont régulièrement étayés par des données de type scientifique. Pourtant ces données apparemment objectives peuvent être largement dévoyées, que ce soit pour mieux coller à la ligne éditoriale d’un journal, à celle d’un courant politique. J’ai présenté deux exemples.

1er exemple : le Journal du dimanche du 12 octobre 2008 affiche en couverture « Sondage : les Français veulent travailler le dimanche. »

L’article s’appuie sur un sondage Ifop-Publicis et indique que 67% des français veulent travailler le dimanche. Pourtant, quand on prend le temps d’éplucher ledit sondage, on se rend compte que la question était posée d’une bien curieuse façon.
Question : « travailler le dimanche est payé davantage qu’en semaine. Si votre employeur vous proposait de travailler le dimanche, accepteriez-vous ? ».
CorteX_travai_Titre choc2Réponses possibles :
– non jamais (33%)
– de temps en temps  (50 %)
– toujours  (17 %)
 
On note que la question n’est pas « voulez-vous travailler le dimanche ? » ou « êtes-vous favorable au travail le dimanche ? » comme le titre de l’article semble l’affirmer.
La question est construite d’abord sur une prémisse (travailler le dimanche est payé davantage qu’en semaine) puis une hypothèse (si votre employeur vous proposait de travailler le dimanche, accepteriez-vous ?). Cette construction oriente particulièrement les réponses des sondés, qui n’ont que le choix d’accepter la prémisse de départ qui ne va pourtant pas de soi (travailler le dimanche n’est pas forcement payé plus) et qui se centre sur l’aspect pécuniaire.
Enfin, les réponses possibles sont restreintes : – non jamais – de temps en temps  – toujours. La proposition de réponse à 3 entrées induit presque automatiquement un effet Bof en offrant une réponse moyenne, consensuelle : « de temps en temps », ce qui expliquerait peut-être les 50% pour cette réponse.
Les 3 entrées offrent, en outre, la possibilité de présenter les résultats à la guise du commentateur : « Travail le dimanche : 67% des français y seraient favorables », c’est-à-dire, 50 % « de temps en temps » + 17 % « toujours ».  Mais on pourrait commenter également : « Travail le dimanche : 83 % des français n’y seraient pas vraiment favorable » : c’est-à-dire 50 % « de temps en temps » + 33% « non jamais ».
Cette présentation joue sur un effet Bi-standard, qui consiste à raisonner selon deux standards différents selon les circonstances, en gros changer les règles en cours du jeu.
Article lié, sur Agoravox

2ème exemple : Le Figaro.fr du 12 Octobre 2010 titre « Partir plus tôt en retraite peut nuire à la santé »

CorteX_travai_Le figaro_travail et sante« Partir plus tôt en retraite ne permet pas forcément aux ouvriers d’en profiter plus longtemps. Au contraire, un rapport publié par l’Institut allemand pour l’étude du travail, montre que cela augmente les chances de mourir prématurément », annonce l’article du Figaro en octobre 2010, étude scientifique à la clé.
Fatal Attraction ? Access to Early Retirement and Mortality”, Andreas Kuhn Jean-Philippe Wuellrich, Josef Zweimüller, Institute for the Study of Labor, August 2010.

Là encore, la lecture de l’étude nous apprend beaucoup de choses, entre autres ces conclusions des chercheurs  : « Pour les hommes, partir à la retraite un an plus tôt augmente de 13,4% les chances de mourir avant 67 ans. Pour les femmes, en revanche, un départ à la retraite anticipé n’a aucun effet sur l’âge du décès » est interprété par le Figaro comme « Partir plus tôt en retraite peut nuire à la santé » C’est une simplification pour le moins radicale.

Ensuite l’article du Figaro ne mentionne pas une donnée importante. En effet, les chercheurs parlent de retraites volontaires et de retraites non volontaires (licenciements par exemple) : « La retraite précoce concernant les départs volontaires ne semble pas liée à la mortalité, alors que la retraite précoce causée par des licenciements involontaires l’est ». Cela change la conclusion de cette étude par rapport à la présentation qu’en fait l’article.

Enfin, l’article du Figaro ne mentionne pas les hypothèses d’explication des chercheurs, conclusion de l’étude : « Finalement, nous apportons des éléments prouvant que la retraite précoce involontaire a un effet négatif sur la santé, mais pas nécessairement la retraite précoce volontaire »

Ce sont bien les départs en retraite « involontaires » qui auraient un impact significatif sur la mortalité, et non le fait – en lui-même – de partir à la retraite plus jeune. Nous avons donc affaire à un effet Cigogne.
On peut se demander si l’article du Figaro n’a pas été construit d’abord sur une conception idéologique – qui serait : « partir en retraite plus tôt n’est pas forcément une bonne chose » – puis étayé ensuite par les données de l’étude scientifique, non sans de petits oublis et de grandes simplifications. Cela s’apparente à un effet petit ruisseaux : si les petits ruisseaux font les grandes rivières, les petits oublis (ou erreurs) permettent les grandioses théories. Pour éviter cet effet, on peut se poser la question suivante : tous les paramètres sont-ils donnés et donnés correctement ?

Article lié, sur Acrimed


3ème étape : supports vidéo

Désormais lourdement armé contre les manipulations, mon co-animateur Philippe Rennard a pris le flambeau pour présenter une série de documents vidéos comme supports de discussion. Il présente, quatre exemples de vidéos et résume les réactions qu’elles ont pu susciter.
Ces commentaires s’inscrivent dans le travail de réflexion de la fabrique du Futur : « Un autre monde du travail est possible… oui, mais lequel ? » 

1/ Serge Dassault et la valeur « travail »

[youtube=http://www.youtube.com/watch?v=cCnEYdhtqJM]

Dans cet exemple Serge Dassault oriente la pression sur les salariés :

  • en comparant l’incomparable, à savoir (bons) travailleurs chinois et (mauvais) français, sans même évoquer les différences abyssales entre les standards socio-productifs des pays respectifs ;
  • en nivelant par le bas : nous devrions culpabiliser de ne pas travailler assez, au lieu de nous mobiliser contre l’exploitation des travailleurs chinois.
C’est un discours qui fait fi des contraintes concurrentielles et des injonctions productivistes
 
 

2/ UMP : la République du travail et du mérite

[youtube=http://www.youtube.com/watch?v=PfnXQixZXvg]Dans cet exemple, Camille Bedin tente de masquer la répartition arbitraire des richesses :

  • sous couvert de l’idée reçue « la réussite ne pourrait s’accomplir en dehors du travail ». C’est la représentation d’un travail qui (par la magie du mérite) engendrerait la réussite sociale qui est inlassablement répétée ici ;
  • sous le concept « d’égalité des chances », cache-sexe des inégalités auxquelles aboutit une économie basée sur le capitalisme. Les déclinaisons récentes de ce concept vont de la Bourse au mérite aux internats d’excellence, structures sujettes aux discriminations positives qui permettront d’entretenir le mythe de l’ascension sociale ;
  • sous la gabegie de « l’assistanat » désignée comme cause de tous les maux économiques et sociaux. Cela résulte pourtant des impasses de l’idéologie du mérite dont le seul partage des richesses n’assurerait certainement pas la paix sociale.

3/ Wauquiez et les contreparties au RSA

[youtube=http://www.youtube.com/watch?v=hp0hX7XMdMs]

Laurent Wauquiez tente dans cet exemple de rendre évident des conditions à l’octroi de minima sociaux :

  • en manipulant les chiffres. Selon lui, un couple au RSA gagnerait plus qu’un couple au SMIC. C’est faux ;
  • en substituant à l’emploi salarié un service bénévole de travail obligatoire ;
  • en plafonnant, c’est-à-dire en réduisant les aides de l’État.

Autant de stratégies qui s’effondreraient avec par exemple un revenu de base inconditionnel.


4/ Un jour sur quatre, un Québécois perd la vie au travail

[youtube=http://www.youtube.com/watch?v=9jwNUlbYIYU]

Dans cet exemple le message tente de concilier santé et travail au sein d’une économie qui les rend profondément incompatibles :

  • on travaille pour gagner notre vie, pas pour la perdre. Difficile de ne pas déceler ici un détournement du slogan « soixante-huitard » « on ne veut pas perdre notre vie à la gagner« . Augmenter la sécurité sur un lieu de travail risqué préserve moins de vies que refuser tout travail dans des conditions hasardeuses.
  • la touche patriotique finale et anthropomorphique (le Québec a besoin de tous ses travailleurs) arrive comme pour convaincre de l’intérêt supérieur de la mobilisation dans l’intérêt du « travail » mais pas forcément des salariés.

Philippe Rennard et Nicolas Gaillard